00 Intro.qxd
Transcript
00 Intro.qxd
Quaderni del Centro Studi Magna Grecia 13 UNIVERSItà dEGlI StUdI dI NApOlI FEdERICO II dIpARtIMENtO dI dISCIplINE StORICHE “E. lEpORE” CENtRO INtERdIpARtIMENtAlE dI StUdI pER lA MAGNA GRECIA ARCHEOFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica Atti del VI Workshop (Napoli, 9-10 giugno 2011) a cura di Francesca Cantone Naus Editoria 2012 Università degli Studi di Napoli Federico II polo delle Scienze Umane e Sociali dipartimento di discipline storiche “E. lepore” Ha collaborato alle attività redazionali Marialucia Giacco Il volume è stato realizzato con un contributo del dipartimento di discipline storiche “E. lepore” e del polo delle Scienze Umane e Sociali Quaderni del Centro Studi Magna Grecia, collana a cura di Giovanna Greco. Centro Interdipartimentale di Studi per la Magna Grecia, dipartimento di discipline Storiche “E. lepore”, Università degli Studi di Napoli Federico II Comitato scientifico luisa Breglia, Carlo Gasparri, Giovanna Greco, Fabrizio lo Monaco, Francesca longo Auricchio Redazione scientifica luigi Cicala, Bianca Ferrara, luigi Vecchio I volumi della collana sono sottoposti al Consiglio Scientifico del Centro Interdipartimentale di Studi per la Magna Grecia ed al processo di peer review, affidato a specialisti anonimi, la cui documentazione è disponibile presso l’Editore. Progetto grafico e realizzazione Naus Editoria pozzuoli 2012. Naus Editoria, www.naus.it ISBN 978-88-7478-031-0 licenza Creative Commons Il volume ed i singoli contributi degli Atti nella versione digitale sono distribuiti con licenza Creative Commons Attribuzione 3.0 Italia; ciò significa che il lettore è libero di riprodurre, distribuire, comunicare al pubblico, esporre in pubblico, rappresentare ed eseguire quest'opera, di modicarla e di usarla per fini commerciali, a condizione che venga attribuita la paternità dell'opera ai curatori del volume e ai singoli autori dei contributi nei modi indicati dagli stessi o da chi ha dato l'opera in licenza. Indice 9-15 giovanna greco Presentazione 17-28 francesca cantone archeofoss 2011. considerazioni intorno. ATTI Esperienze virtuose di gestione aperta della conoscenza culturale. 33-34 Maria Mautone arcHeofoss. esperienze virtuose di gestione aperta alla conoscenza culturale 35-36 Paola Moscati open science e archeologia 37-42 Pietro citarella il sito internet del comune di napoli: da strumento informativo a spazio per la condivisione e la partecipazione 43-60 floriana Miele Modelli di conoscenza e sistemi informativi per la tutela, la gestione e la valorizzazione del patrimonio archeologico: esperienze in campania 61-73 renata esPosito, fiona Proto Modelli di conoscenza contestualizzata e prototipi di classificazione ontologica dei beni culturali - l’esperienza del c.i.r. cultura campania 75-84 Mario Mango furnari, carMine novello, Paolo acaMPa Octapy3: una piattaforma open source per un cMs cooperativo di depositi documentali distribuiti 85-98 Mirella serlorenzi, andrea de toMMasi, siMone ruggeri la filosofia e i caratteri Open - Approach del Progetto sitar - sistema informativo territoriale archeologico di roma. Percorsi di riflessione metodologica e di sviluppo tecnologico. 99-110 francesca cantone Open workflow, cultural heritage and university. The experience of the Master Course in Multimedia Environments for Cultural Heritage 111-123 federico Morando, ProdroMos tsiavos diritti sui beni culturali e licenze libere (ovvero, di come un decreto ministeriale può far sparire il pubblico dominio in un paese). Documentare e ricostruire: strumenti e metodi aperti. 127-139 vincenzo Moscato, antonio Picariello, angelo cHianese un framework per la creazione di ambienti virtuali 3d 141-152 luca Bezzi, nicolò dell'unto rilievo tridimensionale di reperti archeologici: tecniche a confronto 153-170 Pierre Moulon, alessandro Bezzi Python Photogrammetry Toolbox: A free solution for Three-Dimensional Documentation 171-182 Micaela sPigarolo, antonella guidazzoli Open Source e ricostruzione archeologica: l'esperienza del cineca per il progetto Museo della città La conoscenza archeologica: approcci aperti alla gestione ed analisi 185-198 danilo leone, nunzia Maria Mangialardi, Maria giusePPina siBilano, dario Balzano la storia emersa e sommersa: un database per l'archeologia dei paesaggi subacquei 199-209 alessandra de stefano, Maria giusePPina siBilano, giuliano volPe la citta' nascosta: un dBMs per il censimento e l'analisi delle strutture ipogee del centro storico di foggia 211-218 stefano costa, luca Bianconi, elisaBetta starnini tiPoM 2011: l'archeologia del software in archeologia 219-223 luca Bianconi, davide deBernardi, Paolo Montalto archidroide, gestione bibliotecaria informatizzata tramite tecnologie mobile open source 225-232 augusto PaloMBini r.finder: uno script per grass-gis finalizzato alla ricognizione intelligente 233-244 francesco carrer, faBio cavulli distanze euclidee e superfici di costo in ambiente montano: applicazione di grass ed r a diversa scala in ambito trentino 245-252 felice stoico, luca d'altilia analisi spaziale in archeologia dei paesaggi: il progetto n.d.s.s. (Northern Daunian Subappennino Survey) 253-264 sandra HeinscH, Walter Kuntner, giusePPe naPoniello Aramus Excavations and Field School, esperienze con Free/Libre e Open Source Software La diffusione e condivisione dell'informazione scientifica in archeologia. 267-276 andrea ciaPetti, dario Berardi, alessandra donnini, Maria de vizia guerriero, Matteo lorenzini, Maria eMilia Masci, davide Merlitti, stefano norcia, faBio Piro, oreste signore Baseculturale.it, un portale semantico per i beni culturali 277-286 valentina vassallo, denis Pitzalis la libreria digitale di cipro PosTEr sEssIon 289-292 siMone deola, valeria grazioli, siMone Pedron conversione di file da .dwg a .shp mediante l'utilizzo di software Open Source 293-295 alessio Paonessa da Mac a gnu/linux: migrazione dei dati da un gis di scavo 297-302 daMiano lotto, silvia fiorini analisi di dispersione del materiale archeologico a fondo Paviani: un approccio open source Giovanna Greco Presentazione È con vivo compiacimento che presento questo volume, accolto nella collana del Centro Interdipartimentale di Studi per la Magna Grecia, dove sono raccolti i lavori discussi nella sesta edizione del Workshop Open Source, Free Software e Open Format nei processi di ricerca archeologica svoltosi presso la Facoltà di Lettere e Filosofia dell’Università di Napoli Federico II nel giugno del 2011. Questi incontri hanno costituito, negli anni, un valido spazio per il confronto e il dibattito, divenendo un solido punto di riferimento per la ricerca di una metodologia condivisa nell’applicazione dei metodi informatici all’archeologia; sono state così affrontate problematiche complesse che comprendono le multiformi applicazioni che le nuove tecnologie offrono alla disciplina archeologica; sono state discusse tematiche inerenti l’archeologia quantitativa o l’elaborazione di database compartecipati, i sistemi informativi territoriali ma anche le forme della comunicazione, la trasmissione delle informazioni, la normativa legislativa sul patrimonio e sul dato archeologico. Il confronto, nella comunità scientifica degli archeologi - ma non solo - va avanti, con queste tematiche e con questa forma di incontri, già dal 2006 e il dato è indicativo di una problematica ancora da esplicitare e approfondire dove anime e filosofie differenti non hanno del tutto codificato solide basi unitarie. La scelta dell’Ateneo Federiciano quale sede per l’incontro del 2011 - di cui sono grata al comitato scientifico di ArcheoFoss - ha radici profonde e ben inserite nel dibattito odierno. La consapevolezza che la nostra professione di archeologi debba uscire dalla stretta dimensione disciplinare e richieda sempre più, accanto a una serrata preparazione culturale, una pratica multidisciplinare, parte da lontano; numerose e continue sono state iniziative e progetti che hanno messo in campo significative sperimentazioni e che, nell’ambito dell’Ateneo, hanno visto collaborare fattivamente, nel campo dell’archeologia, settori umanisti e settori scientifici, mostrando una capacità, non usuale, di fare sistema nella ricerca. La dimensione multi-disciplinare supportata da una stringata metodologia, costituisce, infatti, il livello più alto della ricerca scientifica e il campo archeologico si è rivelato, in questi ultimi decenni, quello più permeabile e ricettivo alle nuove sollecitazioni della tecnologia, valorizzando, pur nella diversità dei ruoli e delle competenze, le specificità scientifiche. Il rapporto tra scienza informatica/nuove tecnologie e archeologia - ma in modo più esteso - tutto il patrimonio culturale, ha visto per lungo tempo un rapporto altalenante, segnato, soprattutto nei decenni passati, da una reciproca incomunicabilità dove la teoria della strutturazione dei dati e le tecniche impiegate sono state viste, da parte degli archeologi, come un mezzo, uno strumento per archiviare una grande quantità di dati. Questo ha determinato che, ancora oggi, manca una qualche forma statutaria della disciplina dell’informatica archeologica che abbia parametri di riferimento universalmen- 9 10 te riconosciuti. Tuttavia è proprio la ricerca archeologica ad avvalersi, sempre più, di metodologie e tecniche delle cd. scienze dure dove la collaborazione tra studiosi dal diverso linguaggio porta alla produzione di un nuovo sapere. La creazione dell’Istituto per le Tecnologie Applicate ai Beni Culturali da parte del CNR negli anni Settanta del XX secolo ha rappresentato l’istituzione di un laboratorio sperimentale e ha avviato una nuova concezione nella cultura archeologica; si è andato maturando il principio che la metodologia informatica possa essere assimilabile a qualsiasi procedimento logico-scientifico e che la conoscenza integrata deriva dalla scoperta dei dati ma anche dal loro processo di accumulazione e analisi; alla base una solida preparazione filologica e storica, aperta a esplorare nuove forme di ricerca e di elaborazione. Nei decenni finali del XX secolo, si è andato sempre più affinando l’interesse degli archeologi per l’ottimizzazione della diagnostica, del rilievo, dei contesti, attraverso simulazioni sempre più raffinate; l’archeologo ha ben colto le potenzialità di una ricerca dove si possono raggiungere esiti innovativi, non altrimenti disponibili. In questo dibattito si inseriscono le numerose sperimentazioni dell’Ateneo Federiciano. È da una sollecitazione del Dipartimento di filosofia, con Gianfranco Borrelli e Giuseppe Tortora, che prende l’avvio, nell’anno accademico 1996-97, un corso di Perfezionamento in Scienze Umane e Nuove Tecnologie, prima esperienza per un’aggregazione di interessi e competenze tra mondo umanistico e mondo tecnologico; un filone di ricerca e didattica particolarmente felice che ha visto, negli anni, approfondimento e specializzazioni in master e corsi post laurea. Il Dipartimento di Discipline storiche, rispondendo a queste nuove istanze, si attrezza, per l’archeologia, di un sito web archeologico e di un laboratorio didattico-scientifico di Informatica per l’archeologia che segna l’avvio di una nuova strategia formativa, raccogliendo un’esigenza inespressa, ma tangibile, sia dell’utenza studentesca che dell’organico dei docenti. È di quegli anni la realizzazione, al santuario di Hera alla foce di Sele, a 8 km da Paestum, del primo “Museo Narrante” realizzato in Italia, in collaborazione tra il nostro Ateneo e la Soprintendenza Archeologica di Salerno; un museo “senza oggetti” che parte da una diversa concezione della comunicazione al grande pubblico della realtà archeologica, difficile da capire sulla base dei soli resti monumentali; l’allestimento è stato interamente organizzato su diversi sistemi della comunicazione informatica e su un’integrazione di nuove tecnologie, dalle ricostruzioni in 3D dei monumenti, alla loro collocazione nel paesaggio, alle voci parlanti che raccontano miti e leggende, fino alla riproposizione dello scavo archeologico, con le diverse metodologie modificatesi nel tempo. Un esempio felice di interazione tra Ingegneria Industriale e Archeologia è stato il progetto Archeocad. Archiviazione e restauro dei reperti archeologici mediante tecniche CAD-RP, realizzato negli anni tra il 2000 e il 2004. L’esperienza della modellazione solida, delle tecniche di prototipizzazione rapida e della realtà virtuale sono state applicate ai frammenti ceramici provenienti dagli scavi nel santuario di Hera alla Foce del Sele ed è stato realizzato un prototipo di lavoro che mira a semplificare e accelerare i tempi della catalogazione, dell’archiviazione dei frammenti ceramici, ma allo stesso tempo ha elaborato una tecnica di ricomposizione virtuale della forma quanto mai significativa per un corretto restauro dell’oggetto. Nel corso del 2001 con l’istituzione del Centro di Eccellenza per la Restituzione computerizzata di manoscritti e di monumenti della pittura antica, alla cui realizzazione concorrono ricercatori provenienti da diverse facoltà, è stata messa a punto un’analisi integrata ed è stata realizzata la restituzione computerizzata di immagini pittoriche e di manoscritti antichi, così da consentirne una esaustiva lettura, ma soprattutto una corretta progettazione degli interventi di restauro; il lavoro di ricerca, che ha riunito in un’unica struttura competenze diverse, ha elaborato un modello operativo e di strumentazione avanzata di intervento e di sviluppo delle tecnologie innovative i cui risultati disponibili sono stati trasferiti al sistema delle aziende operanti nel settore. Le principali tecniche applicate ed elaborate dal centro sono state quelle della visione artificiale, a diversi livelli della problematica, per la elaborazione automatica su calcolatore finalizzate al miglioramento della qualità dell’immagine; tale procedimento ha consentito il riconoscimento e il supporto a una interpretazione automatica delle parti poco leggibili e deteriorate dal tempo. La Visione Artificiale ha reso poi disponibili tecniche e metodologie per l’acquisizione, la memorizzazione, il miglioramento qualitativo, la segmentazione (divisione in parti), il riconoscimento di parti e l’analisi quali/quantitativa, che hanno consentito notevoli sviluppi nel complessivo processo di recupero di documenti storici e archeologici. L’esperienza del Centro di Competenza Innova, avviato nel 2003, ha costituito un altro interessante campo di prova per la realizzazione di un sistema integrato per la tutela e la conservazione del patrimonio culturale; per il settore archeologico del nostro Ateneo sono state avviate una serie di sperimentazioni finalizzate a una diagnostica e a un restauro dei monumenti; la creazione di un prototipo di laboratorio mobile, pluritematico, ha visto la completa sinergia tra archeologi e tecnici, fino ad arrivare nell’ambito della comunicazione e della fruizione a distanza a una ricostruzione virtuale dell’antica città di Paestum e, nei Campi Flegrei, alla realizzazione di una restituzione stereofotogrammetrica di monumenti cumani. Il filone di ricerca, proficuamente realizzato nel settore dell’archeologia, ha avuto una ricaduta didattica di notevole impatto; già nell’anno accademico 1999-2000 prendono l’avvio due master di alta formazione in Multimedialità e Beni Culturali e Comunicazione e Beni Culturali e, successivamente, si realizza un corso base di nuove tecnologie e archeologia. È sulla base di queste istanze e iniziative che la Facoltà di Lettere e Filosofia integra, nei curricula formativi, le competenze informatiche di base che producono sia moduli di insegnamento che tirocini specifici sull’applicazione delle tecnologie ICT ai beni culturali. L’innovazione nella didattica diventa ancora più incisiva nei livelli più avanzati della formazione, dove l’informatica e le nuove tecnologie accompagnano la didattica dei singoli comparti dei beni culturali e dei loro aspetti amministrativi e gestionali. Un taglio fortemente interdisciplinare connota il Dottorato Interpolo in Conservazione Integrata dei Beni Culturali, avviato nell’anno accademico 2003-04 grazie a una significativa sinergia tra le Facoltà di Lettere, Economia e Commercio, Ingegneria; anche nell’ambito del Dottorato di Archeologia; è stato affrontato un tema di ricerca, nel filone dell’Archeologia dei paesaggi, finalizzato alla ricostruzione del paesaggio antico, delle azioni e delle interazioni tra uomo e ambiente circostante. La ricerca, basata sull’ausilio di modelli di indagine sviluppati in seno alle discipline matematiche e informatiche, ha tentato una ricostruzione del “paesaggio invisibile” creato dalla distribuzione spaziale dei luoghi di culto nella Campania centro-settentrionale, tra età arcaica ed età romana. Infine è di questi giorni l’approvazione ufficiale, nell’ambito del PON Campania (2007-13) di un Distretto ad alta tecnologia applicato ai Beni Culturali che rappresenta per certi versi il felice esito finale delle tante sperimentazioni e iniziative scientifiche portate avanti in questi anni. Nel Distretto, dove il patrimonio archeologico costituisce il campo maggiore di interesse e di applicazione tecnologica, operano settori disciplinari quanto mai differenti fra loro ma coesi nella progettazione di una rete integrata di ricerca, conoscenza e fruibilità del patrimonio culturale; le tecnologie abilitanti - dalla diagnostica, alla divulgazione e alla fruizione - costituiscono il cuore del progetto e allo stesso tempo rappresentano la sfida, per gli archeologi al confronto e all’interazione con le “scienze dure” così da proporre nuovi modelli di lettura polisemica del patrimonio archeologico. È in questa articolata e ricca cornice di riferimento che si inquadrano le due giornate di lavoro organizzate su tematiche specifiche che hanno visto a confronto le espe- 11 rienze di gestione aperta della conoscenza culturale, gli strumenti per la documentazione e la ricostruzione tridimensionale, le tendenze verso l’apertura alla gestione e all’analisi dei dati e infine la diffusione e la condivisione dell’informazione scientifica archeologica. In questi primi decenni del XXI secolo, la maggiore diffusione di strumenti hardware e software, ma soprattutto la progressiva emancipazione degli archeologi di nuova generazione, ha portato il dibattito, nella comunità scientifica, su tematiche innovative che hanno coinvolto il ruolo e la funzione delle procedure computazionali nella ricerca archeologica. Oggi l’orizzonte si è ulteriormente allargato e le parole d’ordine sono diventate scambio, condivisione, open source e open access con tutte le problematiche che tale tematica pone, dalla intricata questione legata alla tutela del copyright, ai diritti sulle immagini, alla protezione degli editori e chi più ne ha più ne metta; sono problematiche vecchie, riaperte dalla diffusione del digitale, ma che vengono affrontate, purtroppo, su basi di vecchie logiche. Si assiste così a due approcci opposti e a volte estremizzati, con effetti talvolta paralizzanti sulla circolazione dell’informazione: quello protezionistico/monopolistico e quello estremizzato che sostiene la proprietà sociale del prodotto della ricerca e dell’ingegno. A metà strada tra queste due posizioni si stanno facendo largo iniziative allargate che promuovono l’adozione di regole e contratti condivisi e facilitati come d’altra parte l’importanza crescente, conquistata sul campo, da parte della comunità di rete e dell’open source per il software. Queste le tematiche affrontate - con diverse sfaccettature e angolature - e presenti in questo volume. Nel licenziare un lavoro quanto mai lungo e complesso, desidero esprimere un vivo ringraziamento a quanti hanno permesso che tale lavoro fosse portato a compimento; sono grata al Rettore dell’Università Federico II di Napoli, prof. Massimo Marrelli per il sostegno costante e attento all’iniziativa, al Presidente del Polo per le Scienze Umane e Sociali, prof. Mario Rusciano che ha creduto nel progetto e lo ha concretamente sostenuto. È quanto mai significativo sottolineare come tutta l’iniziativa abbia visto una felice collaborazione interfacoltà e un’azione coesa e integrata tra il Dipartimento di Discipline Storiche e di Filosofia della Facoltà di Lettere e Filosofia e il Dipartimento di Ingegneria Informatica della Facoltà di Ingegneria, già da anni accomunati da percorsi interdisciplinari di ricerca e didattica. A Giuseppe Tortora e a Angelo Chianese che, a pieno titolo, hanno assunto la responsabilità scientifica dell’iniziativa, va uno schietto e franco riconoscimento per la pazienza, l’abnegazione e la disponibilità intellettuale. Ai Presidi di Facoltà, prof. Arturo De Vivo e prof. Piero Salatino, un grazie per aver creduto nell’iniziativa e averla supportata. Tutto il lavoro di organizzazione e di preparazione dal convegno fino all’edizione del volume non sarebbe stato possibile senza il sostegno e la collaborazione del Direttore del Dipartimento di Discipline Storiche, prof. Giovanni Vitolo e di tutto lo staff amministrativo e tecnico; Luigi Cicala, Bianca Ferrara e Marialucia Giacco hanno fattivamente partecipato alla realizzazione della comunicazione, della stampa e della realizzazione del volume; a tutti va il mio più vivo e grato riconoscimento. Hanno entusiasticamente lavorato alla realizzazione del convegno lo staff e gli studenti del Master in Ambienti Multimediali per i Beni Culturali, esperienza nata nello stesso alveo metodologico. Last but not least è gradevole rivolgere un riconoscimento a Francesca Cantone, instancabile artefice e motore di tutte le iniziative sia didattiche che scientifiche inerenti l’informatica archeologica nel nostro Ateneo; a lei il compito di illustrare i temi e lo svolgimento del convegno. Napoli, 28 Maggio 2012 12 Bibliografia ArcheoCAD: Archiviazione e restauro di reperti archeologici mediante tecniche CAD-RP, Napoli 2004. F. Cantone, 3D standards for scientific visualization, in Archaeological Informatics: Pushing the Envelope, G. Burenhult, J. Arvidsson (edd.), Proceedings of the 29th International Conference, CAA 2001 (Gotland), Oxford 2002, 163-172. F. Cantone, Virtual reality for scientific communication, in Virtual Archaeology, F. Niccolucci (ed.), Proceedings of the VAST Euroconference, Arezzo 2000, Oxford 2002, 109-114. F. Cantone, Shared technologies in archeologia: nuove prospettive di gestione e condivisione di dati in rete, in ACalc, 16, 2005, 271-290 (http://soi.cnr.it/archcalc/indice/PDF16/CANTONE271-290.pdf). F. Cantone, Sistemi di gestione informatizzata integrata dei dati archeologici. Protocolli di intervento presso l’Heraion alla Foce del Sele e il sito di Cuma, in I Talenti del Mezzogiorno, Napoli 2006, 5587. F. Cantone, Sistemi di gestione informatizzata integrata dei dati archeologici. Protocolli di intervento presso l’Heraion alla Foce del Sele e il sito di Cuma, in Rassegna Economica, 2007, 35-54. F. Cantone, ArcheoBits. Archeologia e Nuovi Media, Napoli 2007. F. Cantone, Problemi di management, work-flow, risorse. Il sistema di gestione dei dati DATARCH. Le immagini a trasparenza controllata, in Il santuario di Hera alla foce del Sele. Indagini e Studi 19872006, J. de La Genière, G. Greco, (edd.), AttMemMagnaGr, 4, 2008-10, Roma 2010, 77-80. F. Cantone, Low cost/high quality: un bino- mio possibile? Un modello di filiera per la formazione continua a supporto dell’innovazione, in DIDAMATICA 2012, T. Roselli, A. Andronico, F. Berni, P. Di Bitonto, V. Rossano (edd.), Taranto 2012. F. Cantone, Il progetto MOSTRAMBIENTE. Pompei e il suo territorio tra conoscenza e valorizzazione multimediale, in DIDAMATICA 2012, T. Roselli, A. Andronico, F. Berni, P. Di Bitonto, V. Rossano (edd.), Taranto 2012. F. Cantone, Archeologia Virtuale in Blended Learning, in Trent’anni di attività. Gli allievi raccontano le loro ricerche, Inaugurazione XXX Anno Accademico Scuola di Specializzazione in Beni Archeologici “Dinu Adamesteanu”, Cavallino 2010, Lecce c.s. F. Cantone (ed.), Ambienti Multimediali per i Beni Culturali, Napoli c.s. F. Cantone - M. Caropreso - A. Chianese V. Moscato, Semantica: a System for Learning Object Retrieval and Adaptive Courseware Generation for e-learning environments, in Si-El 2007, IV Congresso della Società Italiana di E-Learning 2007, Proceedings on cd-rom. F. Cantone - M. Caropreso - A. Chianese F. Ficetola - V. Moscato, Semantica: un sistema per l’indicizzazione e il retrieval semantico di Learning Object, in Si-El 2008, V Congresso Annuale della Società Italiana di E-Learning 2008, Proceedings on cd-rom (disponibile su http://siel08.cs.unitn.it/Atti/lavori/cantone.pdf). F. Cantone - S. Castanò - P. Paladino - M. G. Ronca, Una IDEA per le biblioteche. Esperienze, strumenti e metodi per supportare, facilitare e diffondere la formazione continua e l’aggiornamento, in Didamatica 2009, Informatica per la didattica, A. Andronico, A. Colazzo (edd.), Trento 2009, Proceedings on cd-rom (http://services.economia.unitn.it/didamatica2009/Atti/lavori/cantone.pdf). 13 F. Cantone - A. Chianese - G. Cirillo - V. Curion, Una piattaforma di servizi integrati per la didattica universitaria. L’esperienza di Campus all’Università degli Studi di Napoli Federico II, in Si-El 2009, VI Congresso della Società Italiana di E-Learning 2009, Proceedings on cdrom (http://www.unisa.it/Centri_e_Vari/congressosiel/programma.php). 2010, 171-178 (http://www.ergon-verlag.de/tocs/9783899137552.pdf). F. Cantone - A. Chianese - V. Moscato, Archeologia Virtuale in Blended Learning. Esperienze, metodologie e strumenti all’università Federico II di Napoli, in ArcheoFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica, P. Cignoni, A. Palombini, S. Pescarin (edd), Atti del IV Workshop Roma 2009, in ACalc, suppl. 2, 2009, 309-319. A. Chianese - V. Moscato - A. Picariello, I fondamenti dell’informatica per gli umanisti. Un viaggio nel mondo dei BIT, Napoli 2010. F. Cantone - A. Chianese - V. Moscato - S. Serafino, La Casa dei Pithoi a Serra di Vaglio. Una sperimentazione di ambiente 3D Open Source per la fruizione di beni archeologici, in ArcheoFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica, De Felice, G. Sibilano M. G. (edd.), Bari 2011. F. Cantone - F. Niccolucci, Legend and virtual reconstruction: Porsenna’s mausoleum in X3D, in The Digital Heritage of Archaeology, Computer Applications and Quantitative Methods in Archaeology, M. Doerr, A. Sarris (edd.), Proceedings CAA 2002, 30th International Conference, Crete 2003, 57-62. 14 A. Chianese - F. Cantone - M. Caropreso V. Moscato, ARCHAEOLOGY 2.0: Cultural E-Learning tools and distributed repositories supported by SEMANTICA, a System for Learning Object Retrieval and Adaptive Courseware Generation for elearning environments, in Wissensspeicher in digitalen Räumen: Nachhaltigkeit, Verfügbarkeit, semantische Interoperabilität, J. Sieglerschmidt, P. Ohly (edd.), Proceedings of the International Society of Knowldge Organization, German Chapter 11. ISKO-Tagung Wissensorgani-sation 08/ Archäologisches Landesmuseum, Konstanz 2008, Würzburg A. Chianese - F. Cantone - A. Quintano - V. Moscato, La costruzione della e-community, in F.I.O.R.I. Formazione Intervento Organizzativo per la Ricerca e l’Innovazione, MIUR, PON, UE, RSO, Fondazione CRUI, Napoli 2008, 80-89. M. De Gennaro - C. Colella - P. Cappelletti - A. Colella - A. Allocca - O. Marino - M. Colella, Materiali dell’Ipogeo di Caivano (I. sec. d. C.): rilievo e stato di conservazione, in Restauro e conservazione di beni culturali: materiali e tecniche, G. Mascolo, (ed), Atti del III Convegno, Cassino 2003, 74-83. G. Fabricatore - F. Cantone, New Tools to Assist Excavation 4D Analysis: DATARCH© Archaeological Data Management System and “Variable Transparency Image Stacker”. Beyond the Harris Matrix?, in The e-volution of Information Communication Technology in Cultural Heritage, Where Hi-Tech Touches the Past: Risks and challenges for the 21th Century, M. Ioannides, D. Arnold, F. Niccolucci, K. Mania (edd.), Project Papers from the joint event CIPA/VAST/EG/Euromed 2006, 100-107. G. Fabricatore - F. Cantone, Colour Reproduction of Digital Still Cameras. Simple Test and Affordable Solution, in The e-volution of Information Communication Technology in Cultural Heritage, Where Hi-Tech Touches the Past: Risks and challenges for the 21th Century, M. Ioannides, D. Arnold, F. Niccolucci, K. Mania (eds.), Project Papers from the joint event CIPA/VAST/EG/Euromed 2006, 108-111. G. Fabricatore - F. Cantone, Pushing the Archaeological Interpretation by analysing work on protocols: the “Variable Transparency Image Stacker” and DATARCH© Archaeological Data Management System, in Layers of perception, Advanced Technological means to illuminate our past, CAA 2007, April 2007, CD-Rom. B. Ferrara, - G. Di Gironimo - M. Germani - M. Martorelli, Reverse Engineering Techniques in the Reconstruction of the Virtual Shape of an Archaeological find, Proc. Of XII ADM International Conference, Rimini 2001. B. Ferrara - G. Di Gironimo - S. Patalano, Definition and Construction of Parametric Archetypes of archaeological Artefacts by means of CAD Techniques, in Enter the Past, The E-way into the Four Dimensions of Cultural Heritage, CAA 2003, Oxford 2004, 86-91. G. Greco - B. Ferrara - F. Cantone, New Approaches to scientifical data communication. The “Museo Narrante” of the Foce Sele Hera Sanctuary, in Archaeological Computing Newsletter, 67, 2007, 18-24 (http://www.edigiglio.it/isbn_testi_pdf/364 .pdf). G. Greco - B. Ferrara - F. Cantone, Museo Narrante: The Foce Sele Hera Sanctuary Virtual Museum, in Layers of perception, K. Posluschny, I. Herzog (edd.), Proceeding of the 35th International Conference on Computer Applications and Quantitative Methods in Archaeology (CAA), Berlin 2007, Berlin 2008, 418-425. F. Niccolucci - M. Baldi - F. Cantone - F. Carminati - L. Ceccarelli - M. Crescioli - S. Hermon - T. Zoppi, The PRISMA Project: Exploiting the Potential of the Archaeological Museums of Tuscany, in The Digital Heritage of Archaeology, M. Doerr, A. Sarris (edd.), CAA 2002, Oxford 2003, 411-414. G. Tortora, On/off Learning, Napoli 2003. 15 Francesca Cantone ArcheoFOSS 2011. Considerazioni intorno Publishing a theory should not be the end of one’s conversation with the universe, but the beginning (E. S. Raymond) Il Workshop Open Source, Free Software e Open Format nei processi di ricerca archeologica è giunto nel 2011 alla sua sesta edizione ed ha inteso valorizzare il patrimonio di esperienze maturate in questi anni e promuovere il confronto e la discussione fra i diversi attori del sempre più complesso mondo dei rapporti fra ICT e archeologia. L’evento si è articolato tra relazioni e poster selezionati dal comitato scientifico attraverso un attento lavoro di peer review, reso ancora più complesso dall’alta qualità delle proposte pervenute, e sessioni di laboratorio. In tal senso è quanto mai gradito oltre che doveroso ringraziare per l’alacre e appassionato lavoro svolto il comitato scientifico di ArcheoFOSS: Alessandro Bezzi, ArcTeam; Stefano Costa, Grupporicerche, Istituto Internazionale di Studi Liguri, Università di Siena; Giuliano De Felice, Laboratorio di Archeologia Digitale, Dipartimento di Scienze Umane - Università di Foggia; Denis Francisci, Dipartimento di Archeologia - Università di Padova; Piergiovanna Grossi, Dipartimento di Discipline Storiche, Artistiche, Archeologiche, Geografiche - Università degli Studi di Verona; Damiano Lotto, Dipartimento di Archeologia - Università di Padova; Augusto Palombini, ITABC - CNR. ArcheoFOSS 2011 ha ospitato esperienze e riflessioni su molteplici aspetti inerenti alla progettazione, lo sviluppo e l’uso di dati aperti, formati liberi e/o di software open source in archeologia, le relative implicazioni metodologiche, le buone pratiche, le criticità, i futuri trend. In particolare i temi proposti alla discussione sono stati: - la ricerca archeologica tra storia, filologia e nuove tecnologie; - metodologie e processi open source nella filiera della ricerca archeologica; - esperienze virtuose di gestione aperta della conoscenza culturale; - i processi conoscitivi e i vantaggi della gestione aperta del dato archeologico; strumenti e approcci open source per i Beni Culturali. ArcheoFOSS 2011 ha costituito un Blended Workshop sull’uso del software open source in archeologia svolto in un ambiente misto tra reale e virtuale, supportato dalle piattaforme di servizi didattici dell’Ateneo Federico II. La piattaforma di servizi di ateneo Campus, nata in ambito sperimentale con l’intento di diffondere nuovi modelli di condivisione della conoscenza, ha supportato la creazione di una comunità di interesse sui temi dell’Archeologia Virtuale secondo gli approcci dell’open knowledge, costituita da docenti, discenti, studiosi di varie università e istituzioni culturali già nelle fasi preparatorie dell’incontro, basate sulla condivisione di idee, materiali, links, ecc. La piattaforma Campus consente, infatti, la gestione di servizi di forum/messaggistica, la creazione e gestione di groupware con specifici target (gli argomenti delle sessioni, oppure temi specifici che emergeranno dal confronto e dalla discussione), la conti- 17 nuazione della comunità di interesse successivamente alla chiusura dello svolgimento in presenza delle giornate di convegno. Il workshop è stato organizzato in sessioni tematiche che ripercorrono le varie fasi di intervento archeologico, dalla ricognizione allo scavo, alla documentazione, gestione e analisi, alla diffusione e divulgazione. Tale sistemazione ha evidenziato come l’emergere degli approcci aperti investa tutta la filiera di lavoro, arricchendo la strumentazione, moltiplicando le potenzialità e problematizzando il dibattito metodologico. Una sessione iniziale di studi, separata da questo schema e preliminare a esso, è stata dedicata alla definizione di esperienze istituzionali, dagli enti di tutela, alle amministrazioni, alle università, che appaiono vivere una fase di transizione determinata da un lato, dall’evoluzione del dibattito disciplinare intrinseco alle discipline archeologiche e dei beni culturali, dall’altro, dalle istanze che emergono nella più generale riflessione sugli sviluppi della società della conoscenza. Un’interessante caratteristica dell’incontro napoletano, infatti, è stata proprio una forte e articolata partecipazione istituzionale. Il dato evidenzia come l’interesse per metodi e approcci aperti stia oramai uscendo da una fase pionieristica e sperimentale, per giungere a una più piena maturità. La pubblica amministrazione da anni sviluppa un dibattito multidisciplinare sull’adozione di software aperti e dunque oramai appare del tutto naturale che tale dibattito, con le sue connotazioni specifiche, investa anche la gestione istituzionale dell’informazione culturale. L’adozione di strumenti open source, d’altro canto, avviene di pari passo con una riflessione metodologica sul diffondersi di approcci aperti al dato culturale. Le implicazioni collegate a tale riflessione sono ovviamente molteplici: l’esigenza di immissione dell’informazione culturale nel sistema della produzione e circolazione della conoscenza su scala globale, la protezione dei diritti di proprietà intellettuale, l’interazione dell’informazione culturale con altri layers informativi (ad esempio per la cittadinanza digitale e l’egovernment), la democratizzazione della cultura, i diritti del cittadino alla fruizione del patrimonio e alla costruzione della propria identità storica e culturale. In particolare si evidenzia in molti casi una graduale introduzione dei nuovi approcci, un aggiornamento progressivo supportato in taluni casi da iniziative individuali, buone pratiche, esperienze virtuose che si allargano e vengono istituzionalizzate. È così che la coesistenza di impianti tradizionali e approcci aperti porta alla commistione di ambienti e strumenti e appare tuttavia sempre più indirizzato alla costruzione di linguaggi condivisi. 1. Archeologia e approcci aperti: riflessioni a margine 18 La circolazione dei dati culturali, la trasparenza dei processi di analisi, la condivisione della conoscenza archeologica sono oggetto di un dibattito molto acceso nella comunità scientifica internazionale. Nuovi scenari, inoltre, si aprono oggi grazie all’affermazione degli approcci del web 2.0 e 3.0: la conoscenza appare sempre meno prodotta ed erogata secondo modelli gerarchici e sempre più condivisa e costruita sulla base di schemi partecipativi nella creazione, uso, riuso e rimodulazione di particelle di contenuti che sempre più spesso assumono la forma atomizzata delle “pillole di sapere”. Questi approcci si diffondono anche nelle discipline dei beni culturali e in particolare in archeologia, con l’affermarsi di una tendenza all’immissione in circolazione di informazioni e la crescente ambizione alla costruzione di sistemi condivisi di conoscenza. In questo contesto l’adozione in archeologia di logiche e modelli open appare non più e non solo indicare la mera scelta di un tipo di software, ma esplorare le potenzialità delle relative caratteristiche di flessibilità e trasparenza e analizzare le implicazioni metodologiche di tale processo. L’archeologia ha proposto, infatti, negli anni, quesiti peculiari al mondo informatico, con la nascita di una serie di soluzioni “dedicate”; i casi di interazione virtuosa si sono dimostrati generatori e attivatori di innovazioni capaci di investire di pari passo il settore informatico e quello archeologico. La sfida dell’approccio open riguarda in particolar modo il settore culturale, nel quale l’accesso alla conoscenza diventa strategico e si prospetta una nuova visione in cui tutto il sapere può essere considerato come un “sorgente aperto”. Va ricordato, inoltre, come le normative nazionali e internazionali ormai orientino tutta l’informazione pubblica verso l’utilizzazione di approcci aperti. È necessario dunque che anche le istituzioni didattiche e di ricerca affrontino la sfida della migrazione dei propri sistemi e dei propri dati verso scenari comuni di condivisione e accessibilità pubblica ai dati. Allo stesso modo è opportuno riconsiderare secondo nuovi inquadramenti temi quali la tutela dei diritti d’autore, della garanzia della qualità dei dati, le funzioni delle interazioni tra pubblico e privato nella gestione dei beni culturali e delle informazioni correlate. 2. Lo scenario. Approcci e strumenti aperti nelle discipline del patrimonio culturale Negli ultimi decenni i flussi operativi e gli schemi metodologici del patrimonio culturale stanno cambiando in parallelo con l’evoluzione e la diffusione delle nuove tecnologie. Inoltre, lo scenario epistemologico è complicato e ancor più arricchito dalla comparsa di nuovi modi di produrre, comunicare e condividere informazioni culturali. Archeologia, storia, storia dell’arte, biblioteconomia, archivistica, museologia, musicologia, glottologia sono solo alcuni esempi di discipline umanistiche che rinnovano e arricchiscono la loro metodologia e la loro strumentazione in questo processo. La storia e lo sviluppo dell’informatica archeologica negli ultimi decenni appaiono un esempio emblematico di tale complessa interazione1. Le fasi principali della ricerca archeologica appaiono oggi tutte interessate dallo sviluppo delle nuove metodologie e di strumenti informatici: dallo studio e indagine alla documentazione, catalogazione, analisi, localizzazione, ricostruzione, diffusione, comunicazione dei dati. Parallelismi e affinità di particolare importanza per il settore archeologico si riscontrano nell’evoluzione recente degli studi di museologia: la comparsa di nuovi musei virtuali, on line, multimediali, multimodali trova un background teorico nel cd. paradigm shift avvenuto negli anni Ottanta dello scorso secolo, con lo spostamento del focus dagli “oggetti” all’ “informazione” museale2. In questi anni la letteratura scientifica si concentra sempre più sulla funzione di comunicazione dei musei in parallelo con quello dei mass media, e accentua l’importanza delle funzioni didattiche e di divulgazione del museo. Le tesi contestualiste sulla creazione del significato presentano interessanti riscontri anche in museologia e il concetto di “oggetti che si spiegano da soli”, è sostituito dal concetto di “contesto come creatore di senso”3. I nuovi musei, inoltre, soprattutto nella temperie culturale che ha visto l’affermazione del web 2.0 e 3.0, tendono a una sempre maggiore inclusione del pubblico nel processo di creazione di significato, con una crescente attenzione per i concetti chiave di “informazione”, “rete”, “relazione”, “condivisione”, “partecipazione”4. 1 Un recente incontro di studi ha focalizzato le maggiori esperienze e discusso gli aspetti metodologici del complesso processo che ha investito la disciplina archeologica con l’apertura di nuove possibilità e prospettive (MOSCATI 2009). 2 CANTONE 2007; GRECO et alii 2008. 3 HODDER 1986; LOCK 2003; ANTINUCCI 2007. 4 Le linee guida del progetto internazionale Minerva delineano in tal senso un articolato repertorio di strumenti e di 19 La ricerca scientifica e il dibattito accademico rispecchiano in maniera articolata l’ampio panorama di cambiamenti cui si è accennato, con la nascita, tra l’altro, di un ricco confronto circa l’istituzionalizzazione di tali innovazioni: in particolare un attivo movimento ha proposto la designazione di questi metodi e applicazioni in un settore disciplinare dedicato, racchiudendo i vari aspetti della cd. Informatica umanistica o, secondo una definizione diffusa in ambito anglosassone, Digital Humanities: dagli aspetti linguistici, a quelli filologici, storici, archeologici, filosofici, letterari, di storia dell’arte, della musica, così come delle metodologie didattiche supportate dalle tecnologie informatiche. Un’altra posizione ha definito, al contrario, il cambiamento tecnologico come parte del normale processo di aggiornamento di ciascuna disciplina nel contesto generale della rivoluzione digitale5. La recente legge italiana 240/2010 apre ulteriori interrogativi circa la designazione di un quadro metodologico per la ricerca interdisciplinare nello scenario futuro, caratterizzato, tra l’altro, da una significativa riduzione dei settori scientifico-disciplinari6. Questo contesto è ancor più articolato dall’emergere di approcci aperti nella teoria generale della conoscenza, che modificano gli equilibri tradizionali e creano nuove sfide. Oggi una consistente letteratura scientifica descrive la conoscenza come creata, riutilizzata, ricombinata, riassemblata da una comunità mondiale che ha accesso alle tecnologie e a Internet7. Negli scenari del web 2.0 gli utenti della rete sono considerati al tempo stesso creatori e fruitori delle informazioni8. Gli attuali schemi richiedono nuove capacità di rapportarsi con la conoscenza, con la consapevolezza che essa appare sempre meno statica e strutturata, ma piuttosto in cambiamento costante e rapido aumento, distribuita e non sistematizzata. Nelle società contemporanee l’importanza dei fattori immateriali della produzione è sempre più riconosciuta e sottolineata e dunque anche l’importanza della formazione sta crescendo, in quanto viene in essa riconosciuto un potenziale chiave per lo sviluppo economico9. In questo scenario, le attività di formazione devono diventare pro-attive, sostenere l’innovazione e promuovere la capacità di orientarsi nei contesti di produzione e di gestire il cambiamento: in particolare, è interessante notare che, nel campo della pubblica amministrazione, questo approccio facilita lo scambio culturale e di competenze tra diversi settori e dunque supporta la circolazione virtuosa di informazione tra università, imprese, centri di ricerca. Il modello generale descritto trova applicazione specifica nelle varie discipline, che ne declinano in vari modi le implicazioni metodologiche e strumentali. Nel campo dello sviluppo software E. S Raymond mostra già nel 1997 i diversi aspetti del nuovo approccio10. La rivoluzione open source è descritta come un passaggio da un modello gerarchico di sviluppo, tipico del mercato del software proprietario (definito metaforicamente «la cattedrale» con riferimento all’approccio trasmissivo alla conoscenza) a un modello innovativo (che viene identificato nella figura dinamica, disordinata e vorticosa del «bazaar»), in cui una comunità aperta di sviluppatori interagisce e condivide codice, know-how e conoscenza, ricombinando e riutilizzando porzioni di software. Approcci simili stanno creando, inoltre, nuovi modelli di business e nuovi sistemi giuridici e il settore dei beni culturali appare anch’esso fortemente interessato da questo 20 casi di studio per l’inclusione dei contenuti degli utenti (feedback, wiki, blogs, MUVE, ecc.): un esempio stringente di tale processo è il progetto britannico Every object tells a story, in cui la mostra è generata, attraverso l’approccio dello storytelling, da contenuti inseriti dagli utenti (MINERVA 2008). 5 KIRSCHENBAUM 2010 per una rassegna della tematica, con particolare riferimento agli aspetti linguistici; di utile consultazione per il dibattito nazionale ORLANDI 2003. 6 GELMINI 2011. 7 MARKUS 2001; LEVY 2003; CNIPA 2007; OLIMPO 2010; BRESNAHAN 2011; FLEMING 2011. 8 MINERVA 2008. 9 CNIPA 2007. 10 RAYMOND 1999. andamento generale11. Per delineare una cornice normativa di riferimento va ricordato che le leggi internazionali e nazionali nell’identificare ed elencare le principali funzioni pubbliche nel patrimonio culturale, dall’indagine e individuazione alla tutela, manutenzione, conservazione, ricostruzione, non mancano di sottolineare l’importanza dell’informazione12. Inoltre i dati pubblici relativi al patrimonio culturale possono essere inclusi nel quadro generale di approccio alla gestione delle informazioni pubbliche. In tal senso in Italia recenti innovazioni sono dovute all’entrata in vigore del decreto legislativo n. 235/2010, il nuovo Codice dell’Amministrazione Digitale (CAD: Codice dell’Amministrazione Digitale), in particolare con un focus sui dati aperti (artt. 52 e 68); governo aperto, pubblico uso/riuso dei dati pubblici13. Per precisare più puntualmente il contesto normativo per la circolazione dei dati culturali, è utile prendere in considerazione anche le attività dell’Osservatorio Open Source del Governo, attivo negli ultimi dieci anni con funzioni di consulenza e la definizione di una relazione finale14. Infine importanti aspetti sono affrontati anche nelle Linee Guida per i siti web della Pubblica Amministrazione, di recente pubblicazione, con indicazioni esplicite circa l’adozione da parte della PA di formati aperti per la trasmissione di contenuti pubblici, da distribuire con licenze aperte15. È da notare che l’approccio metodologico aperto è seguito anche nella stessa definizione del documento: le linee guida, infatti, sono periodicamente valutate in una consultazione pubblica con richiesta di commenti e suggerimenti16. 3. Applicazioni e tendenze in ambito archeologico Molti aspetti del movimento generale descritto trovano perfetta rispondenza nelle esigenze specifiche del settore archeologico: adozione e sviluppo di software open source, pubblicazione, condivisione, riuso di dati liberi, apertura e trasparenza dei processi, adozione e sviluppo di standard per i dati archeologici, didattica e formazione, sono i principali temi sui quali la riflessione scientifica appare maggiormente attiva e dinamica. La crescente diffusione del software open source nel settore archeologico negli ultimi anni appare sempre più evidente. Il semplice e immediato aspetto economico legato alla scelta di software open source per ridurre i costi in un settore tradizionalmente caratterizzato da scarsità di risorse è stato ampiamente superato dalla considerazione più profonda di una predisposizione del software aperto a soddisfare i più specifici requisiti disciplinari. S. Settis afferma di recente che nell’interazione tra le nuove tecnologie e il patrimonio culturale la forza dominante deve essere la cultura e non la tecnologia17: in realtà la strategia di sviluppo del software open source rende possibile per gli esperti del patrimonio culturale di entrare nel processo di sviluppo e orientarlo per soddisfare specifiche esigenze disciplinari. L’adozione di software open source in archeologia può in questo modo essere definita come «free in the sense of freedom»18: essa cioè, non solo soddisfa la necessità di avvalersi di strumenti potenti pur con limitate risorse, ma soprattutto risponde a una tendenza generalmente avvertita nel settore dell’archeologia computazionale, da sempre 11 LANG et alii 2007. ICOMOS 1990; CODICE 2004. 13 CAD 2010. 14 OSSERVATORIO 2011. 15 LINEE GUIDA 2011. 16 FORUM 2011. 17 SETTIS 2007. 18 La frase è riferita da S. Williams alla vita di R. Stallman, fondatore del movimento open source (WILLIAMS 2002). 12 21 capace di aprire con le sue peculiarità disciplinari nuove sfide e porre interrogativi estremamente specialistici allo sviluppo tecnologico. In tal senso uno degli esempi più diffusi e precoci di adozione archeologica di software open source appare ad esempio il pacchetto GIS GRASS, utilizzato già dagli anni Ottanta in decine di progetti archeologici19, ma non mancano sia casi di applicazione di tools già esistenti, sia casi di personalizzazione o sviluppo di software o pacchetti dedicati, dalla gestione dell’acquisizione dei dati alla loro analisi e diffusione (pacchetti per la gestione di stazioni totali, laser scanning, disegno archeologico, trattamento delle immagini, GIS, database, ecc.). Simili tendenze si registrano nella gestione dei dati archeologici. I dati culturali si integrano in maniera sempre più pervasiva nella generale circolazione della conoscenza: gli approcci contestuali, in particolare, suggeriscono che le informazioni possono essere moltiplicate grazie alla interazione, relazione e l’esplosione di semantica e di significati20. Nello scenario emergente la comunità mondiale tende in maniera costante a una sempre più massiccia condivisione di informazioni di interesse generale. Il modo in cui le persone cercano cultura e informazione attualmente appare personalizzato, rapido, flessibile, mediato dalle tecnologie. Gli studenti, ad esempio, tendono sempre più a ricercare informazioni con strumenti sociali accessibili via Internet, come Wikipedia.org, Youtube.com, e accanto a tali strumenti generalisti stanno emergendo strumenti dedicati e specialistici, come Academia.edu, o Slideshare.net, che consentono di condividere interessi di ricerca, documenti accademici, presentazioni scientifiche, divulgative, didattiche. Inoltre, a partire dalla stessa matrice culturale, ulteriori strumenti e prassi si stanno diffondendo: il social bookmarking (ad esempio: delicious.com), la condivisione di immagini (es: flickr.com), il social mapping (es: panoramio.com). Ancora una volta, nella storia dell’evoluzione parallela dei media e dei contenuti, vi è la necessità urgente di informazioni di alta qualità da inserire in maniera massiccia in questo circuito tecnologico già ampiamente conosciuto e pervasivamente diffuso21. Produttori di contenuti certificati e di alta qualità e cominciano ad avvicinarsi a questi modi di comunicare e di interagire con il pubblico e gli approcci sociali stanno emergendo anche nella pubblica amministrazione22. Inoltre la prevedibile prossima immissione massiccia di contenuti di alta qualità culturale nel circuito di circolazione della conoscenza lancia nuove questioni da affrontare, dalla gestione dei diritti di proprietà intellettuale alla certificazione di qualità, alla definizione dei livelli di accessibilità dei dati culturali23. D’altra parte questo processo permette di supportare la ri-contestualizzazione dei dati relativi ai beni culturali in un approccio aperto e multidisciplinare al territorio, insieme a dati economici, giuridici, amministrativi, logistici, e così via24. Questo approccio non solo corrisponde alle tendenze internazionali e nazionali nella gestione pubblica dei dati, ma può anche permettere un migliore sfruttamento delle informazioni al fine di promuovere il turismo culturale, lo sviluppo economico del territorio, la costruzione e la circolazione della conoscenza. Importanti progetti in questo campo riguardano proprio lo sviluppo di archivi aperti, repository aperti, confederazioni di repository aperti di contenuti culturali25. Parallelamente gli interessi istituzionali sono rivolti alla definizione di strategie per rendere i dati pubblici, interoperabili, integrabili: i dati culturali dovrebbero essere parte 19 FORTE 2002; LOCK 2003. HODDER 1986; LOCK 2003. 21 BALDI-CITARELLA 2010. 22 MINERVA 2008; CAD 2010. 23 Cfr. il contributo di Morando e Tsiavos in questa sede. 24 MAUTONE-RONZA 2010. 25 CNIPA 2007; JONES 2007; ICOMOS OPEN ARCHIVE, EUROPEANA, CULTURAITALIA. 20 22 del processo generale, seppure, è appena il caso di ricordare, mantenendo attenzione sulle specifiche caratteristiche e sulle esigenze disciplinari. In campo accademico e didattico lo scenario della circolazione di informazioni invalso con il web 2.0 comporta nuovi modi di produrre e condividere la conoscenza, in modi reticolari, non precostituiti, come è ben rappresentato nel repository di materiali didattici aperti e accessibili dalla comunità mondiale del progetto Open Learning del MIT di Boston26. Non trascurabile, infine, è la presenza di approcci aperti nella riflessione sulla trasparenza dei processi di interpretazione archeologica. Nel settore dei beni culturali si è venuto definendo nelle recenti impostazioni un approccio definito “filologico”, che rivendica sostanzialmente la dichiarazione esplicita delle ipotesi insieme ai dati su cui si basano e del processo ermeneutico seguito dai ricercatori. Un tale approccio è ben identificabile per esempio negli studi di restauro e negli studi museologici27. Istanze analoghe emergono altresì nella riflessione sulla ricostruzione virtuale archeologica, in cui gli studiosi più attenti sottolineano la tensione tra gli estremi della “persuasione” e dell’“inganno”, determinata dalla potenza della comunicazione multi-sensoriale supportata dalle ricostruzioni realistiche28. Le delicate questioni sono state affrontate da alcuni studiosi che hanno proposto diverse soluzioni tecnologiche, quali texture trasparenti o di colore uniforme grigio per rappresentare i dati incerti o ricostruiti, e per consentire agli utenti di distinguere tra i diversi livelli di affidabilità, o l’introduzione di apparati di rimandi e note iper-mediali in contesti tridimensionali29. In tal senso aspettative ottimistiche per l’implementazione di tali approcci filologici alla ricostruzione virtuale del patrimonio culturale sono state legate ad esempio all’adozione di linguaggi di marcatura tridimensionali, con la conseguente possibilità di approcci aperti da un lato al codice sorgente e dall’altra alle ricostruzioni proposte30. Infine, alcune sfumature della discussione sull’approccio aperto ai processi di ricostruzione archeologica si intersecano con le ben note questioni sugli approcci processuali, all’ermeneutica archeologica e ai modelli formalizzati di ragionamento, aperti alla lettura e alla decostruzione. Questo approccio è stato discusso a causa delle forti implicazioni e ripercussioni sul concetto di dati archeologici, di processo, e sulla definizione della spirale ermeneutica31. Gli approcci aperti possono incoraggiare e rinnovare questa discussione, in quanto consentono di pubblicare insieme i dati, interpretazione e processo di interpretazione e ricostruzione seguito, ad esempio utilizzando i metadati e la dichiarazione esplicita della semantica e delle relazioni e aprendo così nuove e stimolanti prospettive di riflessione e indagine. 4. Le relazioni al convegno Le esperienze presentate nell’edizione 2011 del workshop e la discussione svilup26 Il tema è sviluppato con maggior approfondimento in CANTONE et alii 2009 e nel contributo dell’autrice in questo volume. 27 Nel settore del restauro tali istanze emergono nelle procedure che tendono a rendere evidente la presenza del materiale di riempimento di zone mancanti, ad esempio in reperti e strutture archeologiche, oppure nel restauro della carta o delle tele dipinte. In questo orientamento, i materiali usati dichiarano la loro estraneità all’opera originale piuttosto che ingannare l’osservatore, sfumando i confini tra originale e restaurato, contrariamente a quanto realizzato nelle antiche procedure antiquarie (un interessante caso di studio, con una discussione critica dei diversi approcci in EMILIOZZI et alii 2007). 28 BARCELÒ 2001. 29 GRECO et alii 2008; CORALINI 2009. 30 RYAN 2001; CANTONE 2002; CANTONE-NICCOLUCCI 2003. 31 LOCK 2003. 23 24 pata consentono di delineare uno scenario di cambiamento, non sempre rapido e semplice, ma consistente e innegabile ed evidenziano spesso la compresenza di tools aperti e software proprietario in una progressiva adozione di nuove logiche prima ancora che di nuovi software. La sessione dedicata alle Esperienze virtuose di gestione aperta della conoscenza culturale ha dunque costituito una felice novità nei workshop ArcheFOSS, segnandone e sottolineandone in qualche modo anche la maturazione e il consolidamento, delineando una panoramica di progetti realizzati, favorendo la discussione e lo scambio metodologico tra università, soprintendenze, comuni, ministero e costituendo una prima piattaforma di lavoro per la definizione di future iniziative istituzionali. In tale contesto, particolarmente interessante è la presentazione parallela delle esperienze della soprintendenza romana, di quella napoletana e del comune di Napoli, che consentono di cogliere a più livelli la presenza di un sentire comune pur nella diversa articolazione delle esperienze condotte nei vari scenari istituzionali. Il passaggio dai tradizionali approcci erogativi alle nuove istanze partecipative e condivise nella produzione dell’informazione è descritto da Citarella per il sito web del Comune di Napoli. Il contributo individua le fasi e le criticità dell’introduzione di una piattaforma multimodale per l’integrazione di contenuti sociali. Il sistema realizzato vede la compresenza di aspetti proprietari, ereditati da precedenti esperienze e puntualmente riportati, e nuovi approcci aperti, tra cui appare interessare segnalare l’esperienza del rilascio dei contenuti copyfree, liberamente riutilizzabili secondo i termini previsti da un’apposita licenza Creative Commons. Serlorenzi et alii presentano i risultati delle sperimentazioni condotte nell’ambito del progetto SITAR, Sistema Informativo Territoriale Archeologico di Roma, iniziativa che si colloca nel quadro delle riflessioni scaturite, tra l’altro, dalla partecipazione della Soprintendenza archeologica di Roma alle iniziative ministeriali sulla realizzazione di sistemi informativi nazionali del patrimonio archeologico. Il contributo proposto da Esposito e Proto delinea nell’esperienza del progetto ArcheoAtlante un approccio sistemico all’informazione archeologica pubblica, contestualizzata nel territorio su cui insistono le evidenze e nei luoghi in cui essi sono musealizzati, al fine di restituirne una lettura integrata. Mango Furnari et alii affrontano il delicato tema dell’interoperabilità delle banche dati sui beni culturali, presentando la piattaforma open source Octapy, che supporta da anni vari circuiti virtuali di cooperazione su informazione culturale, tra cui il Circuito Culturale della Campania. Miele ripercorre le principali iniziative intraprese negli ultimi trent’anni dagli enti di tutela campani focalizzate sull’informatizzazione dei dati archeologici, delineando un percorso evolutivo di intense attività volte alla documentazione, tutela, sistematizzazione, trasmissione e fruizione dell’informazione culturale. Il ruolo della formazione accademica nell’evoluzione del settore dei beni culturali è oggetto dell’intervento (Cantone) incentrato sull’esperienza del master in Ambienti Multimediali per i Beni Culturali, improntato ad approcci aperti sia nel supporto strumentale informatico sia nei modelli didattici sia nei contenuti culturali affrontati. Infine, interessanti spunti per la discussione sono aperti da Morando e Tsiavos, con una riflessione sulla tensione esistente tra pratiche sociali di condivisione della conoscenza e normative sui beni culturali in Italia e Grecia. La riflessione sull’impatto degli approcci e strumenti aperti in archeologia si dipana poi attraverso tre sessioni dedicate alle varie fasi della filiera operativa e alle correlate esperienze di sviluppo e applicazione di metodologie, software, dati aperti. La prima sessione, Documentare e ricostruire: strumenti e metodi aperti, si apre con il contributo di Chianese et alii, che propongono un approccio sistemico alla filiera della Virtual Archaeology, attraverso la definizione di un framework per la descrizione, manipolazione e gestione di oggetti tridimensionali, con particolare riferimento ai domini applicativi dell’archeologia e dei beni culturali. Il sistema è composto da un modello dei dati, un’algebra per la ricerca degli oggetti e un set di tool software per una più agevole utilizzazione da parte dell’utenza. Bezzi e Dell’Unto propongono una comparazione di sistemi hardware e software, e approcci sia commerciali che open source per la documentazione tridimensionale in archeologia. Moulon e Bezzi presentano gli ultimi sviluppi della loro ricerca sulla documentazione stereofotogrammetrica archeologica: il tool software open source realizzato è denominato PPT (Python Photogrammetry Toolbox) e mira a semplificare e rendere più efficace la filiera di documentazione archeologica tridimensionale, con particolare riferimento alle tecniche di Structure from Motion e Image-Based Modelling. Spigarolo e Guidazzoli illustrano la filiera di lavoro adottata nella realizzazione del progetto MDC (Museo della Città), finalizzato alla realizzazione di un cortometraggio tridimensionale dedicato alla storia della città di Bologna, basato su approcci filologici, aperti e costruttivisti. La seconda sessione, La conoscenza archeologica: approcci aperti alla gestione e analisi, è avviata da due lavori del gruppo foggiano, molto attivo negli ultimi anni sui temi oggetto del workshop. Leone et alii presentano gli approcci aperti e le strumentazioni open source adottate nel primo triennio di attività del progetto italo albanese LIBURNA. Archeologia Subacquea in Albania, finalizzato alla redazione di un’archeologica del litorale albanese, anche sulla base delle esperienze e dei risultati del progetto Itinera, presentato nelle precedenti edizioni di ArcheoFOSS. La realizzazione della Carta degli Ipogei del centro storico di Foggia in ambiente open source è invece oggetto del contributo di De Stefano et alii. Il progetto si inserisce nel contesto metodologico delle iniziative intraprese in Puglia con la redazione della Carta dei Beni Culturali della Regione Puglia recepita dal nuovo Piano Paesaggistico Territoriale Regionale. La riflessione viene ancor più arricchita e articolata attraverso ulteriori contributi che presentano considerazioni metodologiche, proposte operative, buone pratiche. Costa, Bianconi e Starnini descrivono un’esperienza di porting attraverso approcci aperti e condivisi di uno strumento software obsoleto che a supporto delle analisi tipometriche di materiali litici preistorici. Il lavoro di Bianconi et alii presenta un’applicazione mobile open source per la gestione dell’informazione bibliotecaria. Palombini descrive le potenzialità e le prospettive di utilizzazione in ambito archeologico di r-finder, uno script finalizzato a rendere più rapide e semplici le analisi spaziali in ambiente Grass. Le analisi spaziali sono al centro anche del contributo di Carrer e Cavulli, con utili riflessioni relative all’analisi di casi di studio montani, contraddistinti da peculiarità puntualmente affrontate dagli autori nell’implementazione di indagini supportate da approcci GIS. Il progetto NDSS, Northern Daunian Subappennino Survey, (Stoico e d’Altilia) adotta strumentazioni software open source nell’analisi spaziale multiscala applicata alle indagini sulle dinamiche dell’incastellamento nei paesaggi medievali del comprensorio del Subappennino Dauno Settentrionale, in provincia di Foggia. Heinsch, Kuntner e Naponiello presentano l’esperienza di un’intera filiera aperta di indagine archeologica del sito di Aramus in Armenia, dalla ricognizione allo scavo, alla documentazione, alla didattica, sottolineando i vantaggi operativi e scientifici derivati dalle scelte operate. Una sessione conclusiva è dedicata alla Diffusione e condivisione dell’informazione scientifica in archeologia con la presentazione di due progetti sul web culturale. Il contributo di Berardi et alii presenta il portale baseculturale.it nell’ambito del progetto labc 3.0 Laboratori per la cultura. Il portale si basa su approcci semantici alla gestione della conoscenza, anche attraverso appositi tools open source ed è finalizzato 25 all’acquisizione, condivisione e fruizione di contenuti culturali appartenenti al patrimonio storico, paesaggistico e artistico italiano. Vassallo e Pitzalis focalizzano l’attenzione sulle architetture aperte che sottostanno alla realizzazione della biblioteca digitale di Cipro, progetto realizzato nell’ambito della partecipazione del Cyprus Institute ad Europeana e ai progetti europei a essa collegati che si occupano di garantire l’accessibilità e interoperabilità dei contenuti culturali digitali. Come tradizione nell’ambito dei workshop ArcheoFOSS, è stata valorizzata, accanto alla stimolante discussione formalizzata svolta nelle sessioni scientifiche, la vivace circolazione di idee e scambi di esperienze condotte nelle sessioni di poster e laboratorio. Con un esplicito riferimento ai modelli di sviluppo del software descritti nell’opera di Eric S. Raymond, con riflessioni comparative che contrappongono da un lato approcci proprietari, gerarchici, chiusi e dall’altro quelli open source, condivisi, cooperativi, le due modalità di circolazione dell’informazione scientifica sono state denominate LA CATTEDRALE, e IL BAZAAR. Il BAZAAR, dedicato, dunque, all’Open Lab e ai Poster, ospitato dal Laboratorio di Informatica e Archeologia della Facoltà di Lettere, ha accompagnato lo svolgimento dell’intero evento, proponendo esperienze su aspetti concreti della pratica archeologica nell’uso di strumenti open source. Un poster è dedicato da Deola, Grazioli e Pedron all’adozione di software open source nella documentazione grafica archeologica attraverso sistemi CAD e GIS. Il poster di Paonessa descrive invece una migrazione di ambiente da proprietario a libero per un GIS archeologico. Lotto e Fiorini propongono i risultati preliminari di un’indagine condotta fin dalla sua prima impostazione su software aperto e dati aperti presso il sito di Fondo Paviani (Valli Grandi Veronesi). Il sistema è finalizzato alla registrazione e all’analisi di dati da survey. Con una voluta continuità con la tradizionale attenzione posta dai workshop ArcheoFOSS alla didattica aperta, la poster session ha visto anche la presentazione dei prototipi realizzati nell’ambito del Master in Ambienti Multimediali per i Beni Culturali: C.S.A. Computer System in Archaeology: Rilievo, Georeferenziazione, Catalogazione e Ricostruzione Tridimensionale del Territorio di Velia; Educational Village; MediaMiglio Museo e Centro documentazione del Miglio d’oro; Napoli Virtual Look. 26 Abbreviazioni bibliografiche http://www2.cnipa.gov.it/site/_files/cnipa_quad_32. pdf). ANTINUCCI 2007 F. Antinucci, Musei Virtuali, Roma 2007. CULTURAITALIA http://www.culturaitalia.it/pico/. BALDI-CITARELLA 2010 Tecnofuturo, L’alba di un nuovo medium, l’alba di una nuova umanità, C. Baldi, P. Citarella (edd.), Napoli 2010. EMILIOZZI et alii 2007 A. Emiliozzi - P. Moscati - P. Santoro, The princerly cart from Eretum, in Virtual Museums and Archaeology, P. Moscati (ed.), in ACalc, suppl. 1, 2007, 143-162. BARCELÓ 2001 J. A. Barceló, Virtual reality for archaeological explanation. Beyond “picturesque” reconstruction, in ACalc, 12, 2001, 221-244. EUROPEANA http://www.europeana.eu/portal/. BRESNAHAN 2010 T. F. Bresnahan, Generality, Recombination and ReUse, in Rate and Direction of Inventive activity, J. Lerner, S. Stern (edd.), 2011 (disponibile su http://www.nber.org/confer/2010/RDIA10/bresnahan.pdf). CANTONE 2002 F. Cantone, 3D standards for scientific visualization, in Archaeological Informatics: Pushing the Envelope, Proceedings of the 29th International Conference, G. Burenhult, J. Arvidsson (edd.), Oxford 2002, 163-172. CANTONE 2007 F. Cantone, ArcheoBits. Archeologia e Nuovi Media, Napoli 2007. CANTONE et alii 2009 F. Cantone - A. Chianese - V. Moscato, Archeologia Virtuale in Blended Learning. Esperienze, metodologie e strumenti all’Università “Federico II” di Napoli, in ArcheoFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica, Atti del IV Workshop, P. Cignoni, A. Palombini, S. Pescarin (edd.), Roma 2009, in ACalc, suppl. 2, 2009, 309-319. CANTONE-NICCOLUCCI 2003 F. Cantone - F. Niccolucci, Legend and virtual reconstruction: Porsenna’s mausoleum in X3D, in The Digital Heritage of Archaeology, Computer Applications and Quantitative Methods in Archaeology, Proceedings CAA 2002, 30th International Conference, M. Doerr, A. Sarris (edd.), Crete 2003, 57-62. FLEMING 2001 L. Fleming, Recombinant Uncertainty in Technological Search, in Management Science, 47, 2001, 117-132. FORTE 2002 M. Forte, I sistemi informativi geografici in archeologia, Roma 2002. GRECO et alii 2008 F. Cantone - G. Greco - B. Ferrara, Museo Narrante: The Foce Sele Hera Sanctuary Virtual Museum, in Layers of perception, Proceeding of the 35th International Conference on Computer Applications and Quantitative Methods in Archaeology (CAA), K. Posluschny, I. Lambers, I. Herzog (edd.), Berlin 2007, Berlin 2008, 418-425. HODDER 1986 I. Hodder, Reading the past. Current approaches to interpretation in archaeology, Cambridge 1986. ICOMOS 1990 Charter for the protection and management of the archaeological heritage, prepared by the International Committee for the Management of Archaeological Heritage (ICAHM) and approved by the 9th General Assembly, Lausanne 1990 (disponibile su http://www.international.icomos.org/charters/arch_e.htm). ICOMOS OPEN ARCHIVE http://openarchive.icomos.org/. JONES 2007 C. Jones, Institutional Repositories: Content and Culture in an Open Access Environment, Oxford 2007. CORALINI 2009 Vesuviana. Archeologie a confronto, Atti del Convegno Internazionale, A. Coralini (ed.), Bologna 2008, Bologna 2009. KIRSCHENBAUM 2010 M. G. Kirschenbaum, What is Digital Humanities and What’s it Doing in English Departments?, ADE Bulletin, 150, 2010, 55-61. CNIPA 2007 Vademecum per la realizzazione di progetti formativi in modalità e-learning nelle pubbliche amministrazioni, II edizione, in I Quaderni Centro Nazionale per l’Informatica nella Pubblica Amministrazione, 32, 2007 (disponibile su LANG et alii 2007 K. R. Lang - D. Vragov - R. Shang, Designing markets for open source production of digital culture goods, in Proceedins of the ninth international conference on electronic commerce, New York 2007, 283292. 27 LOCK 2003 G. Lock, Using Computers in Archaeology: Towards Virtual Pasts, London 2003. MARKUS 2001 M. L. Markus, Toward a Theory of Knowledge Reuse: Types of Knowledge Reuse Situations and Factors in Reuse Success, Journal of Management Information Systems, 18, 2001, 57-93. MAUTONE-RONZA 2010 M. Mautone - M. Ronza, Patrimonio culturale e paesaggio. Un approccio di filiera per la progettualità territoriale, Roma 2010. MINERVA 2008 Minerva Handbook on cultural web user interaction, 2008 (disponibile su http://www.minervaeurope.org). MOSCATI 2009 La nascita dell’informatica archeologica, Atti del Convegno Internazionale, P. Moscati (ed.), Roma 2008, in ACalc, 20, 2009. OLIMPO 2010 G. Olimpo, Società della conoscenza, tecnologia, educazione, in TD-Tecnologie Didattiche, 50, 4-16. ORLANDI 2003 T. Orlandi, Lo status accademico dell’Informatica umanistica, in ACalc, 14, 2003, 7-32. RAYMOND 1999 E. S. Raymond, The Cathedral and the Bazaar: Musing on Linux and Open Source by an Accidental Revolutionary, London 1999. FORUM 2011 Forum Consultazione linee guida per i siti web delle PA, 2011 (disponibile su http://apps.innovazionepa.it/forum/forum_topics.asp?FID=16&TS=7). GELMINI 2011 Legge 30 dicembre 2010 n. 240. Riforma universitaria “Norme in materia di organizzazione delle università, di personale accademico e reclutamento, nonché delega al Governo per incentivare la qualità e l’efficienza del sistema universitario” G.U. n. 10 del 14 gennaio 2011 (Suppl. Ord.) (disponibile su h t t p : / / w w w. p a r l a m e n t o . i t / e l e n c h i l e g gi/43858/92024/elencoleggi.htm). LINEE GUIDA 2011 Linee guida per i siti web della PA, 2011 (disponibile su http://www.innovazionepa.gov.it/comunicazione/notizie/2011/maggio/11052011-lg-versione-preliminare-per-consultazione.aspx). OSSERVATORIO 2011 DigitPA - Osservatorio Open Source (disponibile su http://www.osspa.cnipa.it/home/index.php). Per tutti i riferimenti web ultimo accesso in data 18/04/2012. Edizioni precedenti RYAN 2001 N. Ryan, Documenting and validating virtual archaeology, in ACalc, 12, 2001, 245-273 (disponibile su http://soi.cnr.it/archcalc/indice/PDF12/13Ryan.pdf). I workshop (2006) http://w w w.a rc he ogr.unis i.it/a s ia a /ope n/index.php?id=w06_ab Università di Siena, Polo Universitario Grossetano. SETTIS 2007 S. Settis, Italia S.p.A. L’assalto del patrimonio culturale, Torino 2007. II workshop (2007) http://workshop07.iosa.it/workshop07/index.php Università di Genova, a cura del Grupporicerche e dell’Istituto di Studi Liguri. WILLIAMS 2002 S. Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, Sebastopol 2002. III workshop (2008) http://www.perseo.lettere.unipd.it/workshop08/doku.php Università di Padova. Appendice normativa IV workshop (2009) http://www.archeologiadigitale.it/foss2010/foss2009/ index.html CNR di Roma. CAD 2010 Codice dell’Amministrazione Digitale - Il testo vigente, DECRETO LEGISLATIVO 30 dicembre 2010, n. 235 (disponibile su http://www.digitpa.gov.it/amministrazionedigitale/CAD-testo-vigente). 28 dell’Articolo 10 Legge 6 luglio 2002, n. 137, G.U.R.I. Serie Generale (SO) 24 febbraio 2004, n. 28 (disponibile su http://www.beniculturali.it/mibac/export/MIBAC/sito-MIBAC/MenuPrincipale/Normativa/Norme/index.html). CODICE 2004 Decreto Legislativo 22 gennaio 204, n. 42. Codice dei Beni Culturali e del paesaggio, ai sensi V workshop (2010) h t t p : / / w w w. a r c h e o l o g i a d i g i t a l e . i t / a r c h e o foss/2010.html Università di Foggia. ATTI Esperienze virtuose di gestione aperta della conoscenza culturale. Maria Mautone ARCHEOFOSS. Esperienze virtuose di gestione aperta alla conoscenza culturale Essendo il paesaggio l’archivio del susseguirsi dinamico delle vicende storiche della natura e della società, ne consegue che in esso sono sedimentate anche le componenti archeologiche alle quali i processi di pianificazione e strutturazione sostenibile del territorio riconoscono ormai un ruolo complesso e determinante. La prospettiva di promuovere a larga scala un’utenza ampia e diversificata nonché di esaltare le valenze economiche e sociali, oltre che identitarie del paesaggio culturale e dei siti archeologici, ha portato gli studiosi a confrontarsi con professionalità e competenze eterogenee. Alle logiche della conservazione e della tutela si sono gradualmente affiancate quelle della valorizzazione, della fruizione e della gestione competitiva, le cui best practices corrono su due binari paralleli ma rivolti a un obiettivo comune. Come emerge dagli interventi della sessione, le moderne tecnologie applicate alla ricerca archeologica lavorano nella direzione della diffusione globale delle conoscenze acquisite nell’area di scavo; con tale prospettiva esse vengono trasferite in siti web, progettati secondo diversi livelli di complessità e aperti all’implementazione delle immagini e dei contenuti. Alle pagine web si affianca la modellazione in 3D e la cartografia del sito si trasforma in mappe interattive che, consultabili a scala diversa, consentono la piena consapevolezza del percorso storico dalle fasi d’avvio, a quelle di sviluppo e di declino. In forma meno dura e più accessibile, ma ugualmente valida dal punto di vista scientifico-metodologico, vengono in tal modo riproposte le analisi condotte sulla stratificazione archeologica e i risultati a cui si è pervenuti con campagne di scavo complesse e integrate. Quando la raccolta e l’archiviazione critica dei dati diventano strumento operativo per gli specialisti del settore, allora l’interpretazione degli elementi quantitativi si predispone per le più articolate analisi dei processi storico-culturali cui risalgono gli assetti territoriali. La divulgazione del sapere archeologico è ormai diventata un nodo centrale per il futuro stesso della disciplina e per le nuove prospettive che a essa si aprono; di primaria importanza diventa, quindi, il processo di sensibilizzazione delle giovani generazioni nei confronti delle componenti culturali del paesaggio. È ben noto quanto nel nostro Paese l’imprinting territoriale sia fortemente riconducibile alla storicità delle sue componenti che si riconoscono nella influenza dei Greci nel Mezzogiorno, degli Etruschi nell’Italia centro-settentrionale, nonché alla razionale, incisiva e diffusa sistemazione dello spazio urbano e rurale di matrice romana. Importante tassello nel processo di definizione dell’identità locale, nazionale ed europea, le componenti archeologiche, così come riconosciuto dalla Convenzione Europea del Paesaggio (ottobre 2000), devono pertanto essere oggetto di indagine ai fini sia della ricerca specialistica, sia della corretta pianificazione e programmazione territoriale, così come sono pure decisive per rinsaldare il legame connaturale tra le comunità e i contesti di riferimento. Ma l’uso di tecnologie innovative può incorrere in rischi; la fruizione web-oriented di siti archeologici, i portali web culturali e musei virtuali possono, infatti, compromette- 33 re la frequentazione stessa dei siti e dei contesti territoriali, che invece hanno in sé potenti fattori d’attrazione, e svilirne il complesso di valenze. In realtà, quando ben costruita e adeguatamente orientata, la circolazione d’informazioni sul ruolo culturale delle aree archeologiche, lì dove la valenza del sito è già acclarata, agisce invece da moltiplicatore di flussi turistici, rafforzandone o ampliandone il bacino d’utenza; parimenti là dove i siti archeologici ricadono piuttosto in aree marginali, lontani da città d’arte o da altri circuiti del turismo nazionale e internazionale, l’attivazione di un sito web accessibile dai portali turistici più accreditati può anch’essa essere avvio di una decisiva inversione di tendenza nell’economia locale e nell’assetto di ambiti territoriali non ancora coinvolti dalle positive ricadute della valorizzazione del patrimonio archeologico. La dimensione locale può in tal modo non rimanere danneggiata dalle nuove modalità di fruizione che operano su una scala globale; al contrario, la consapevolezza del ruolo che la società post-industriale riconosce al patrimonio culturale - interpretato quale risorsa innovativa, ecocompatibile, non delocalizzabile - rinnova l’attenzione di amministratori, enti e soggetti pubblici e privati verso le componenti culturali del paesaggio. Per la valorizzazione e la gestione competitiva dei siti archeologici diventa indispensabile disporre di una piattaforma condivisa di dati georiferiti, opportunamente classificati secondo variabili e parametri significativi in modo da orientare e innervare le linee strategiche della pianificazione paesistico-ambientale, come pure gli interventi infrastrutturali e i processi d’espansione insediativa. Ne sono un esempio i Sistemi Informativi Territoriali che, da strumenti per la tutela e la gestione del patrimonio archeologico, si propongono anche come spazi per la partecipazione e la condivisione delle scelte. L’utilizzo di software innovativi, quali ad esempio i GIS (Geographical Information System), consente di elaborare database per l’analisi integrata e sistemica di dati archeologici risalenti a periodi diversi, riconducibili a scuole e pratiche di scavo eterogenee. Le piattaforme che ne derivano diventano strumenti indispensabili per la promozione del cultural planning, ovvero della pianificazione che parte dalla consapevolezza del patrimonio culturale - archeologico, artistico-monumentale e storico-identitario - inteso quale componente imprescindibile su cui definire le visions di sviluppo e la progettualità territoriale. I processi, in ambiente virtuale, di promozione dei siti archeologici devono trovare riscontro nella realtà dei contesti di riferimento, per non ridurre l’azione di promozione a uno sterile autoreferenzialismo incapace di produrre ricadute sulle comunità e i territori interessati. Tale prospettiva consente di irrobustire l’anello debole che lega archeologi e pianificatori nel difficile ambito della programmazione territoriale. Il settore delle Innovation and Communication Technologies (ICT) anch’esso estende e amplia lo spettro delle competenze archeologiche, nel loro progressivo confrontarsi sul piano delle opportunità che l’archeologia preventiva e quella programmata ricavano dai processi multimediali e virtuali. Molteplici sono state pertanto le innovazioni nei metodi e negli approcci che hanno interessato la ricerca di base e quella applicata; chiamati a confrontarsi con le esigenze dello sviluppo territoriale, a individuare strategie affinché anche i siti e le aree di scavo abbiano ricadute economico-sociali, gli archeologi sono chiamati sempre più a misurarsi con molteplici professionalità che spaziano dall’ambito umanistico a quello propriamente scientifico-tecnologico. Il complesso ventaglio di competenze che tendono alla valorizzazione, alla fruizione e alla gestione richiede infatti la proposizione di approcci multidisciplinari ove è centrale il ruolo dell’archeologo affinché si definisca la prospettiva più corretta e idonea per esaltare, con le moderne tecnologie della comunicazione e dell’innovazione, i valori e le valenze di ritrovamenti e siti. 34 Paola Moscati Open Science e Archeologia Desidero anzitutto ringraziare gli organizzatori della manifestazione, e in particolare Giovanna Greco a cui mi lega un antico sodalizio scientifico, insieme al Consiglio Scientifico di ArcheoFoss per l’invito a partecipare alla sesta edizione del Workshop Open Source, Free Software e Open Format nei processi di ricerca archeologica. Questa occasione mi consente, infatti, sia di rievocare un ricordo personale sia di approfondire una tematica di indagine che ha sempre guidato il tipo di approccio all’informatica archeologica e il percorso evolutivo della rivista Archeologia e Calcolatori, che da oltre venti anni rappresenta questa disciplina di confine tra i due rami del sapere. Il legame con l’Università degli Studi di Napoli Federico II risale agli inizi degli anni Novanta, quando su iniziativa di Mauro Cristofani, maestro dotto e lungimirante, fui chiamata nell’anno accademico 1993-94 come professore a contratto presso la Scuola di Specializzazione in Archeologia per tenere il corso di Applicazioni informatiche alla ricerca archeologica. E proprio presso la Facoltà di Lettere e Filosofia si era svolto pochi anni prima, precisamente nel 1991, il convegno promosso da Cristofani su Beni Culturali. Ricerca-Didattica-Profili professionali, in cui ero stata invitata a tenere una relazione su Informatica e Beni Culturali. Napoli, dunque, già si proponeva agli inizi degli anni Novanta come un polo all’avanguardia e attento al rapporto tra formazione e professionalizzazione e alle ricadute di progetti di ricerca improntati su criteri di interdisciplinarità. L’ateneo federiciano ha svolto così un ruolo di primo piano negli sviluppi dell’informatica archeologica, distinguendosi non solo per la feconda attività didattica, ma anche per la promozione di forme di interazione fra università ed enti preposti alla tutela, per integrare conoscenze specifiche con politiche di valorizzazione e di comunicazione. A Napoli sono poi tornata in altre occasioni, con impegni preminentemente di carattere didattico. Per rimanere nel tema della comunicazione, tra queste occasioni vorrei ricordare in particolare l’esperienza nel 2000 presso il Master di Alta Formazione in Multimedialità e Beni Culturali. L’invito di Giovanna Greco coglieva con anticipazione un tema di particolare attualità: la volontà di inserire l’archeologia nella “società dell’informazione”, attraverso forme di diffusione del sapere in cui vigesse il rispetto verso un pubblico a cui è necessario comunicare in modo serio e corretto i risultati delle ricerche. Con il termine multimedialità gli organizzatori del corso intendevano porre subito l’attenzione sulla diffusione di nuovi sistemi informativi, particolarmente flessibili nel trattamento di dati eterogenei e nell’esame delle loro reciproche connessioni. Infatti, i sistemi multimediali, pur prendendo avvio dalle più tradizionali banche dati, mirano a integrare fonti di informazioni differenziate, secondo una nuova filosofia comunicativa che è senz’altro il risultato della rivoluzione introdotta da Internet. È da notare, dunque, la costante attenzione dell’ateneo napoletano alla formazione, che deve avvenire all’interno di una università concepita - per usare le parole di Fulvio Tessitore a chiusura del convegno del 1991 - come il luogo «dove il nesso fra didattica e 35 ricerca ha una ricaduta interna sulla didattica dei risultati della ricerca». Nel settore dei Beni Culturali, dunque, la comunicazione diviene una base imprescindibile per la condivisione delle conoscenze, che facilita sia l’opera e l’integrazione dei diversi enti preposti alla catalogazione e alla tutela dei beni sia la fruizione da parte di un pubblico più ampio. Questa politica accademica ha avuto come risultato una serie di progetti scientifici e didattici e l’organizzazione di numerose manifestazioni, di cui la sesta edizione del Workshop ArcheoFoss costituisce un significativo punto di arrivo. Nel dipanarsi degli eventi scientifici, infatti, gli esiti delle ricerche non sono mai casuali, ma si costruiscono su solide basi. L’interesse per la didattica, per la comunicazione scientifica e per lo scambio dei dati non poteva non convergere sugli interessi del movimento dell’open source e dell’open access. Si tratta di un percorso assai simile a quello seguito dalla nostra rivista Archeologia e Calcolatori che ha aderito fin dal 2005 all’Open Archives Initiative, con l’intento di adottare tecnologie all’avanguardia per la diffusione di contenuti scientifici in rete. Un’iniziativa che non si sarebbe mai potuta realizzare senza alle spalle una politica editoriale fermamente improntata a una visione della ricerca che deve attuarsi in un contesto di libera condivisione dei saperi e a un uso precoce del web come strumento di diffusione delle informazioni. Fin dal primo numero della rivista la scelta di un ambiente operativo “aperto” è sostenuta da T. Orlandi (L’ambiente Unix e le applicazioni umanistiche), proprio mentre si intensificano i primi tentativi di adottare sistemi multimediali per la descrizione e l’archiviazione dei dati archeologici. Ma è soprattutto a partire dagli anni centrali del primo decennio del nuovo Millennio che, con l’evoluzione delle tecnologie informatiche, l’interesse si rivolge sempre più insistentemente al problema della costituzione di una rete di sapere archeologico aperto e condiviso, che s’inserisce prepotentemente nella politica nazionale e internazionale per lo sviluppo di nuove forme di apprendimento e di diffusione della cultura che prevedono anche il pubblico accesso al sapere. Archeologia e Calcolatori, dunque, si è impegnata direttamente in questa nuova politica editoriale, attraverso la realizzazione di un repository OAI-PMH, dando la possibilità ai suoi lettori di accedere liberamente agli articoli pubblicati annualmente nella rivista. Una politica che trova il suo coronamento nel 2009 nella pubblicazione del secondo supplemento, dedicato agli atti della quarta edizione del convegno ArcheoFoss, e nell’invito odierno a questa manifestazione. L’auspicio è di poter vedere realizzata attraverso le moderne tecnologie la prospettiva di una “Open Science”, in cui si consolidi l’idea della conoscenza scientifica come bene pubblico fondamentale per lo sviluppo delle politiche della ricerca. 36 Pietro Citarella Il sito internet del Comune di Napoli: da strumento informativo a spazio per la condivisione e la partecipazione Abstract Over the last years the web changes have required a continuous update/adjustment of public bodies’ websites in order to respond to citizens’ information needs. Many years ago, the City of Naples’ website (www.comune.napoli.it) has been given an open source technologies for the management of dynamic pages (PHP and server Linux operating system). Moreover, all the contents posted have been provided with a creative commons license in order to promote the free dissemination and sharing of information. The awareness of having an audience made up of citizens increasingly interconnected and in continuous movement has transformed the homepage into an important tool to spread geo-localized and customized contents. 1. L’evoluzione verso il social web Il Web è cambiato radicalmente negli ultimi anni. L’insieme di pagine html, collegamenti ipertestuali, database, applicazioni scritte nei più disparati linguaggi di programmazione (php, perl, java, asp, ajax) o create grazie a framework come Adobe Air, Flash, Microsoft Silverlight, costituiscono uno spazio ricchissimo, seppur caotico, di informazioni e dati a disposizione degli utenti della rete. In questo “disordine” gli algoritmi dei motori di ricerca come Google, sempre più sofisticati, provano a individuare criteri per la classificazione e l’organizzazione delle pagine, in modo da restituire risultati coerenti con le query di ricerca, capaci cioè di rispondere al bisogno di conoscenza di chi si affida a Internet per ottenere velocemente informazioni. L’evoluzione del World Wide Web verso un’esperienza sempre più sociale e l’affermazione delle piattaforme di social media come paradigma di riferimento nell’uso quotidiano della rete, hanno fatto in modo che l’utente trascorra il proprio tempo online all’interno dei rassicuranti recinti di social network come Facebook1. Chi utilizza Internet non ha più bisogno di spostarsi da un link all’altro per controllare il proprio blog, per vedere video, giocare o mandare e-mail agli amici, perché può fare esattamente le stesse cose restando sulla sua pagina personale, ben sapendo che saranno le informazioni a trovarlo attraverso le notizie condivise dalla propria rete di contatti. I legami che alimentano queste reti, vale a dire l’interesse, le esperienze comuni, la conoscenza diretta, l’identità nelle passioni, costituiscono un filtro in grado di selezionare automaticamente le informazioni senza necessità di interventi diretti da parte dell’utente della piattaforma sociale. La grande quantità di conoscenze che ogni giorno viene condivisa, riproposta e generata sui social network favorisce anche la partecipazione dell’utente che si trova a essere utilizzatore e creatore delle informazioni, spesso adattando il messaggio secondo i 1 www.facebook.com 37 1. A sinistra la vecchia homepage del sito www.comune.napoli.it e a destra la nuova pagina iniziale. propri modelli comunicativi, arricchendolo con commenti o riproponendolo in forme diverse. Questo spazio di condivisione e partecipazione ha portato all’affermazione di uno schema che l’utente di Internet si aspetta di trovare in ogni luogo virtuale con cui viene a contatto, sia esso ludico, di intrattenimento o istituzionale. 2. Il sito web del Comune di Napoli La consapevolezza di avere un pubblico formato da cittadini sempre più interconnessi e in continuo movimento ha portato a trasformare la home page del sito istituzionale del Comune di Napoli2 in una sorta di punto di partenza verso contenuti condivisibili, multimediali, geolocalizzati e personalizzati. Vanno in questa direzione il canale Youtube, le audio notizie, i feed RSS, le applicazioni per gli smartphone Apple e Android, le mappe di Google con numerosi punti di interesse (biblioteche, mercati, sedi municipali, parchi cittadini, siti museali), la WebTv comunale e il portale dei servizi online: strumenti capaci di offrire informazioni e notizie attraverso un sistema multicanale e integrato. L’evoluzione della pagina di ingresso del portale istituzionale testimonia il passaggio del web da strumento prettamente informativo a spazio multimediale e sociale, in cui è l’utente a decidere il canale che ritiene più adatto per la ricerca delle notizie: da una homepage che riproponeva un format a tre colonne caratteristico dei giornali cartacei, con le informazioni più importanti al centro e quelle meno rilevanti sulle colonne laterali, si è passati a una pagina molto più leggera, ricca di fotografie, grafica e metafore sotto forma di icone (fig. 1). Il software utilizzato per la gestione dei contenuti è un CMS (content management system) il cui codice, pur non essendo opensource, è stato però ampiamente modificato e personalizzato. Il vantaggio di questo software (fig. 2) è quello di restituire un codice completamente accessibile, quindi con pagine web fruibili anche da parte di persone con disabilità di tipo visivo o motorio, secondo quelli che sono i dettami normativi della Legge n. 4 del 2004 (Legge Stanca) che impone a tutte le pubbliche amministrazioni l’obbligo di garantire il diritto di accesso ai servizi informatici e telematici e ai servizi di pubblica utilità alle persone disabili. L’attenzione al tema dell’accessibilità e l’obiettivo di abbattere le “barriere virtuali” che limitano l’accesso dei disabili alla società dell’informazione, 2 38 www.comune.napoli.it 2. L’area amministrativa del CMS utilizzato per la gestione dei contenuti. 3. Il canale Youtube del Comune di Napoli. sono da sempre principi ispiratori nella realizzazione delle pagine web del Comune di Napoli: l’accessibilità, quindi, come misura di civiltà. Dal 2006 i server su cui si trovano le pagine del sito internet www.comune.napoli.it utilizzano sistemi operativi basati su Linux. Le pagine dinamiche sono create con il linguaggio opensource Php, mentre tutti i database sono basati su MySQL (i cataloghi delle biblioteche comunali, i comunicati stampa, le graduatorie per contributi e borse di studio, i bandi di gara, ecc.), altro software a codice aperto. L’obiettivo di favorire la diffusione delle conoscenze e la condivisione dei dati pubblici disponibili sul sito del Comune di Napoli, ha portato alla scelta di rendere i contenuti copyfree, quindi liberamente riutilizzabili secondo i termini previsti da una apposita licenza Creative Commons che prevede l’obbligo di attribuire la paternità dell’opera, di distribuire i dati e le notizie utilizzando la stessa licenza e il divieto di utilizzarli a fini commerciali (Attribuzione - Non commerciale - Condividi allo stesso modo 2.5 Italia CC BY-NC-SA 2.5)3. 3. Partecipazione e trasparenza Le potenzialità dei social media non possono essere ignorate ormai da nessuna amministrazione pubblica. Se si vuole creare, finalmente, un rapporto diretto e continuo con i cittadini è necessario sperimentare e utilizzare nuovi canali di comunicazione che affianchino (e in alcuni casi sostituiscano) gli schemi informativi tradizionali. La capacità di moltiplicare il messaggio, grazie alla possibilità di condividerlo, modificarlo e adattarlo alla piattaforma sociale, trasforma lo schema della comunicazione istituzionale. Non è più il classico modello uno-a-molti (broadcast) ma muta in uno schema che propone una 3 Per maggiori informazioni sulle licenze creative commons si veda il sito http://creativecommons.it. 39 richiesta continua di feedback e di sollecitazioni “dal basso”, dagli stessi cittadini che costituiscono il pubblico di riferimento. Da qualche anno il Comune di Napoli ha aperto diversi profili su alcuni social media, come Twitter e Friendfeed, con un buon successo, arrivando a contare in totale circa 3.000 contatti. Il canale su Youtube (fig. 3), con video che raccontano le iniziative e gli eventi di cui il Comune di Napoli è stato protagonista, ha raccolto finora oltre 200.000 visualizzazioni. La semplicità e l’immediatezza degli strumenti messi a disposizione dalle piattaforme sociali consentono di raggiungere senza filtri gli utenti, ampliando il numero di cittadini informati e riducendo la distanza con alcune fasce di popolazione, come quelle giovanili, poco abituate a cercare le notizie sui siti delle pubbliche amministrazioni. Ai social network si aggiungono quelli che sono i canali tradizionali, come la posta elettronica, i feed RSS con le principali notizie, i podcast con i radio notiziari degli uffici stampa di Giunta e Consiglio, diverse newsletter con oltre 10.000 iscritti e due applicazioni per i sistemi Apple e Android, per garantire l’accesso alle informazioni anche agli utenti in mobilità (sviluppate entrambe a costo zero). L’app per il sistema Android è stata creata utilizzando un plugin per wordpress, il noto CMS opensource utilizzato da milioni di blogger in tutto il mondo. L’informazione geolocalizzata, cioè la visualizzazione su mappa di punti di interesse, itinerari culturali, servizi e notizie di carattere storico, sociale, artistico ecc. ha conosciuto una vera e propria esplosione grazie all’aumento dei dispositivi mobili e a numerose applicazioni in grado di sfruttare il segnale GPS disponibile ormai in tutti i cellulari di nuova generazione. Rispondendo, pertanto, alla domanda di informazioni localizzate geograficamente, sul sito istituzionale sono disponibili numerose mappe Google, integrate direttamente all’interno delle pagine, contenenti punti di interesse e informazioni di varia natura: dai cantieri stradali con i relativi dispositivi di traffico, alla localizzazione di musei, sedi espositive, biblioteche comunali, parchi e mercati cittadini. Ogni punto di interesse è accompagnato da informazioni aggiuntive come orari di apertura, fotografie, schede di approfondimento e così via. È in via di realizzazione un progetto che consentirà ai cittadini, previa registrazione, di utilizzare telefonini e tablet dotati di GPS per inviare alla piattaforma, in tempo reale attraverso delle applicazioni mobili, informazioni su dissesti stradali ma anche, per ciò che riguarda i beni culturali, segnalazioni su atti di vandalismo a monumenti, situazioni di pericolo o occupazioni abusive. Un’idea in cantiere è quella di una mappatura delle numerose edicole votive di Napoli, realizzata grazie al contributo dei cittadini che potranno segnalare la posizione di una edicola, aggiungendo foto o altri dettagli. Il sistema prevede una serie di verifiche da parte del Comune dopo la segnalazione e quindi, solo successivamente, l’aggiornamento dei dati. 4. La sezione turismo e cultura La sezione Turismo e Cultura è particolarmente ricca di contenuti e punta a essere uno strumento utile sia per il turista sia per l’appassionato di arte. Nella prima pagina un contenitore raccoglie i principali eventi culturali, le mostre e i convegni ospitati dalle strutture gestite direttamente dal Comune di Napoli, ma anche dalle altre importanti istituzioni culturali della città. Una pagina è dedicata alla localizzazione su mappa Google dei musei e delle principali sedi espositive della città, come già accennato; ciascun punto di interesse permette di ottenere informazioni sulla struttura: come numero di telefono, orari di apertura, costo del biglietto di ingresso, ecc. Attraverso una piattaforma creata dalla Napoli Servizi, una delle aziende partecipate del Comune di Napoli, è possibile visualizzare, sempre su mappa Google, itinerari culturali e numerosi punti di interesse (come chiese, chiostri, palazzi storici) con fotografie e informazioni approfondite. E’ possibile, per esempio, seguire l’itinerario di Spaccanapoli con informazioni su tutte le chiese e i palaz40 zi storici che arricchiscono l’area. Numerose sono, inoltre, le pagine con notizie e informazioni di carattere storico e artistico sulle strutture i cui servizi sono gestiti dal Comune di Napoli, come Castel Nuovo e il Castel dell’Ovo. Particolarmente utile risulta anche la sezione dedicata alle biblioteche comunali, mappate e geolocalizzate in base alla Municipalità di appartenenza, in modo da poter essere agevolmente individuate dai cittadini. Per ogni biblioteca esiste un catalogo dei libri custoditi consultabile online, oltre a pagine con gli eventi e le iniziative organizzati all’interno di ciascuna struttura. Tutte le pagine della sezione Turismo e Cultura sono disponibili anche in lingua inglese, grazie a una convenzione con l’Università L’Orientale che ha messo a disposizione, in una prima fase, dei traduttori professionisti per le pagine più complesse, per poi inviare presso i nostri uffici giovani studenti che si sono occupati di tradurre tutte le pagine gratuitamente, svolgendo tirocini formativi presso il Comune di Napoli. L’architettura delle informazioni di un sito web di una pubblica amministrazione non può considerarsi definitiva, ma deve necessariamente mutare adeguandosi all’evoluzione delle tecnologie, ai nuovi bisogni del cittadino e all’esigenza di garantire partecipazione e trasparenza. Il lavoro degli intermediari della comunicazione pone ogni giorno gli addetti ai lavori davanti a sfide emozionanti e complesse e richiede un grande equilibrio tra la necessità di informare e comunicare con i cittadini e l’esigenza di semplificare le forme e le modalità con cui i messaggi sono trasmessi. Il compito più difficile è, probabilmente, quello di filtrare le informazioni da tutti quegli elementi che poco hanno a che fare con la comunicazione istituzionale (propaganda indiretta, sponsorizzazioni nascoste, comunicazione politica in senso stretto) e che raramente interessano al cittadino. I professionisti della comunicazione dovrebbero attribuire alla trasparenza un duplice significato: da un lato come garanzia di libero accesso a tutte le informazioni disponibili e dall’altro la capacità dei comunicatori pubblici di nascondersi fino a sparire quasi del tutto nell’ambito del processo di comunicazione istituzionale, in modo che il cittadino non si accorga dell’attività di filtro, sistemazione e organizzazione delle informazioni pubbliche. 41 Referenze iconografiche Autore: figg. 1-3. Pietro Citarella Comune di Napoli [email protected] 42 Floriana Miele Modelli di conoscenza e sistemi informativi per la tutela, la gestione e la valorizzazione del patrimonio archeologico: esperienze in Campania Abstract This article is intended to review the contact points and mutual interactions between the information technologies and the domain of cultural heritage, starting from the analysis and cataloguing methods applied both to scientific and historical research. After some considerations about the definition and poly-semantic meaning of the expression “cultural good”, the Author briefly describes the evolution of technologies and information systems and applications adopted by Cultural and Archaeological Institutions in Campania along the past thirty years in the most important projects. In these ones patterns and models of catalogue and territorial information systems had been realized for knowing, safeguarding and promoting the historical and archaeological heritage: from databases and information retrieval to GIS and CMS, from Web sites to the cooperative and distributed Web systems for communicating cultural contents. Finally the Author outlines that the most important goal to achieve should be the knowledge of cultural goods in their whole “life cycle” from the native site and original time of creation up to the their current conservation or exhibition place1. 1. Il concetto di “bene culturale” e sua contestualizzazione spaziale e temporale Il dominio del “patrimonio culturale” si manifesta invero come un ambito di ricerca e di intervento problematico, in primo luogo per l’attribuzione di una definizione condivisa al concetto stesso di “bene culturale”, che va in realtà inteso come un’entità materialmente unitaria ma ontologicamente multi-dimensionale, pluristratificata e multisemantica. Il “bene culturale”, infatti, da un punto di vista tecnico, è portatore di una serie di attributi intrinseci che lo identificano in modo univoco, ma contemporaneamente, da un punto di vista storico, si relaziona a dati connessi alla sua micro e macro contestualizzazione sia spaziale rispetto a determinati sistemi di riferimento geografici, sia temporale in senso sincronico e diacronico2; come pure esso può diventare fulcro di una serie di funzioni (patrimoniale, scientifica, documentaria, espositiva, didattica) e di attività estrinseche a esso correlate (amministrative, catalografiche, di rilievo grafico e fotografico, di restauro, di movimentazione e di musealizzazione) a loro volta generatrici di ulteriori informazioni connotanti, che ne compongono nell’insieme la vicenda storica o “ciclo di vita”. 1 Esprimo un doveroso ringraziamento alla Prof.ssa Giovanna Greco del Dipartimento di Discipline Storiche dell’Università degli Studi Federico II di Napoli e al Comitato direttivo del Workshop ArcheoFOSS 2011 per il cortese invito rivoltomi a partecipare alla manifestazione con questo personale contributo. 2 Sul problema della contestualizzazione del bene culturale: PIEROBON et alii 2005; MIELE 2009 a, 85-88; PROTO 2009, 129-133. Sulla complessa questione della coordinazione del tempo rispetto a oggetti in quiete o in moto nello spazio geografico, nonché del rapporto tra tempo assoluto e relativo, reale e apparente si veda GALLISON 2004, 1-38, 307-326. 43 Si potrebbe allora cercare di rappresentare il concetto pregnante di “bene culturale” immaginando con un linguaggio figurativo che ogni artefatto nella sua materialità, composto cioè di specifiche proprietà fisiche, esiste a partire da un preciso momento temporale “passato” in cui viene generato attraverso l’interazione tra una materia inerte e l’opera di un “agente” umano in un determinato contesto geografico e storico, assumendo da quell’istante una propria funzione “attiva” d’uso e insieme un significato immateriale che ne contraddistingue l’aspetto “culturale”, connesso a fattori antropologici e socio-ideologici. Da questo “evento” creativo originario il bene culturale si muove, per così dire, lungo l’asse continuo del tempo passando attraverso altri “eventi”, nelle sue successive relazioni con diversi agenti e subendo quindi successivi mutamenti di stato al variare delle condizioni iniziali (nella conservazione, nella funzione o anche nel luogo di collocazione, se trattasi di un oggetto mobile ovvero di un elemento di edificio rimpiegato altrove). Durante tale processo esso, in un certo senso, si “riattiva” depotenziandosi però progressivamente sino alla sua obliterazione ovvero alla perdita parziale o definitiva della sua funzionalità iniziale, transitando così in una fase “passiva” o meglio “quiescente”. È poi lo scavo archeologico l’evento determinante che in un tempo più o meno “attuale” in qualche modo “reifica” nuovamente il reperto archeologico o l’entità monumentale antica cercando, da un lato, di ricostruirne a ritroso la provenienza e le fasi d’uso, cioè la catena di eventi significativi a esso collegati, e dall’altro, di rivivificarlo con un diverso interesse “storico-documentario”, innescando altresì nuove funzioni e attività connesse alla tutela e al restauro, all’esposizione e alla fruizione. Nel tempo, dunque, il bene archeologico o culturale in genere possiede e acquista dati, ma insieme genera ulteriori informazioni e rappresentazioni sul piano sia materiale che immateriale, a loro volta dotate di specifiche proprietà, secondo una sorta di processo storico-documentale ricorsivo. 2. Rapporti e interazioni tra archeologia e informatica per la conoscenza, gestione, tutela e valorizzazione dei beni culturali Appunto perché il “bene culturale” porta in sé una siffatta molteplicità di attributi e significati è indispensabile utilizzare metodologie di analisi adeguate a “conoscerlo”3 nella sua complessità semantica, per poterlo gestire e salvaguardare e per trasmetterne la memoria. Presupposto fondamentale per lo studio conoscitivo del bene archeologico o culturale è la “catalogazione”4, intesa come procedura che consente di collocare, attraverso sistemi di classificazione, categorie e codici terminologici specifici, ogni prodotto dell’attività umana nello spazio geografico, definirlo nelle sue caratteristiche materiche e morfologiche, tecnico-esecutive e decorative, infine attribuirlo a precise epoche, a una classe di produzione, a un ambito culturale o a un preciso autore. Attraverso la catalogazione si può tuttavia anche assegnare a determinati manufatti considerati di interesse la qualifica di “testimonianza culturale avente valore di civiltà”5, integrando i dati ricavati dall’autopsia oggettiva con informazioni desunte da fonti storiche dirette o indirette e da elementi di contesto, con lo scopo di dedurre i differenti atteggiamenti ideologici e spirituali che gli esseri umani assunsero rispetto tanto alla sfera del reale quanto a quella dell’irreale. Cercare di dominare un ambito di conoscenza tanto articolato e multiforme quale quello del patrimonio culturale rappresenta pertanto una sfida non solo conoscitiva, ma pure tecnologica, costituendo un campo di sperimentazione favorevole anche per le scien3 Sulla definizione e sul processo della “conoscenza”: MUSGRAVE 2005, 5-24. La catalogazione e la documentazione sono, infatti, inserite tra i principi generali del D. L.vo n. 42 del 22.01.2004, su cui si vedano: ALIBRANDI-FERRI 2004, 3-88; BARBATI et alii 2006, 1-11; CAMMELLI 2007; ALBANO et alii 2008, 15-18, 29-53; COPPOLA-SPENA 2008, 55-86. 5 Cfr. per approfondimenti sull’argomento: MIELE 2002-03, 87-91; MIELE 2007 a, 48-49. 4 44 ze informatiche, che in relazione a esso hanno saputo produrre artefatti sempre più evoluti. Non minori analogie e affinità sono riscontrabili tra i metodi di indagine obiettiva e i criteri di classificazione gerarchica tradizionalmente adottati nelle discipline storicoarcheologiche e i sistemi analitici e logici propriamente usati in quelle tecnico-scientifiche. Se ciò ha consentito di fare avvicinare e interagire tra loro in oltre un trentennio due ambiti di studio pur tanto distanti, ha d’altro canto finito per distrarre l’attenzione dalle concrete esigenze e dalle specifiche problematiche del settore, emergenti tanto nelle procedure di catalogazione quanto in quelle della ricerca storica e della fruizione dei contenuti culturali. Se si esamina, infatti, la vicenda di questo rapporto interdisciplinare6, non sempre equilibrato, si può affermare che nonostante l’evolversi degli strumenti tecnologici e delle soluzioni applicative di volta in volta utilizzati, sostanzialmente immutati restano gli approcci logici e metodologici per esaminare e rappresentare le entità definite come beni culturali. Per quanto concerne l’aspetto tecnico-scientifico nelle applicazioni informatiche risalenti all’ultimo quarto del secolo scorso le rappresentazioni delle conoscenze erano costruite a partire da una loro preventiva “codifica sintetica” e organizzate in strutture di dati in modo da catturarne le relazioni, con il prevalente scopo di svolgere schedature oppure analisi incrociate di tipo statistico-quantitativo, ovvero elaborazioni di information retrieval7 automaticamente derivate dal contenuto delle entità che rappresentano le conoscenze. In seguito con l’affermazione di Internet per la trasmissione telematica dei dati e con lo sviluppo dei protocolli di comunicazione tra le reti negli anni Novanta, si è cercato di uniformare e migliorare le “interfacce di accesso” ai sistemi informativi, creando software specializzati che, impiegando linguaggi di configurazione quali HTML prima e XML poi, hanno consentito di semplificare la fase di progettazione. Grazie al crescente progresso tecnologico, stimolato dall’espansione della capacità dei supporti di memorizzazione e dall’uso di sistemi di calcolo sempre più miniaturizzati e potenti, la tradizionale metodologia di programmazione dei sistemi informativi, prima basati su applicazioni monolitiche, è stata soppiantata da quella dei sistemi modulari “a oggetti” e a “interfacce web”, caratterizzati dalla separazione fra i dispositivi dedicati alla archiviazione e persistenza dei dati e le interfacce utente che consentono di accedere a essi. Attraverso questa evoluzione è stato possibile realizzare i sistemi GIS, capaci di integrare sorgenti eterogenee di informazioni e ora impiegati anche in campo archeologico per l’ubicazione topografica geo-referenziata dei siti antichi su basi cartografiche territoriali, utilizzate come interfacce di interazione con gli archivi documentali a esse collegati8. Sintesi tra i database, la cui struttura unitaria di rappresentazione dell’informazione è il record, e i sistemi di information retrieval, dove la struttura elementare dell’informazione consiste nel contenuto stesso del documento, sono i cd. CMS, sistemi innovativi basati sulla nozione ricorsiva di “documento semi-strutturato”, visto come un aggregato di entità costituenti il contenuto informativo, e di “metadati”, cioè dati riguardanti l’informazione; caratteristica questa che consente di definire in modo uniforme e unitario non solo parti di documenti, ma pure “archivi” o “depositi documentali”. Inoltre, la problematica dell’interscambio dei dati nell’ultimo decennio si è spostata dalla mediazione umana a quella diretta tra i sistemi informativi, per cui sono stati avviati progetti miranti a individuare un insieme ridotto ma condiviso di informazioni strutturali riguardanti i contenuti gestiti da ciascun sistema informativo che agiscano come una lingua franca per l’interoperabilità. Tra le iniziative più note applicabili anche al set6 Le fasi e le modalità di tale lungo e complesso rapporto di collaborazione tra archeologia e informatica sono analizzate e discusse in D’ANDRIA 1987; D’ANDRIA 1997; D’ANDREA 2006, 25-137; MOSCATI 2009. 7 Riguardo all’applicazione di tale tecnologia nella ricerca archeologica: MOSCATI 2003. 8 Sui sistemi GIS realizzati per il settore archeologico: MOSCATI 1998; FORTE 2002 a; FORTE 2002 b; D’ANDREA 2006, 141-191; MANGO FURNARI-NOVIELLO 2006. 45 tore umanistico sono quelle che hanno prodotto il DC e l’OAI, i quali attuano la cooperazione e l’interscambio di metadati su documenti elettronici disponibili in biblioteche e archivi a livello globale. Per quanto riguarda, invece, l’aspetto della fruizione del patrimonio culturale, significativi vantaggi si sono ottenuti grazie agli strumenti per l’elaborazione di suoni e di immagini digitali fisse o in movimento9, cosicché dai primi ipertesti e dalle più schematiche elaborazioni volumetriche si è pervenuti alla realizzazione di applicazioni multimediali sofisticate sino ai modelli tridimensionali navigabili e all’uso della “virtualità immersiva”10. All’inizio del nuovo millennio infine l’iniziativa del W3C, da un lato, ha dato luogo al cd. Web 2 in grado di potenziare l’interattività dei sistemi utilizzanti il web come mezzo di accesso alle informazioni11, e dall’altro, ha indotto a sperimentare metodi d’interoperabilità tra sistemi informativi eterogenei mediante il web semantico, nel quale assume un ruolo centrale la nozione di “ontologia” espressa secondo il linguaggio della logica formale12. Per mezzo di tali sistemi si intende migliorare i metodi euristici dei motori di ricerca e agevolare lo scambio dei dati sia con l’uso di software open source e degli standard SOAP, sia con l’adozione di regole di interpretazione incrociata degli “schemi di metadati”, in modo da favorire l’integrazione e l’interazione tra fonti informative diverse nonché la condivisione di risorse documentali distribuite. L’armonizzazione delle metodologie informatiche con quelle delle reti di comunicazione ha peraltro dimostrato l’indipendenza delle strutture di rappresentazione da quelle di archiviazione, consentendo così di realizzare “circuiti di cooperazione”, nei quali l’informazione è vista dagli utenti in modo unitario anche se la sua effettiva archiviazione e gestione è dispersa su un territorio geografico e tra entità amministrative diverse. 2.1. Le applicazioni informatiche e i sistemi strutturati per i censimenti territoriali e la catalogazione di beni archeologici e culturali in Campania Sin dalla seconda metà degli anni Ottanta del secolo decorso all’interno del Ministero per i Beni Culturali (MiBAC), l’Istituto Centrale per il Catalogo e la Documentazione (ICCD) aveva ideato metodologie, vocabolari terminologici e norme formali per la catalogazione informatizzata dei beni archeologici, architettonici e storico-artistici, ma in modo che tutte le informazioni attinenti al bene - sia quelle proprie dell’oggetto, sia quelle relative alla sua contestualizzazione spaziale e cronologica, sia quelle correlate di tipo patrimoniale, documentario, archivistico e bibliografico, di tutela e di restauro - fossero inglobate in una struttura monolitica, come quella adottata nelle applicazioni SAXA e DESC, rispettivamente realizzate prima nel sistema DOS e poi in quello Windows. Con la creazione dei sistemi “a oggetti” e “a interfacce web” l’ICCD ha infine elaborato, all’inizio del nuovo millennio, il Sistema Informativo Generale per il Catalogo (SIGeC), che prevede la gestione separata e modulare di archivi di schede, immagini, dati bibliografici e liste di autorità, allegati grafici e cartografici, pur intercomunicanti tra loro. Anche a livello periferico le Soprintendenze, in un trentennio di attività, svolta in collaborazione tanto con istituti ricerca e universitari quanto con soggetti privati attivi nel mondo dell’ICT, hanno autonomamente sviluppato programmi di catalogazione, in realtà orientati all’implementazione dei dati piuttosto che alla conoscenza, tutela, gestione e frui9 FORTE-BELTRAMI 2000; GUERMANDI 2003; GUERMANDI 2004. Sull’uso della multimedialità nella comunicazione di carattere culturale: ORLANDI 1999; SCAGLIARINI CORLAITA 2003; ANTINUCCI 2007; DALLAS 2007; FORTE 2007; MOSCATI 2007 b; NICOLUCCI 2007. 11 Cfr. sull’argomento le fondamentali osservazioni di BERNER LEE 1999. 12 Riguardo al concetto di ontologia: FERRARIS 2003, 5-59; ECO 2007, 13-30, 65-75; mentre sui sistemi cd. ontologici si vedano SIGNORE 2005; D’ANDREA 2006, 193-204; AIELLO et alii 2007. 10 46 zione dei beni archeologici nel loro integrale “ciclo di vita”, nel quale si trovano a convivere elementi informativi statici insieme ad altri temporanei e variabili nel tempo. Per quanto riguarda la Campania13 esaminando in retrospettiva questo percorso di scambio interdisciplinare e interistituzionale, è possibile evidenziarne i vari aspetti peculiari e individuarne i nodi problematici rimasti irrisolti (tab. I). Fra i numerosi interventi condotti tra il 1987 e il 1990 per risolvere urgenti esigenze di censimento e monitoraggio conservativo dei beni culturali, danneggiati dagli eventi sismici verificatisi in Campania e Basilicata nel 1980 e nel 1984, ottennero risultati soddisfacenti sia dal punto di vista quantitativo che qualitativo i progetti Neapolis ed EubeaPuteoli, riguardanti l’uno Pompei e l’area vesuviana, l’altro Napoli e i Campi Flegrei. Nell’ambito del progetto Neapolis - Sistema per la valorizzazione integrale delle risorse ambientali e artistiche dell’area vesuviana14 furono realizzate numerose applicazioni all’avanguardia per l’epoca (tab. I.1). In primo luogo venne costruito un sistema informativo territoriale su basi cartografiche vettorializzate, IGM in scala 1:25000 e catastali in scala 1:5000, dell’area vesuviana, e furono elaborate mappe tematiche su specifici aspetti dei luoghi, geofisici e antropici, varie cartografie numeriche e un fotopiano a colori in scala 1:500 di Pompei. Ma soprattutto venne effettuata la catalogazione e la documentazione sistematica delle pitture parietali e dei mosaici di Pompei, nonché di quelli di provenienza vesuviana conservati nel Museo Archeologico Nazionale di Napoli, usando il programma di database relazionale SAXA. Ciascuna unità catalografica era altresì localizzata topograficamente su una carta archeologica vettoriale (fig. 1, a-b) derivata dal rilievo aerofotogrammetrico in scala 1:1000 del Van der Poel15, verificato a terra con quella realizzata da Eschebach16. Nell’agro pompeiano fu analogamente effettuato un censimento delle evidenze di età romana, descrivendole in schede di sito con documentazione grafica, iconografica e bibliografica. Queste attività sul campo furono accompagnate dall’analisi dei nove volumi dei Giornali di Scavo e poi dei diari di scavo di Pompei dal 1862 sino agli anni Settanta del XX secolo, di cui furono eseguite le scansioni digitali e redatte schede informatizzate17, in modo da collegare i singoli rinvenimenti al luogo di reperimento individuato sulla pianta di Pompei. Le applicazioni di database, sviluppate in ambiente DOS, erano gestite all’interno di un sistema informativo, il quale consentiva di effettuare in linguaggio SQL ricerche di dati e schede, filtrate da interfacce utente, sia per unità catalografiche che per accesso topografico. Grazie a tali sistemi di information retrieval fu possibile elaborare un indirizzario informatizzato, ricavandone classificazioni e quantificazioni statistiche delle tipologie e destinazioni d’uso degli edifici di Pompei e del suo suburbio18. Si sperimentarono, inoltre, avanzati artefatti tecnologici quali: restituzioni virtuali con modellazioni tridimensionali del territorio e di alcuni edifici o pitture di Pompei (fig. 2, b); un “sistema esperto” per l’analisi dei danni e l’esecuzione di restauri elettronici sugli affreschi; infine trattamenti informatici con tecniche di contrasto e marcature dei segni delle immagini digitali dei papiri carbonizzati di Ercolano per l’interpretazione dei testi greci. Anche Neapolis e il suo circondario furono oggetto di ricerche territoriali e campagne di schedatura nel progetto Eubea-Puteoli. Studio, recupero e valorizzazione mediante 13 Una descrizione più dettagliata dei progetti condotti in Campania per la catalogazione, il censimento territoriale e la fruizione dei beni culturali attraverso le tecnologie informatiche è edita in MIELE 2012, 7-34. 14 Sui risultati del progetto Neapolis: FURNARI 1994. 15 VAN DER POEL 1983. 16 ESCHEBACH 1993. 17 Sulla schedatura dei Giornali di Scavo di Pompei: CASTIGLIONE MORELLI 1993. 18 Gli studi storici e socio-economici eseguiti grazie alla catalogazione informatizzata di Pompei e dell’area vesuviana sono contenuti nel volume DE SIMONE-VARONE 1988; riguardo all’indirizzario di Pompei si veda MIELE et alii 1988, 57-71. 47 Tab. I - Prospetto dei progetti svolti in Campania tra il 1987 e il 2007 nel settore dei beni culturali. 48 1. Il censimento territoriale: dalle cartografie vettoriali ai GIS a-b) il progetto Neapolis: cartografia numerica dell’area vesuviana con individuazione dei siti antichi; dettaglio della carta archeologica di Pompei; c) il progetto Un piano per Pompei: carta tematica di Pompei; d-f) il progetto SIT Campania: carta tematica dei siti e delle aree vincolate nel territorio vesuviano e nei Campi Flegrei; carta tecnica vettoriale della Campania usata come base nel sistema GIS del progetto SIT Campania. la catalogazione informatica del centro storico di Napoli e dei Campi Flegrei19 (tab. I.2). Il piano di catalogazione informatizzata comprendeva le varie entità archeologiche emergenti ovvero note da fonti bibliografiche e archivistiche relative al centro storico di Napoli, a Ischia e ai siti antichi dei Campi Flegrei. Attraverso la ricognizione sistematica di tale comparto geografico fu possibile effettuare analisi ambientali e antropologiche, produrre schede su scavi stratigrafici insieme a quelle dei reperti in essi rinvenuti, nonché di siti e monumenti archeologici, eseguendone la documentazione digitale fotografica e iconografica d’epoca ed effettuandone il rispettivo posizionamento topografico su mappe IGM in scala 1:25000 e rilievi digitalizzati a diverse scale di dettaglio 1:2000, 1:100, 1:50. Anche in questo caso per la catalogazione si utilizzò il database relazionale SAXA in ambiente DOS, ma integrato con interfacce Windows all’interno di una struttura informativa, che consentiva la ricerca anche topografica delle schede con le relative immagini. 19 Sui risultati del progetto Eubea-Puteoli: AMALFITANO et alii 1990. 49 2. La comunicazione: dagli ipertesti e dai primi modelli volumetrici ai sistemi informativi cooperativi a-b) il progetto Neapolis: ipertesti su aspetti socioeconomici, di vita quotidiana, artistici, artigianali di Pompei; le visite virtuali nelle case pompeiane; modello volumetrico delle Terme Stabiane; c-d) il CIR Campania: i nodi web del Museo Archeologico Nazionale di Napoli e di uno dei siti dell’area flegrea; e-f) il nodo web sulla via Appia e modello tridimensionale numerico dell’Anfiteatro di Capua. In continuità metodologica con tali attività di catalogazione a tappeto tra il 1990 e il 1992 a cura del Consorzio TARA-ABECA (tab. I.3) fu effettuata la schedatura informatizzata con la relativa documentazione fotografica a stampa di reperti archeologici provenienti dall’area vesuviana e dalla stipe votiva dall’antica Sinuessa, nonché di oggetti in bronzo del Museo Archeologico Nazionale di Napoli e delle matrici di rame incise con le relative stampe, databili tra il XVIII e il XIX secolo, edite nelle Antichità di Ercolano. Infine nell’ambito di un ulteriore progetto straordinario nazionale denominato Catalogazione Emergenza (tab. I.4), tra il 1990 e il 1994, furono prodotte schede informatizzate con relativa documentazione a stampa di beni archeologici mobili a rischio di furto e dispersione nell’ambito delle province di Napoli e di Caserta. In queste ultime campagne di catalogazione si passò dal programma SAXA in ambiente DOS al DESC sviluppato in quello Windows a icone. In seguito la ex Soprintendenza Archeologica di Pompei e soprattutto la ex Soprintendenza Archeologica di Napoli e Caserta svolsero dal 1996 il Progetto SIVA. Sistema Informativo di Video50 Archiviazione20 (tab. I.5), che prevedeva la schedatura e la documentazione digitale dei materiali archeologici custoditi nelle case di Pompei, nel Museo Archeologico Nazionale di Napoli e nelle sedi periferiche, in modo da effettuare con una procedura semi-automatizzata contestuale sia l’individuazione univoca del bene archeologico, sia l’accertamento della sua consistenza patrimoniale e della sua effettiva esistenza nel luogo di conservazione (fig. 3, a). Per tale iniziativa il Consiglio Nazionale delle Ricerche (CNR) di Roma elaborò in visual basic il programma SIVA, il quale fu installato su PC portatili ante litteram collegati a una videocamera o fotocamera, dai quali le schede prodotte potevano essere trasferite con supporti magnetici su postazioni fisse locali e su un server centrale, così da con- 20 3. La catalogazione: dai database ai sistemi informativi a tecnologia web e ai CMS a) il database progetto SIVA; b-d) il sistema informativo di catalogo SELMO dell’area di Napoli e dell’area pompeiana con dettaglio della scheda e relativa immagine e posizionamento cartografico; e-g) il sistema informativo di catalogo a tecnologia web CRBC con dettaglio della maschera della scheda con relativa immagine e posizionamento cartografico. Sugli obiettivi e le modalità di esecuzione del progetto SIVA: DE CARO 2001. 51 sentirne la visualizzazione e la stampa con la relativa immagine ed elenchi di riepilogo, la consultazione complessiva attraverso ricerche personalizzate nonché l’estrazione nel tracciato di interscambio ICCD per l’archiviazione nel sistema informativo nazionale. Per il medesimo intento di censire il patrimonio archeologico istituzionale, a partire dal 1999 si è provveduto a effettuare la trascrizione informatizzata in un database Access delle singole voci dei beni archeologici mobili trascritte dal 1871 in poi sui volumi di inventario generale della Soprintendenza per i Beni Archeologici di Napoli e Caserta, collegate mediante links alla rispettiva citazione contenuta nelle immagini delle pagine dei volumi digitalizzate e indicizzate (tab. I.6), come già per i Giornali di Scavo di Pompei. L’ingente mole di schede di beni archeologici e culturali prodotte pose però in evidenza il problema della conservazione degli archivi dei dati elettronici e digitali, i quali sarebbero stati destinati a una inevitabile perdita, sia per la straordinarietà e discontinuità temporale e metodologica dei progetti di catalogazione, sia per la rapida obsolescenza delle attrezzature informatiche e dei programmi applicativi utilizzati, se le Soprintendenze archeologiche campane non ne avessero effettuato il trasferimento su supporti di memorizzazione più attuali, ma soprattutto all’interno di sistemi informativi di catalogo più strutturati in grado di gestirli in modo più efficiente e unitario. È stato così possibile, tra il 2000 e il 2005, recuperare e riversare all’interno del sistema detto SELMO oltre 114.000 schede informatizzate pregresse riferibili alle competenze territoriali della ex Soprintendenza per i Beni Archeologici di Napoli e Caserta e della ex Soprintendenza Archeologica di Pompei (tab. I.7). Questa applicazione, consistente in un database gerarchico, elaborato prima in formato Access e poi in DB2, organizzato secondo un approccio territoriale-topografico e per tipologie di beni, garantisce la consultazione condivisa ma sicura dei dati in rete e consente, a livello di amministratore, di gestire, importare o esportare gli archivi e di aggiornare i vocabolari, mentre a livello di utente, non solo di produrre, modificare e stampare in formato ICCD o documento le schede, associandovi le relative immagini digitali, ma anche di estrarre dati secondo diverse modalità di ricerca, per tipologia e/o identificativo di scheda, per campi singoli o associati, ricavandone elenchi secondo le specifiche esigenze di studio (fig. 3, b-d). Sempre allo scopo di recuperare e aggiornare i precedenti archivi catalografici, questa volta riguardanti beni storico-artistici, in occasione del progetto nazionale ARTPASTApplicazione informatica in Rete per la Tutela e la valorizzazione del Patrimonio Artistico e Storico (www.artpast.org), gestito dall’ICCD in cooperazione con la Scuola Superiore Normale di Pisa (SNP) (tab. I.8), la ex Soprintendenza per i Beni Archeologici di Napoli e Caserta tra il 2005 e il 2007 ha inoltre provveduto a normalizzare secondo lo standard ICCD 3.00, utilizzando l’applicazione COVO2 elaborata dal Consorzio Glossa, tutte le schede delle matrici di rame e delle relative stampe delle Antichità di Ercolano, nonché a catalogare con la relativa documentazione digitale gli acquerelli e i disegni di soggetto pompeiano, databili tra il XIX e gli inizi del XX secolo, custoditi negli Archivi Disegni di Napoli e di Pompei21. 2.2. I sistemi informativi catalografici e territoriali integrati a tecnologia web La necessità di riorganizzare e gestire in modo unitario e contestualizzato questi archivi digitali catalografici e documentari di beni archeologici, rendendoli al contempo facilmente accessibili, ha indotto a creare anche in ambito campano un ambiente applicativo integrato su base geografica a scala regionale, consultabile via Internet e potenzialmente interoperabile con sistemi informativi esterni e soprattutto con il SiGEC gestito dall’ICCD22. 21 Sui risultati del progetto ARTPAST: MIELE 2007 b; MIELE 2010. Le caratteristiche del SIGeC sono presentate in MANCINELLI 2004. Riguardo ad altri sistemi informativi per la catalogazione di beni culturali anche GUERMANDI 1999; D’AMBROSIO et alii 2003. 22 52 Per quanto riguarda l’area vesuviana, in effetti, la Soprintendenza Archeologica di Pompei aveva già realizzato sistemi informativi geografici per risolvere specifiche esigenze di gestione dei siti archeologici. Di questo tipo sono il GIS, realizzato in ArchView, Un piano per Pompei (fig. 1, c), nel quale la base topografica, vettorializzata in scala 1:1000 e indicizzata con vari layers tematici relativi all’analisi tipologica e conservativa del tessuto urbano, funge da riferimento per interrogare, attraverso la chiave dell’indirizzario, le banche dati sugli edifici pompeiani; nonché il GIS sviluppato in collaborazione con la British School at Rome e con il Packard Humanities Institute nell’ambito del Progetto The Herculaneum Conservation Project, per la catalogazione e documentazione di Ercolano. In seguito la Direzione Regionale per i Beni Culturali e Paesaggistici della Campania, insieme alle Soprintendenze, ha coordinato due progetti paralleli a livello regionale23, che hanno portato a realizzare, tra il 2000 e il 2007, sistemi informativi sia catalografici che territoriali con lo scopo di costruire una base conoscitiva complessiva utile alla gestione, tutela e valorizzazione del patrimonio culturale campano nel suo complesso. A tal fine è stato, infatti, costituito il Centro Regionale di catalogo per i Beni Culturali (www.campaniacrbc.it), finalizzato alla creazione di un sistema informativo catalografico, denominato appunto CRBC, accessibile non solo alle istituzioni statali, ma anche agli enti di ricerca e alle amministrazioni locali. Dal punto di vista tecnologico il suddetto sistema informativo di catalogo a tecnologia web (tab. I.9; fig. 3, e-g), sviluppato dal Consorzio Glossa su piattaforme DB2 e MySQL per archivi centralizzati ma anche installabile in sezioni dipartimentali, è composto come il SIGeC da vari moduli applicativi integrati. In back office operano sia il modulo normativo per il caricamento dei tracciati catalografici conformi agli standard ICCD o anche personalizzati e dei vocabolari; sia quello gestionale per l’attribuzione dei profili di utenza, la creazione di archivi separati di schede, la verifica tecnica e formale delle schede, l’archiviazione sicura dei database, l’estrazione in formato di interscambio ICCD delle schede per il trasferimento nel SIGeC o altri sistemi locali. Invece in front office agiscono sia il modello operazionale, dotato anche di funzioni di stampa, reportistica e ricerca guidata, per l’implementazione controllata e l’aggiornamento in modalità sincrona o asincrona delle schede secondo le varie tipologie di beni culturali con la relativa documentazione grafica e fotografica, e per la loro ubicazione geo-referenziata su mappe geografiche simboliche (Google Map); sia il modulo di validazione per la verifica delle schede da parte dei funzionari responsabili del catalogo presso le varie Soprintendenze; sia infine il modulo di fruizione per la consultazione delle schede rese disponibili agli studiosi anche esterni. Nel CRBC sono state dunque riversate tutte le schede storico-artistiche informatizzate tra il 2005 e il 2007 dalle Soprintendenze campane per un totale di circa 210.000 e 205.000 schede archeologiche con relativa documentazione fotografica digitale, insieme a 6000 unità catalografiche territoriali effettuate nella campagna di censimento dei centri storici e dei siti rurali condotta dalla Regione Campania. Con un’architettura simile è concepito pure il sistema informativo SIAV-Sistema Informativo per l’Archeologia Vesuviana (tab. I.10), realizzato tra il 2001 e il 2007 dalla ex Soprintendenza Archeologica di Pompei con lo scopo di integrare in un’applicazione GIS unitaria i fondi catalografici pertinenti al territorio vesuviano. In sinergia con il CRBC ma con un approccio prettamente geografico e topografico, è stato inoltre creato il Sistema Informativo Territoriale della regione Campania (SIT Campania)24 grazie a un ulteriore progetto condotto nell’ambito del Programma Operativo Nazionale 2000-06, Sicurezza per lo sviluppo del Mezzogiorno d’Italia, dalla Direzione Regionale in collaborazione con le Soprintendenze archeologiche e la ex Soprintendenza per i Beni Architettonici e Paesaggistici e per il Patrimonio Storico-Artistico ed Etno23 Per una descrizione sintetica ma esplicativa delle finalità e metodologie di intervento specifiche di tali progetti: MIELE 2007 a; mentre per una presentazione più dettagliata: MIELE 2009 b. 24 I risultati del progetto sono esposti nel volume collettaneo MIELE 2009 c. 53 antropologico di Salerno e Avellino, fruendo della consulenza tecnico-scientifica dell’Istituto per i Beni Archeologici e Monumentali del CNR (tab. I.11). Si è inteso, infatti, sviluppare un GIS su base cartografica regionale geo-referenziata, per il censimento conoscitivo, la salvaguardia e la gestione dei siti archeologici, dei monumenti architettonici, dei beni storico-artistici e paesaggistici attestati in Campania e per il controllo preventivo dei fattori di rischio dannosi per la loro conservazione, ma anche per l’elaborazione di carte tematiche utili per le valutazioni di impatto ambientale e archeologico preliminari alla realizzazione dei piani paesaggistici e delle infrastrutture pubbliche, in aderenza con le legislazioni vigenti in materia. In questo quadro di riferimento generale, sono stati altresì esaminati alcuni aspetti peculiari della Campania allo scopo di analizzare: il rischio ambientale e antropico; il fenomeno delle persistenze o interferenze insediative; il paesaggio storico; i sistemi di salvaguardia e di sviluppo turistico-culturale. Questi “modelli interpretativi” sono stati quindi applicati ad aree campione specifiche seppure estendibili in contesti territoriali simili (rispettivamente la Conca di Avellino e la valle del Calore, il Massiccio del Matese e la media valle del Volturno, la Costiera Amalfitana e i Monti Lattari, il versante occidentale del Vesuvio), selezionate in base all’analisi dei differenti contesti geomorfologici e naturalistici, dei fenomeni geofisici, delle realtà insediative e produttive. Il SIT Campania (fig. 1, d-f) è strutturato come una banca dati integrata, composta da archivi catalografici informatizzati e documentari digitali relativi alle singole entità d’interesse architettonico o paesaggistico e archeologico esistenti in Campania, vincolate ovvero note da fonti bibliografiche e di archivio, individuate attraverso ricognizioni sul terreno e posizionate in coordinate UTM mediante geo-referenziazione diretta e indiretta su basi cartografiche e topografiche multilivello in formato vettoriale e raster25, indicizzate con specifiche topologie corrispondenti ad altrettanti layers tematici. Il sistema GIS è collegato inoltre a una applicazione catalografica consultabile dagli utenti interni mediante interfacce che consentono di eseguire ricerche personalizzate, estrazioni e stampe delle oltre 4500 schede di “unità topografica” e circa 1000 di “vincolo” inserite nel sistema, ma anche di elaborare carte storicizzate o tematiche sui vari fattori di rischio evidenziati sul territorio. 3. I sistemi per la comunicazione e la fruizione di informazioni sui beni culturali Mentre l’intento intrinseco della trentennale attività di censimento e di catalogazione sopra descritta è stato principalmente conoscitivo e funzionale al potenziamento degli strumenti di tutela, in relazione invece all’aspetto della divulgazione esterna di contenuti culturali, dopo le visite elettroniche e gli ipertesti interattivi come quelli prodotti durante il progetto Neapolis riguardanti la storia degli scavi, gli aspetti storico-politici e socio-economici, la vita quotidiana e la cultura artistica di Pompei, sin dalla seconda metà degli anni Novanta del secolo scorso si ritenne opportuno creare sia in ambito nazionale26 che campano27 vari siti web culturali dapprima progettati in linguaggio HTML (fig. 2, a). La più recente iniziativa in tal senso è stata la realizzazione tra il 2005 e il 2007, nell’ambito dei progetti nazionali MICHAEL. Multilingual Inventory of Cultural Heritage in Europe (www.michael-culture.it), ArcheoAtlante e Archeologia on line, del Circuito Informativo Regionale per la valorizzazione dei beni culturali della Campania (CIR Campania; www.campaniabeniculturali.it), contraddistinto da un respiro metodologico e tec25 Carta tecnica regionale in scala 1:5000, mappe IGM 1:100000, 1:50000 e 1:25000, ortofoto digitali in scala 1:10000. 26 Riguardo agli aspetti della comunicazione di informazioni culturali in rete: GUERMANDI 1999, GUERMANDI 2003; GUERMANDI 2004. 27 Sulle attività per la fruizione di contenuti culturali svolte in Campania: DE CARO et alii 1999; MIELE-DE GEMMIS 2001; MIELE 2001-2002; MANGO FURNARI-DI NAPOLI 2003. 54 nico più ampio rispetto ai normali siti o portali tematici presenti in rete28. Esso si pone in continuità con due precedenti progetti di ricerca tecnologica applicata al settore umanistico: ReMuNa. Rete dei Musei di Napoli (www.remuna.org), svolto tra il 2001 e il 200529, e Castello Svelato, condotto nel 200630 dall’Archivio di Stato e dalle Soprintendenze di Napoli con il coordinamento della Direzione Regionale e il supporto dell’Istituto di Cibernetica (IC) del CNR di Napoli (fig. 2, c-d). Il CIR Campania è costituito da una rete di nodi web di musei e di complessi monumentali appartenenti agli istituti e alle Soprintendenze presenti in Campania, caratterizzati da aspetti grafici e formali omogenei e conformi alle norme di legge vigenti sia in materia di sicurezza e accessibilità, sia rispetto ai vincoli di privacy e copyright, oltre che alle linee guida Musei & Web formulate nel progetto Minerva31 (www.minerva.org). Tale sistema informativo comprende, infatti, varie “componenti” applicative (gestionale, documentale, cartografico, di fototeca, di reportistica), che permettono di garantire sia la gestione fisica e logica, sia la produzione e archiviazione sicura dei “documenti digitali” in banche dati distinte e autonome tra loro, sia la correlazione interna o trasversale di risorse documentali di origine, struttura, formato e contenuto diversificati, sotto forma di testi descrittivi, schede, immagini statiche e in movimento, rilievi grafici, piani e volumetrici. Ciascuna di queste entità è stata definita dal punto di vista tecnico con la nozione ricorsiva di “documenti digitali”, intesi come unità minima di descrizione o rappresentazione virtuale del “bene culturale”, a loro volta connotati da “metadati gestionali, descrittivi e strutturali”, infine elaborati così da renderli interrogabili e consultabili in modo unitario all’utenza esterna attraverso le interfacce web. Un’apposita applicazione, accessibile in modalità privata, viene invece utilizzata per l’implementazione, la verifica e la modifica on line dei testi informativi e delle schede, per un totale di oltre 3000 unità (tab. I.12), fornite delle relative immagini digitali e di richiami a elenchi bibliografici, glosse e vocabolari di sussidio. Le schede possono essere altresì aggregate o collegate tra loro in base a nessi di appartenenza topografica o gerarchica, ovvero di attinenza logica o tematica, in modo da presentarle agli utenti, in forma breve o completa, secondo diverse forme di visualizzazione all’interno di “percorsi di visita” per collezioni espositive, sale museali, serie di immagini di oggetti e in modalità “immersiva”, cartografica o topografica -, nonché all’interno di “itinerari tematici” trasversali di approfondimento, sia settoriali, cioè all’interno di ciascun museo o sito culturale, sia intersettoriali, cioè attraverso alcuni o tutti i nodi web inseriti nel CIR Campania. Alcuni dei percorsi tematici possono essere anche proposti al pubblico mediante un’installazione di “teatro virtuale”, collocata nella Sala del Plastico di Pompei del Museo Archeologico Nazionale, sotto forma di presentazioni multimediali32 introduttive alla visita delle collezioni museali riguardanti le città vesuviane, così da ricostruire idealmente il legame fisico perduto degli oggetti esposti con i contesti originari di provenienza. Attraverso il medesimo apparato si possono visualizzare pure modelli volumetrici navigabili di monumenti archeologici e architettonici33, come quello dell’anfiteatro romano di Capua34, costruito per il citato progetto ArcheoAtlante a partire da una base vettoriale geometrica tridimensionale, utilizzando appositi strumenti applicativi. Quest’ultimo modello 3D in formato video può anche essere collegato alla ricostruzione della via publica Appia35, nel suo tratto campano da Sinuessa sino a Beneventum, 28 Sul CIR Campania: ACAMPA et alii 2007; MIELE-NAVA 2007; NAPPI 2007; MANGO FURNARI-NOVIELLO 2009. Cfr. anche il contributo di M. Mango Furnari et alii in questa stessa sede. 29 Il progetto ReMuNa è descritto in MIELE 2005. 30 Sul progetto Castello Svelato: MANGO FURNARI 2006; MIELE 2006. 31 FILIPPI 20052; NATALE-SACCOCCIO 2010. 32 Su tali applicazioni multimediali: PROTO 2009. 33 Modelli in 3D della Villa Regina di Boscoreale e della Casa del Centenario di Pompei sono descritti rispettivamente in JANNELLI-STEFANI 2009 e SCAGLIARINI CORLAITA 2003. 34 Riguardo al modello tridimensionale dell’anfiteatro di Capua: DI ROBERTO-ESPOSITO 2009. 35 In merito all’applicazione realizzata per la descrizione della via Appia si veda ESPOSITO 2009 e il contributo di R. Esposito e F. Proto in questa stessa sede. 55 con le sue diramazioni stradali: la via per Suessa e Teanum Sidicinum a N, e la via Campana a S, da Capua verso Puteoli e Neapolis, nonché la via Traiana che da Beneventum proseguiva sino a Brundisium in Puglia. Per descriverne e rappresentarne il percorso sono stati prodotti testi informativi correlati al tracciato dell’Appia antica, delineato sulla cartografia vettoriale regionale, sia nei punti tuttora esistenti in situ, sia in quelli individuati mediante ricognizioni o scavi archeologici, sia in quelli ridefiniti sulla base di analisi territoriali o interpretazioni di foto aeree. Lungo esso sono state, infine, ubicate topograficamente ed evidenziate simbolicamente le testimonianze monumentali superstiti descritte con didascalie e rinvianti a schede estese, richiamate automaticamente dagli archivi documentali inseriti nel CIR Campania e visualizzabili mediante un’interfaccia cartografica navigabile inserita in un nodo web tematico (http://appiantica.campaniabeniculturali.it). 4. Conclusioni Dalla descrizione delle varie iniziative progettuali sinora condotte dagli istituti ministeriali in Campania, emerge dunque un percorso evolutivo, nel quale sono stati sperimentati e utilizzati a regime vari tipi di sistemi e applicazioni che, pur rimanendo sostanzialmente immutati dal punto di vista della concezione tecnologica, hanno comunque svolto una loro utilità in rapporto all’epoca e allo scopo per cui erano stati realizzati (tab. I). Questo sviluppo applicativo si è basato sul fondamento teorico e sul nucleo tecnologico costante della progettazione di archivi di dati e poi di documenti, lasciando tuttavia ancora irrisolto, il problema della ricostruzione completa del “ciclo di vita” del bene culturale, che sarà possibile ottenere solo attraverso l’incremento dell’interoperabilità e integrazione dei sistemi, delle risorse e degli attori coinvolti nei rapporti di cooperazione. Tutte queste attività operative hanno avuto in realtà come obiettivo il tentativo, talora riuscito, di attuare un processo virtuoso nel quale, a partire dalla acquisizione e dalla produzione di informazioni all’interno del mondo degli addetti ai lavori, grazie tanto agli strumenti tradizionali della ricerca storica e archeologica, quanto a quelli forniti dalle tecnologie innovative, divenga possibile applicare le conoscenze costruite nel tempo alle esigenze concrete della tutela e della conservazione sia materiale dei beni culturali, sia concettuale della “memoria storica” di cui essi sono testimoni, per poi divulgarla e trasmetterla alle generazioni future. 56 Abbreviazioni bibliografiche ACAMPA et alii 2007 P. Acampa - M. Mango Furnari - C. Noviello, Octapy 3: un CMS distribuito e cooperativo orientato al Web semantico, in Proceedings of Internet Imaging VII Conference, 2007, 1-16. AIELLO et alii 2007 A. Aiello - M. Mango Furnari - F. Proto, An ontological interpretation of the ICCD recommendations, in MOSCATI 2007 a, 181-208. ALBANO et alii 2008 A. Albano - A. Lanzaro - M. L. Pecoraro, Legislazione internazionale e comunitaria dei beni culturali, Napoli 2008. ALIBRANDI-FERRI 2004 T. Alibrandi - P.G. Ferri, La legislazione dei beni culturali e ambientali, Napoli 2004. AMALFITANO et alii 1990 I Campi Flegrei. Un itinerario archeologico, P. Amalfitano, G. Camodeca, M. Medri (edd.), Venezia 1990. ANTINUCCI 2007 F. Antinucci, The Virtual Museum, in MOSCATI 2007 a, 79-86. BARBATI et alii 2006 C. Barbati - M. Cammelli - G. Sciullo, Il diritto dei beni culturali, Bologna 2006. BERNER LEE 1999 T. Berner Lee, WWW: Past, Present and Future, in IEEE Computer, 29, 1999. CAMMELLI 2007 M. Cammelli, Il codice dei beni culturali e del paesaggio, Bologna 2007. Castello Svelato 2006 Il Castello Svelato, Catalogo della Mostra, Napoli 2006. CASTIGLIONE MORELLI 1993 V. Castiglione Morelli, Il Giornale dei Soprastanti di Pompei e le Notizie degli Scavi, in Ercolano 17381988. 250 anni di ricerca archeologica, Atti del Convegno Internazionale, L. Franchi dell’Orto (ed.), Ravello, Ercolano, Pompei, Napoli 1988, Roma 1993, 659-666. CHIURAZZI et alii 1990 F. Chiurazzi - A. Gianni - F. Miele - F. Ruffo, Informatica e divulgazione dei beni culturali: l’esperienza del progetto Neapolis, in Rediscovering Pompeii, L. Franchi dell’Orto (ed.), Catalogo della Mostra, Roma 1990, 120-127. COPPOLA-SPENA 2008 A. Coppola - M. C. Spena, La legislazione sui beni culturali e del paesaggio, Napoli 2008. DALLAS 2007 C. Dallas, Archaeological knowledge. Virtual exhibition and the social construction of meaning, in MOSCATI 2007 a, 31-63. D’AMBROSIO et alii 2003 I. D’Ambrosio - A. Drummer - P. Pascucci - F. Rusca, La catalogazione promossa dalla regione Lazio nei musei archeologici: dalle schede di carta alla banca dati condivisa, in ACalc, 14, 2003, 33-71. D’ANDREA 2006 A. D’Andrea, Documentazione archeologica, standard e trattamento informatico, Budapest 2006. D’ANDRIA 1987 Informatica e archeologia classica, Atti del Convegno Internazionale, F. D’Andria (ed.), Lecce 1986, Galatina 1987. D’ANDRIA 1997 Metodologie di catalogazione dei beni archeologici, F. D’Andria (ed.), Bari 1997. DE CARO 2001 S. De Caro, Metodi e modelli “seriali” applicati alla catalogazione informatizzata del patrimonio archeologico - Progetto S.I.V.A. (Sistema di Video Archiviazione Automatizzata), in Rapporti 1: Analisi e proposta di un sistema per la catalogazione in Italia, Atti del primo seminario nazionale sulla catalogazione, Roma 2001, 282-290. DE CARO et alii 1999 S. De Caro - M. De Gemmis - F. Miele, Tre domande su I musei d’Italia nel Web: 18 esperti rispondono, in Multimedialità e Beni Culturali, Napoli 1999, 141146. DE SIMONE-VARONE 1988 Pompei: l’informatica al servizio di una città antica, A. De Simone, A. Varone (edd.), Roma 1988. DI ROBERTO-ESPOSITO 2009 M. V. Di Roberto - A. Esposito, Dai sistemi informativi territoriali e catalografici ai modelli cooperativi e virtuali: la contestualizzazione delle conoscenze sui beni culturali, in Vesuviana 2009, 119-126. ECO 2007 U. Eco, Dall’albero al labirinto. Studi storici sul segno e l’interpretazione, Milano 2007. ESCHEBACH 1993 L. Eschebach, Gebäudeverzeichnis und Stadtplan der antiken Stadt Pompeji, Köln-Weimar-Wien 1993. ESPOSITO 2009 R. Esposito, Applicazioni informatiche per la fruizione diffusa dei siti e dei musei archeologici della 57 Campania. I progetti ArcheoAtlante e Archeologia on line, in Vesuviana 2009, 137-142. FERRARIS 2003 M. Ferraris, Ontologia, Napoli 2003. FILIPPI 20052 Manuale per la qualità dei siti Web pubblici culturali, F. Filippi (ed.), Roma, Ministero per i Beni e le Attività Culturali, Progetto MINERVA 20052. FORTE 2002 a M. Forte, Introduzione ai Sistemi Informativi Geografici, Roma 2002. FORTE 2002 b M. Forte, I Sistemi Informativi Geografici in archeologia, Roma 2002. FORTE 2007 M. Forte, The Virtual Museum of landscape, in MOSCATI 2007 a, 87-99. FORTE-BELTRAMI 2000 M. Forte - R. Beltrami, A proposito di Virtual Archaeology: disordini, interazioni cognitive e virtualità, in ACalc, 11, 2000, 273-300. FURNARI 1994 Neapolis. La valorizzazione dei beni culturali e ambientali, E. Furnari (ed.), I-III, Roma 1994. GALLISON 2004 P. Gallison, Gli orologi di Einstein, le mappe di Poincaré, Milano 2004. GUERMANDI 1999 M. P. Guermandi, Dalla base di dati alla rete: l’evoluzione del trattamento dei dati archeologici, in ACalc, 10, 1999, 89-99. GUERMANDI 2003 M. P. Guermandi, Internet e multimedialità, in ACalc, 14, 2003, 336-339. GUERMANDI 2004 M. P. Guermandi, Nuovi linguaggi e vecchie tecnologie: comunicare la conoscenza archeologica attraverso la rete, in ACalc, 15, 2004, 483-496. JANNELLI-STEFANI 2009 L. Jannelli - G. Stefani, Ricostruzione virtuale della Villa Regina a Boscoreale, in Vesuviana 2009, 143149. MANCINELLI 2004 M. L. Mancinelli, Sistema Informativo generale del Catalogo: nuovi strumenti per la gestione integrata della conoscenza sui beni culturali, in ACalc, 15, 2004, 115-128. MANGO FURNARI 2006 M. Mango Furnari, Da ReMuNa a napolibeniculturali.it, in Castello Svelato 2006, 24-26. 58 MANGO FURNARI-DI NAPOLI 2003 M. Mango Furnari - C. Di Napoli, Distributed multimedia information systems for the World Wide Web. A case study for cultural heritage, tourism and publishing, Napoli 2003. MANGO FURNARI-NOVIELLO 2006 M. Mango Furnari - C. Noviello, The Integration of Cartographic Information into a Content Management System, Proceeding of Internet Imaging VII San Jose Convention Center in San Jose, California U.S.A, 2006, 178-187. MANGO FURNARI-NOVIELLO 2009 M. Mango Furnari - C. Noviello, I beni culturali e le tecnologie dei sistemi cooperativi: il CMS Octapy nel C.I.R. Campania, in Vesuviana 2009, 105-117. MIELE 2001-02 F. Miele, Progetto di riedizione in formato digitale della Pompeianarum Antiquitatum Historia, in RStPomp, 12-13, 2001-02, 269-271. MIELE 2002-03 F. Miele, Riflessioni sul sistema di tutela e di gestione dei beni culturali in Italia, in Quaderni Meridionali, 2002-03, 87-115. MIELE 2005 F. Miele, Il Progetto ReMuNa - Rete dei Musei di Napoli, Rete virtuale dei Musei Napoletani, in Scrinia, 2, 2005, 121-172. MIELE 2006 F. Miele, Erede del sito web www.remuna.org, in Castello Svelato 2006, 11. MIELE 2007 a F. Miele, Progetti integrati per i Sistemi Informativi di Catalogo e Territoriali, in Rapporto 3. Osservazione, studio e analisi dei processi di catalogazione: verso un Osservatorio per lo Stato e le Regioni, A. F. Leon, E. Plances (edd.), Roma 2007, 48-56. MIELE 2007 b F. Miele, Il Progetto ARTPAST. Evoluzione delle tecniche di rilievo e documentazione dei monumenti, pitture, mosaici, oggetti e antichità ercolanesi e pompeiani: dalle stampe e dai disegni alle tecnologie digitali, in Atti del X Convegno Internazionale dell’Association Internationale pour la Peinture Murale Antique, I. Bragantini (ed.), Napoli 2007, Venezia 2007, 871-877. MIELE 2009 a F. Miele, Conoscenza e fruizione dei beni archeologici e culturali: siti web istituzionali ed applicazioni virtuali nel C.I.R. Cultura Campania, in Vesuviana 2009, 85-104. MIELE 2009 b F. Miele, Le attività della Soprintendenza per i Beni Archeologici di Napoli e Caserta nel 2007, in Rapporto 4. Osservatorio partecipato: le articolazioni del Catalogo nazionale, A.F. Leon, E. Plances (edd.), Roma 2009, 63-68. MIELE 2009 c Il Sistema Informativo Geografico Territoriale della Campania. I risultati del Progetto, F. Miele (ed.), Catanzaro 2009. MIELE 2010 F. Miele, Notazioni per una storia della documentazione dei mosaici pompeiani nel Museo Archeologico Nazionale di Napoli: dalle Antichità Ercolanesi e dal fondo storico dei disegni pompeiani alle tecnologie informatiche e digitali, in Atti del XVI Colloquio Internazionale dell’Associazione Italiana per lo studio e la conservazione del mosaico, Palermo 2010, Tivoli 2010, 87-99. MIELE 2012 F. Miele, La conservazione della memoria digitale materiale e immateriale. Sistemi informativi di catalogo e territoriali in Campania, ACalc, 22, 2012, 734. MIELE-DE GEMMIS 2001 F. Miele - M. De Gemmis, Pompei e il Museo Archeologico Nazionale di Napoli. Progetto Esprit n. 22251 “VHF”, in Pompei. Scienza e società. 250° Anniversario degli Scavi di Pompei, Atti del Convegno Internazionale, P. G. Guzzo (ed.), Napoli 1998, Milano 2001, 275- 276. MIELE et alii 1988 F. Miele - E. De Lellis - M. S. Pisapia, Elaborazioni informatiche dei dati di ricognizione, in DE SIMONE-VARONE 1988, 51-71. MIELE-NAVA 2007 F. Miele - M. L. Nava, Le attività condotte nel 2006 dalla Soprintendenza per i Beni Archeologici di Napoli e Caserta, in MiBAC. Ripensare i processi per migliorare i servizi, Forum 18a Mostra - Convegno dei servizi ai cittadini e alle imprese, Roma 2007, 4648. MOSCATI 1998 Methodological Trends and Future Perspectives in the Application of GIS in Archaeology, P. Moscati (ed.), in ACalc, 9, 1998, 9-270. MOSCATI 2003 P. Moscati, Dal mondo della statistica applicata, in ACalc, 14, 2003, 340-344. MOSCATI 2007 a Virtual Museums and Archaeology. The Contibution of the Italian National Research Council, P. Moscati (ed.), in ACalc, suppl. 1, 2007. MOSCATI 2007 b P. Moscati, Virtuality and museums, some suggestions from the Italian National Research Council, in MOSCATI 2007 a, 65-77. MOSCATI 2009 La nascita dell’informatica archeologica, Atti del Convegno Internazionale, P. Moscati (ed.), Roma 2008, in ACalc, 20, 2009. MUSGRAVE 2005 A. Musgrave, Senso comune, scienza e scetticismo, Milano 2005. NAPPI 2007 M. R. Nappi, Aggiornamenti sulle comunicazioni del Ministero per i Beni e le Attività Culturali in Campania, in Atti del X Salone Europeo della comunicazione pubblica dei servizi al cittadino e alle imprese, Bologna 2007, Roma 2007, 60-61. NATALE-SACCOCCIO 2010 M.T. Natale - R. Saccoccio, Museo and Web: un kit pratico per le istituzioni culturali che vogliono realizzare un sito Web di qualità, in ACalc, 21, 2010, 2747. NICOLUCCI 2007 F. Nicolucci, Virtual Museum and archaeology: an international perspective, in MOSCATI 2007 a, 1330. ORLANDI 1999 T. Orlandi, Multimedialità e archeologia, in ACalc, 10, 1999, 145-147. PIEROBON et alii 2005 R. Pierobon - F. Proto - A. Aiello - S. Brandi - M. Mango Furnari, Concettualizzazione e contestualizzazione dei beni culturali archeologici, in ACalc, 16, 2005, 321-339. PROTO 2009 F. Proto, Modelli di conoscenza contestualizzata e prototipi di classificazione ontologica dei beni culturali, in Vesuviana 2009, 127-135. SCAGLIARINI CORLAITA 2003 D. Scagliarini Corlaita, Archeologia virtuale e supporti informatici nella ricostruzione di una domus di Pompei, in ACalc, 14, 2003, 237-274. SIGNORE 2005 O. Signore, La gestione della conoscenza in archeologia: modelli, linguaggi e strumenti di modellazione concettuale dall’XML al semantic Web, in ACalc, 15, 2005, 291-319. VAN DER POEL 1983 B. Van der Poel, Corpus Topographicum Pompeianum, Toponimy, Roma 1983. Vesuviana 2009 Vesuviana. Archeologie a confronto, Atti del Convegno Internazionale, A. Coralini (ed.), Bologna 2008, Bologna 2009. Riferimenti iconografici Archivi della Soprintendenza Speciale per i Beni Archeologici di Napoli e Pompei: fig. 3, b-d. 59 CHIURAZZI et alii 1990: fig. 2, a-b. DE CARO 2001: fig. 3, a. FURNARI 1994: fig. 1, a-b. http://appiantica.campaniabeniculturali.it: fig. 2, e-f. MIELE 2009 b: fig. 1, c-f. www.campaniabeniculturali.it: fig. 2, c-d. www.campaniacrbc.it: fig. 3, e-g. Floriana Miele Soprintendenza Speciale per i Beni Archeologici di Napoli e Pompei. [email protected] 60 Renata Esposito Fiona Proto Modelli di conoscenza contestualizzata e prototipi di classificazione ontologica dei beni culturali L’esperienza del C.I.R. Cultura Campania Abstract The Italian cultural heritage asset is experiencing an increasing interest from a wider public, especially from non specialized users. To cope with this emergent scenario web sites had an exponential grow. Unfortunately didn’t happen the same for information quality, because many different and heterogeneous information sources are currently active on Internet with imprecise and vague cultural heritage information. Since the Italian Cultural Heritage Ministry is the main authority on cultural heritage, it seems to us urgent for it to efficiently implement dissemination policy on top of its offices network (soprintendenze and istituti). On doing so it would be possible to significantly improve information knowledge about the Italian landscape, historic monumental, and cultural assets. The distributed document system designed and built (Circuito Informativo Regionale della Campania - C.I.R.) is a net of autonomous systems at regional level that empower each soprintendenza and/or istituto to independently manage their own contents and to also implement their own public offering policy. At same time the participation to a collaborating community solicit the deployment of a unified cultural heritage knowledge offering. The main policy adopted on achieve this offering is to make explicit the associated cultural context for each offered goods. On doing so each cultural heritage good is presented and hopefully perceived together its web relationships with respect to its environmental pertinence. In other words, to contextualize a cultural heritage goods means to suggest a way to reconstruct the existent relationships with the others exhibits and the origin sites. In order to achieve a vide public acceptance of cultural heritage knowledge we are conscious that it is not sufficient to propose a list of goods managed by a museum, but it is necessary to enrich this knowledge with contextual ones in a structured way. In the talk our motivation for each step on designing the structure and the content of C.I:R: are motivated and illustrated together the necessary process activated among the cultural heritage householders 1. Introduzione I beni archeologici vengono spesso percepiti come un valore a sé stante e non come componenti di un insieme integrato di valori, che invece è custodito dal territorio di pertinenza per i suoi contenuti storico-culturali. Tale fenomeno può accadere, da un lato, perché la stratificazione storica e la trasformazione dei luoghi hanno reso meno leggibile il legame che intercorre tra il bene antico e le moderne aree urbane o extraurbane in cui è stato individuato; dall’altro, perché il grado d’integrità delle evidenze archeologiche può interferire sul successivo stato di conservazione e ostacolare la piena comprensione della loro funzione originaria. Pertanto, l’azione di ricostruzione dei contesti relativi a un modesto insediamento o a una ricca necropoli o a singoli reperti di notevole rilevanza, necessita di interventi 61 comunicativi differenti. In particolare, il patrimonio archeologico mobile trova di solito nelle strutture museali il luogo più idoneo per garantirne la conservazione e la conoscenza a ogni livello di fruizione. Ma spesso, per analoghe esigenze di tutela, anche i beni definiti “immobili per destinazione”, in quanto strettamente connessi alle strutture edilizie cui aderiscono, possono essere asportati, a dispetto della loro natura, dal luogo di ritrovamento per essere custoditi in un museo, provocandone così la decontestualizzazione e, nel contempo, lo smembramento del complesso archeologico da cui provengono; ciò accade, ad esempio, con gli affreschi, i mosaici e gli elementi architettonici. Nel caso in cui aree archeologiche vengono “musealizzate”, si tende quasi sempre a creare un percorso di visita che segua quello antico, oppure qualora non fosse possibile, per rendere comprensibili siti e complessi monumentali, si sopperisce con pannelli didattici in cui vengono illustrate le fasi di trasformazione nel corso del tempo, eventualmente anche suggerendone delle ricostruzioni ipotetiche. Non sempre, tuttavia, vengono indicati i reperti provenienti da quella determinata area, che sono esposti o custoditi nei musei, cosicché spesso si perde la visione d’insieme della funzione originaria. All’interno del museo, invece, attraverso appositi itinerari espositivi, didascalie e pannelli esplicativi si cerca di ricostruire e illustrare il contesto di provenienza dei reperti. Spesso neanche questi strumenti risultano sufficienti a tracciare un quadro unitario del complesso archeologico di appartenenza, senza contare che talora oggetti pertinenti a un singolo contesto, per ragioni diverse, possono trovarsi custoditi in più strutture museali distribuite sul territorio o addirittura in paesi esteri. Oggigiorno il riscontro evidente di una richiesta d’informazioni sempre più articolata sul nostro patrimonio culturale, anche da parte del pubblico non specialistico induce a sviluppare modalità e percorsi fruitivi in cui l’offerta di servizi nell’ambito della promozione dei beni culturali non si limiti alla creazione di nuovi itinerari tematici di visita, ma affronti il nodo problematico della contestualizzazione. Attraverso quest’ultima, infatti, è possibile acquisire una conoscenza più approfondita e meditata della realtà antica, da una parte, rendendo intelligibili i siti archeologici, dall’altra, rivitalizzando le strutture museali grazie a una migliore cognizione delle collezioni in esse contenute, anche al fine di ovviare alla tendenza, sempre più diffusa, di considerare i musei come contenitori indifferenziati il cui carattere deve essere, di volta in volta, ridisegnato attraverso l’allestimento di mostre temporanee. 2. I progetti Archeologia online e ArcheoAtlante Nell’ambito dei progetti Archeologia online e ArcheoAtlante1, promossi dal Ministero per i Beni e le Attività Culturali, si è realizzato un circuito di cooperazione per la valorizzazione e la fruizione dei beni culturali della Campania, nel quale la contestualizzazione è stata lo strumento cardine attraverso cui si è tentato di ricostruire il legame esistente, non solo tra gli oggetti esposti nei musei e i rispettivi luoghi di provenienza, ma anche tra le evidenze archeologiche e il territorio su cui insistono. Per quanto riguarda il progetto Archeologia on line, la ricontestualizzazione di reperti musealizzati è stata sperimentata nel Museo Archeologico Nazionale di Napoli2 (anche in considerazione dell’ampio ambito territoriale che esso può coprire), collegando le sue collezioni con l’area archeologica vesuviana e in particolare con l’antica città di Pompei. Rispetto a quest’ultima l’attenzione si è focalizzata, da un lato, su una tematica strettamente legata al sito, ovvero la ricostruzione di tutte le fasi di scavo dal primo colpo di piccone del 1748 fino ai giorni nostri, dall’altro, sulla sua rappresentazione all’interno del museo tramite il plastico ideato da G. Fiorelli. 1 2 62 MIELE 2009. PROTO 2009. La scelta dei siti vesuviani trae origine dalla constatazione di come, nonostante tanti filoni d’indagine s’impernino sui centri colpiti dall’eruzione del 79 d.C., l’analisi dei manufatti esposti nel museo archeologico partenopeo, coniugata con l’investigazione delle strutture edilizie di provenienza, sia un tipo di studio affrontato ancora in un ambito prevalentemente specialistico, sebbene rappresenti uno degli indirizzi di ricerca verso il quale, sempre più di frequente, sembrano volgersi gli sforzi degli studiosi, attraverso scritti, mostre, convegni, ecc. In tale prospettiva l’uso del supporto informatico è apparso imprescindibile per azzerare la distanza esistente tra musei e siti archeologici, consentendo a entrambe queste realtà di arricchirsi reciprocamente senza perdere il loro carattere specifico. Utilizzando il sistema Octapy3 è stato, quindi, possibile realizzare il reinserimento dei reperti archeologici negli edifici di provenienza tramite una contestualizzazione tridimensionale; infatti, la documentazione manoscritta, bibliografica, grafica e fotografica, diversamente archiviata all’interno della Soprintendenza, può essere messa in rapporto, tramite la creazione di un “oggetto digitale” ad hoc, con i testi approntati per descrivere i reperti e i monumenti, al fine di ricostruire il “ciclo di vita” dei complessi architettonici oggetto di indagine (fig. 1). Nel circuito sono state realizzate schede tecniche descrittive così da ricoprire le diverse tipologie di beni esposti nei vari musei o siti esistenti in ambito regionale. Nello strutturare le schede si è optato per una terminologia che, pur essendo rivolta a un pubblico di non addetti ai lavori, tenesse presente gli standard catalografici stabiliti dall’ICCD4. 3 4 1. Il sistema Octapy. MANGO FURNARI-NOVIELLO 2009 (con bibliografia di riferimento). La documentazione di riferimento sugli standard ICCD è disponibile sul sito: www.iccd.beniculturali.it. 63 Nelle schede RA immesse in rete, per esempio, le informazioni sono state riportate all’interno del campo “Reperimento”, con cui sono state tradotte in una formulazione facilmente accessibile i dati veicolati nei tracciati ICCD dai paragrafi LA (“Altre localizzazioni geografico-amministrative”) e RE (“Modalità di reperimento”). In quest’ottica, ad esempio, è stato definito un unico campo “Descrizione” che racchiude al suo interno le informazioni che, nel tracciato RA (“Reperto archeologico”), sono trasmesse attraverso i campi DESO (“Indicazioni sull’oggetto”) e DESS (“Indicazioni sul soggetto”). La funzionalità resa disponibile dal sistema Octapy di poter organizzare conoscenze relative ai beni culturali provenienti da fonti eterogenee, la cui cifra di fondo è, infatti, il concetto di “oggetto digitale distribuito”, che consente di richiamare e mettere in relazione contenuti testuali, grafici, fotografici o altri oggetti digitali che vivono in archivi separati e che, quindi, possono essere all’occorrenza diversamente aggregati. Il sistema permette di aggregare contenuti sulla scorta di diversi criteri così da riprodurre non solo l’assetto museale fruibile con una visita effettiva, ma di arricchirne il significato culturale grazie alla possibilità di creare percorsi tematici trasversali tra i diversi nodi culturali, utilizzando anche basi cartografiche georeferenziate fruibili attraverso siti web e ricostruzioni 3D. Tale struttura consente di superare l’ottica in cui i diversi i beni sono percepiti e presentati come valori a sé stanti, mostrandoli come componenti di un insieme integrato, che s’incardina, profondamente, con i contenuti storico-culturali del territorio di pertinenza. Viene in questo modo affrontato il punto nodale della contestualizzazione vista come lo strumento attraverso cui è possibile ricostruire il legame esistente, non solo tra gli oggetti esposti nei musei e i rispettivi luoghi di provenienza, ma anche tra le evidenze archeologiche e il territorio su cui insistono. Tutto ciò ha trovato applicazione concreta nel progetto ArcheoAtlante, progetto che si incardina su una carta tecnica regionale in scala 1:5.000 in formato vettoriale, concependola, da un lato, come uno strumento esemplificativo per la correlazione delle testimonianze archeologiche documentate sul territorio, dall’altro, come un supporto tecnologico per l’aggregazione e la condivisione delle informazioni derivanti da fonti eterogenee, come cartografie, immagini e documenti testuali. Le applicazioni che sono state prodotte, fondate sulla nozione di “documento cartografico”, si rendono, infatti, non solo necessarie per gestire adeguatamente basi documentali indipendenti e consentire la cooperazione tra enti competenti autonomi e attivi nello stesso territorio, ma anche utili per integrarle in un sistema unitario di fruizione e di ricerca. Nell’ambito del progetto ArcheoAtlante ci si è occupati specificamente della ricostruzione dell’antico percorso della Via consularis Appia, nel tratto campano che collegava le città di Sinuessa e Beneventum, passando per Calatia e Capua, con le sue diramazioni, la Via Domitiana e la Via Puteolis-Capuam, che da essa si dipartivano fino a raggiungere l’area flegrea. Lo studio della viabilità antica è stato preceduto da un lavoro di ricerca bibliografica e archivistica, che ha permesso, tramite documentazioni di scavo, foto aeree e ricostruzioni ipotetiche, di ridefinire i tracciati originari, visualizzandoli anche via web, mediante l’uso di supporti informatici per il trattamento di documenti cartografici vettoriali e georiferiti5. Per quanto riguarda la Via Appia e le relative strade secondarie, sono stati differenziati con vari livelli cartografici (layers) il percorso antico ancora conservato e individuato tramite indagini archeologiche, quello ipotizzato in base alle ricerche bibliografiche e archivistiche, quello ricostruibile sulla base di foto aeree, e infine il tracciato dell’omonima strada statale moderna. Inoltre, lungo di essi sono stati posizionati i siti principali, i monumenti e i miliari, a loro volta distinguendo tra quelli in positura testimoniata, ricostruita o ipotizzata, in modo da renderli selezionabili e interrogabili singolarmente, trami5 64 ESPOSITO 2009. te l’interfaccia cartografica regionale, e visibili mediante un’icona esplicativa, collegata a una scheda descrittiva. Quest’ultima è composta di una parte testuale, contenente la descrizione analitica del bene d’interesse, illustrato da una o più immagini associate. Le schede sono gestite dal sistema Octapy, che consente la condivisione e la cooperazione dei sotto-sistemi di gestione dei dati all’interno del circuito informativo e rende fruibili le informazioni all’esterno mediante interfacce grafiche dei nodi web delle aree archeologiche aperte al pubblico. Il sistema cartografico in tal modo realizzato permette di creare percorsi di navigazione liberi, interrogando la base cartografica messa a disposizione, sulla quale ogni bene è indicato con la propria descrizione e rappresentazione illustrativa. Se, per esempio, si seleziona al suo interno l’area flegrea per conoscere quali siano le testimonianze attestate in quella parte del territorio, il sistema mostrerà con livelli distinti, siti, monumenti e reperti, consentendo di accedere, per esempio, alla scheda generale dell’antica Cuma. Si possono consultare, inoltre, informazioni di dettaglio sui complessi architettonici presenti nella città, come il Capitolium, e quindi visualizzare la relativa scheda descrittiva e quelle specifiche degli oggetti ivi rinvenuti, come, ad esempio, la testa colossale di Giove (fig. 2), custodita al Museo Archeologico Nazionale di Napoli, o il fregio dorico con raffigurazioni di centauromachia, proveniente dagli scarichi del monumento ed esposti nel nuovo allestimento del Museo dei Campi Flegrei a Baia6. Le schede vengono richiamate direttamente dal nodo culturale del sito web del museo, potendo anche vedere la collocazione all’interno della struttura. L’aspetto più interessante del sistema è, dunque, quello di mettere in condivisione, tramite il documento cartografico, reperti provenienti da un unico edificio, ma conservati in strutture museali diverse. Analogamente nel caso dell’anfiteatro dell’antica Capua, situato nell’attuale Santa Maria Capua Vetere, dall’interrogazione della mappa archeologica si può risalire alla scheda descrittiva del monumento e dei reperti da esso provenienti, come, ad esempio, quella dei plutei esposti nell’adiacente Museo dei Gladiatori, ma anche quella di una statua di Venere, conservata al Museo Archeologico Nazionale di Napoli. Il “sistema documentale cooperativo” che sta alla base del progetto permette anche di operare il processo inverso, cioè dal sito web della struttura museale ricontestualizzare sul territorio i beni in essa conservati, in modo che sia sempre evidente il legame tra luogo di ritrovamento e luogo di esposizione di un oggetto (fig. 3). L’uso del “documento cartografico” come strumento di condivisione dei dati7, avendo enormi potenzialità nella distinzione e aggregazione delle informazioni, apre dunque la strada a nuove forme di integrazione e gestione dei contenuti culturali, che possono essere organizzati su più livelli e con diversi gradi di fruizione e accessibilità in rapporto al profilo dell’utente, dal visitatore medio all’esperto specialista del settore, soddisfacendone le specifiche esigenze di conoscenza. 3. La ricontestualizzazione dei reperti vesuviani conservati presso il MANN La valorizzazione del nostro patrimonio culturale, tema divenuto assolutamente centrale in questi ultimi anni, induce a sviluppare modalità e percorsi fruitivi che permettano a fasce sempre più ampie di pubblico di accostarsi ai nostri beni culturali comprendendone il valore e l’unicità. Sicuramente, considerata l’impossibilità nella quasi totalità dei casi di conservare in situ gli oggetti rinvenuti, resta essenziale per acquisire una conoscenza più approfondita e meditata della realtà antica, affrontare il nodo problematico della contestualizzazione; in grado, da una parte, di rendere intelligibili i siti archeologici, dall’altra di rivitalizzare le 6 7 ZEVI et alii 2008. DI ROBERTO-ESPOSITO 2009. 65 2. Ricontestualizzazione dei siti e dei monumenti archeologici nel territorio. strutture museali grazie a una migliore cognizione delle collezioni in esse contenute. Da queste considerazioni nasce la volontà di costruire un circuito di cooperazione per la valorizzazione e la fruizione dei beni culturali della Campania, nel quale la contestualizzazione sia lo strumento attraverso cui si ricostruisca il legame esistente, tra gli oggetti esposti nei musei e i rispettivi luoghi di provenienza. In particolar modo, la scelta è ricaduta sull’area vesuviana che, pur nelle innumerevoli possibilità offerte ai visitatori grazie alla ricchezza dei contenuti diversificati che è in grado di mostrare, essendo ormai quasi del tutto privata degli arredi e delle suppellettili che corredavano gli edifici, consegna un’immagine molto parziale di se stessa. Ricreare, dunque, i contesti originari permette non solo di superare tale frammentarietà, ma anche di ripercorrere senza mediazioni, mostrando al visitatore quello che l’archeologo ha visto al momento dello scavo, la dimensione concreta di uno spaccato di vita antica. In tale prospettiva l’uso del supporto informatico appare imprescindibile per azzerare la distanza esistente tra musei e siti archeologici, consentendo a entrambe queste realtà di arricchirsi reciprocamente senza perdere il loro carattere specifico. Attraverso tale strumento è stato possibile realizzare percorsi di visita virtuali all’interno del Museo Archeologico di Napoli, la cui fisionomia risulta, per molti aspetti, ancora troppo profondamente segnata dall’opera di riorganizzazione dell’istituto che, nella seconda metà dell’Ottocento, fu svolta da Fiorelli8. Tra le diverse collezioni si è scelto d’indagare tre raccolte che, pur essendo concepite in base alla loro originaria localizzazione, per i limiti intrinseci legati a qualsiasi esposizione all’interno di una sala museale, risultano scarsamente leggibili a un pubblico non specialistico: l’arredo scultoreo della Villa dei Papiri, i rivestimenti parietali e gli oggetti 8 66 POZZI PAOLINI 1977, 13-14. tratti dal Tempio di Iside e, infine, i mosaici e i reperti mobili della Casa del Fauno. Si tratta di oltre duecento oggetti per il cui studio e ricontestualizzazione si è resa necessaria un’accurata analisi della documentazione archivistica, bibliografica9 e grafica relativa sia a essi che ai siti di provenienza. Il vaglio di questo repertorio di fonti (fondamentalmente custodito presso la Soprintendenza Speciale per i Beni Archeologici di Napoli e Pompei, nella biblioteca della Società Napoletana di Storia Patria, nell’Archivio Storico e nella Biblioteca Nazionale di Napoli) e, in particolare, delle relazioni di scavo settecentesche e ottocentesche, sia di quelle originali10 sia dei testi a stampa da esse ricavati11, unitamente all’esame delle stampe e dei disegni12 che riproducono le piante e gli elevati dei luoghi di reperimento, ha permesso la ricostruzione precisa dei contesti di provenienza dei reperti e la loro collocazione puntuale all’interno dei complessi monumentali pompeiani ed ercolanesi. La messe d’informazioni così raccolta ha trovato distinti livelli di applicazione, ognuno dei quali si propone di offrire un differente percorso di fruizione. Per una presentazione dei contenuti all’interno del Museo Archeologico Nazionale di Napoli si sono approntati dei video, visibili attraverso un impianto di “teatro virtuale” installato nella sala del Plastico di Pompei, mentre per una descrizione dettagliata degli oggetti si è ritenuto utile l’impiego della rete Internet; a tale scopo si sono realizzate schede di catalogo corredate di immagini illustrative, consultabili sul sito web del museo inserito nell’ambito del “C.I.R. Cultura Campania” (http://www.campaniabeniculturali.it). La descrizione dei tre complessi monumentali di provenienza è stata affidata a una presentazione per punti chiave, in cui si mostrano sinteticamente le rispettive caratteristiche architettoniche e si ricostruisce la vita e lo scavo delle strutture. Il lavoro di ricomposizione dei contesti originari dei reperti mobili esaminati ha trovato due forme di espressione distinte: - per le presentazioni video si è scelto un gruppo significativo di oggetti pertinenti alle tre collezioni indagate, utilizzando una forma grafica di tale ricontestualizzazione corredata da una breve descrizione; - nelle schede immesse in rete, invece, le informazioni sono state riportate all’interno del campo “Reperimento”, con cui sono state tradotte in una formulazione facilmente accessibile i dati veicolati nei tracciati ICCD dai paragrafi LA (“Altre localizzazioni geografico-amministrative”) e RE (“Modalità di reperimento”)13. 9 Viene qui menzionata solo la bibliografia essenziale pertinente ai tre complessi monumentali indagati, in quanto lo studio degli stessi ha portato al vaglio di oltre quattrocento testi. Per la Villa dei Papiri: SGOBBO 1971; SGOBBO 1972; PANDERMALIS 1983; WOJCIK 1983; WOJCIK 1986; GIGANTE 1998; ADAMO MUSCETTOLA 2000; DE SIMONE-RUFFO 2002; DE SIMONE-RUFFO 2003; MATTUSCH 2005; PESANDO-GUIDOBALDI 2006. Per il Tempio di Iside: DE ROSA 1835; AVELLINO 1851; ELIA 1941; TRAN TAM TINH 1964; DE VOS 1980; Collezione egiziana 1989; SAMPAOLO 1989; Iside 1992; POOLE 1997; SAMPAOLO 1998, 732-849; SAMPAOLO 2003; POOLE 2004; DE CARO 2006; SAMPAOLO 2006. Per la Casa del Fauno: LEONHARD 1914; PERNICE 1938; ZEVI 1991; LA ROCCA et alii 1994; HOFFMANN-DE VOS 1994, 80-141; BORRIELLO et alii 1996; PESANDO 1996; ZEVI 1998; DICKMANN 1999; ZEVI 2000; DE CARO 2001; GUIDOBALDI 2002; PESANDO 2002; PESANDO 2003. 10 Archivio Storico di Napoli, Archivio Borbone, 18, 20; Segreteria di Casa Reale detta Casa Reale Antica, FS. 1539, 1540, 1541; Casa Reale Amministrativa, III Inventario, Conti e cautele, FS. 1162, 1167, 1171, 1174; Soprintendenza per i Beni Archeologici di Napoli e Pompei, Archivio Storico: di Napoli, fascc. VIII A 2-9, VIII C 3 1, VIII D 1 1, 3, 5-11, 13, 16-22, 24, 26-27, VIII D 2 7, 12-13, VIII D 3 8, VIII D 5 8, VIII E 1 1-6; Società Napoletana di Storia Patria, Fondo Avellino (in attesa di catalogazione); Fondo Cuomo, ms. 1-4-54, 1-4-55, 1-4-56, 2-6-2; ms. XX B 19 bis. 11 FIORELLI 1860-64, I, 161-194; II, 240-255; III, 103, 114-118; FIORELLI 1875, 152-159, 358-362, n. 28; COMPARETTI-DE PETRA 1883; RUGGIERO 1885; GALLAVOTTI 1940; PANNUTI 1983. 12 Archivio Storico di Napoli: Piante e disegni, X, 22; Biblioteca Nazionale di Napoli: Sezione Manoscritti e Rari Ba 20 (2, 26; Museo Archeologico Nazionale di Napoli: I piano, sala CXV, Pianta Weber; I piano sala LXXXIV, nn. 7.15, 7.5, 8.1; Soprintendenza ai Beni Archeologici di Napoli e Pompei, Archivio Disegni di Napoli: Ercolano 55275529; Tempio di Iside: 890, 898-899, 901; Archivio Disegni di Pompei, P 647a-c; cartella n. 62 (in attesa di catalogazione), P/61715; AVELLINO 1851, tavv. IV, VII. 13 Cfr. supra. 67 3. Contestualizzazione di un bene archeologico nel sito archeologico di provenienza e nelle strutture museali. Le scelte fatte sono la diretta conseguenza di un approfondito esame dei contenuti comunicati dai tracciati determinati dall’Istituto Centrale per il Catalogo e la Documentazione, teso alla loro interpretazione ontologica concepita come “ontologia di dominio”. Nell’ontologia approntata, denominata ReMuNa-ICCD, sono stati presi in considerazione i tracciati, aggiornati in versione 3.00, descriventi i beni mobili14, immobili15, urbanistico-territoriali16, nonché le schede relative alla documentazione multimediale17, quelle rientranti sotto la comune definizione di archivio18 e, infine, quelle pertinenti alle unità stratigrafiche19. I diversi segmenti di cui si compongono i suddetti tracciati sono divenuti, a seconda delle loro caratteristiche, “classi”, “proprietà” o “istanze dell’ontologia”. Essa, sviluppata con il sistema Protégé20, non è una banale trasposizione dei “campi” ICCD in un formato a oggetti ma una struttura codificata21, in cui il modo di determinare le relazioni è 14 Tracciati: D, F, MI, NU, OA, RA, S, TMA. Tracciati: A, CA, MA, PG, SAS. 16 Tracciati: SI. 17 Tracciati: ADM, AUD, DOC, IMR, IMV, VID. 18 Archivi: AU, BIB, DSC, RCG. 19 Tracciati: US, USD, USM, USR. 20 GENNARI 2003; KNUBLAUCH-MUSEN 2004. 21 Per l’ontologia il riferimento essenziale è la struttura gerarchica delle top-level ontologies, DOLCE e ICOM/CIDOC-CRM. 15 68 profondamente diverso da quello definito dall’Istituto Centrale per il Catalogo e la Documentazione. Per questo motivo è stato necessario cogliere ed estrinsecare la logica implicita presente nelle strutture dell’ICCD; tale attività ha portato a distinguere i “campi” presenti nei tracciati, sulla base dei contenuti da essi veicolati, in cinque macro-aree tematiche: “descrittiva”, contenente i “campi” che trattano le proprietà fisiche, tecniche, materiali e analitiche del bene in esame; “storica”, comprendente i “campi” atti a descrivere la condizione attuale del bene e la sua storia, caratterizzati dalla presenza di un’indicazione temporale e dalla connessa eventuale ripetitività, oltre a quelli riguardanti le operazioni riguardanti la realizzazione delle schede ICCD (“compilazione”, “ispezione”, “trascrizione”, “revisione”, ecc.); “documentaria”, includente i “campi” inerenti la documentazione di riferimento di un bene culturale nelle sue diverse forme, bibliografica, fotografica, video-cinematografica, grafica, ecc.; “identificativa”, racchiudente i “campi” strettamente correlati alla determinazione del codice ICCD e di altri codici relativi al bene in esame; di “relazione”, comprendente i “campi” attraverso cui il bene culturale viene correlato o con parti di cui esso stesso si compone o con altre entità con le quali intercorrono i collegamenti privilegiati, codificati nello standard ICCD dal vocabolario chiuso RSER (“tipo relazione”). A partire da tali macro-divisioni si sono individuati i soggetti della nostra ontologia, distinguendoli dagli strumenti usati per descriverli e, in seconda istanza, per determinare quali ulteriori “classi” andassero predisposte si è dovuto discernere nell’ambito dei paragrafi, tra “campi strutturati” e “campi semplici”, quelli che ricorrono senza variazioni di sorta in tutte le schede ICCD, da quelli specifici, destinati a definire una determinata tipologia di beni. La sopraccitata analisi dei tracciati, consentendo di interpretare il tipo d’informazione trasmessa da ciascun “paragrafo” e “campo” ha permesso, inoltre, di stabilire se ognuno di essi fosse da considerarsi direttamente o indirettamente riferito all’entità (sia esso un bene culturale, o meno) trattato nel tracciato stesso. A quest’attività di destrutturazione delle informazioni presenti nei tracciati ICCD è seguita un’opera di ricomposizione in modo che ogni elemento fosse riconoscibile; tale ricomposizione si è data attraverso tre passi fondamentali: in prima analisi, si sono individuati dei pattern, come quello denominato della “storicizzazione”, che rendessero conto di specifiche relazioni tra “classi” e “proprietà” particolarmente significanti della nostra ontologia; in secondo luogo, si sono “mappate” le corrispondenze esistenti tra ciascun “campo” ICCD e gli elementi costituenti ReMuNa-ICCD; infine, si è determinato per ciascun segmento dell’ontologia l’iter attraverso cui ricondurlo alle classi descriventi i diversi soggetti (reperto archeologico, sito archeologico, architettura, disegno, ecc.) dei rispettivi standard catalografici. L’impiego dei risultati derivati dalla ricerca sui complessi monumentali ercolanesi come banco di prova per valutare l’ontologia ha messo in evidenza le potenzialità, ma anche le debolezze del sistema. Infatti, la necessità di creare un’ontologia con un grado di complessità particolarmente ridotto, costringendo a eliminare le restrizioni e i domini multipli inizialmente impiegati, ha portato a una struttura con centinaia di “classi” e “proprietà” priva al suo interno di qualsiasi strumento utile a indirizzare il sistema, durante le fasi di consultazione, unicamente verso contenuti legati da rapporti significanti. L’esperienza fatta induce, quindi, ad abbandonare l’ipotesi di un’unica ontologia comprensiva di tutta la standardizzazione ICCD, a favore della realizzazione di più strutture, ognuna pertinente a uno specifico “dominio”, con un ridotto numero di “classi” e, quindi, notevolmente più agili, ma in grado di dialogare tra loro tramite specifiche sopraclassi di riferimento. Un punto nodale emerso da tale attività di analisi è che la reale valorizzazione dei beni culturali non può avvenire semplicemente rendendo accessibili a più ampie fasce di utenti le informazioni inerenti a reperti archeologici o quant’altro, nelle medesime forme 69 in cui tali informazioni vengono acquisite e veicolate dagli addetti ai lavori. La semplice messa in rete di una scheda RA secondo la codifica ICCD non consentirà a un pubblico non specialistico di avvicinarsi ai beni culturali; resta, infatti, essenziale una complessa attività di decodifica e interpretazione delle informazioni che, lungi dal produrre una banalizzazione delle stesse, fornisca un substrato di conoscenze necessarie a un utente generico. Il lavoro ha, inoltre, evidenziato come sia fondamentale sfruttare le grandi potenzialità dei mezzi informatici nell’articolazione delle informazioni, nell’ottica di una progressione delle conoscenze fornite, affinché l’utente possa scegliere a che livello di approfondimento fermarsi onde evitare di ricadere in soluzioni, che, volendo essere esaustive, finiscano per essere respingenti. 70 Abbreviazioni bibliografiche ADAMO MUSCETTOLA 2000 S. Adamo Muscettola, La Villa dei Papiri a Ercolano, Napoli 2000. AVELLINO 1851 F. M. Avellino, Il Tempio di Iside di Pompei, Napoli 1851. BORRIELLO et alii 1996 Pompei. Abitare sotto il Vesuvio, Catalogo della Mostra, M. R. Borriello, A. D’Ambrosio, S. De Caro, P. G. Guzzo (edd.), Ferrara 1996. COARELLI 2002 Pompei. La vita ritrovata, F. Coarelli (ed.), Udine 2002. Collezione egiziana 1989 La Collezione egiziana del Museo archeologico nazionale di Napoli, Napoli 1989. COMPARETTI-DE PETRA 1883 D. Comparetti - G. De Petra, La Villa Ercolanese dei Pisoni, i suoi Monumenti e la sua Biblioteca. Ricerche e Notizie, Torino 1883. DE CARO 2001 S. De Caro, I mosaici. La Casa del Fauno, Napoli 2001. DE CARO 2006 S. De Caro, Il santuario di Iside di Pompei, Napoli 2006. ELIA 1941 O. Elia, Le pitture del tempio di Iside, in Monumenti della pittura antica scoperti in Italia, Sezione III, La pittura ellenistico-romana, Pompei, III-IV, Roma 1941. ESPOSITO 2009 R. Esposito, Applicazioni informatiche per la fruizione diffusa dei siti e dei musei archeologici della Campania. I progetti ArcheoAtlante e Archeologia online, in Vesuviana 2009, 137-142. FIORELLI 1860-64 G. Fiorelli, Pompeianarum Antiquitatum Historia, IIII, Napoli 1860-64. FIORELLI 1875 G. Fiorelli, La descrizione di Pompei, Napoli 1875. GALLAVOTTI 1940 C. Gavallotti, Nuovo contributo alla storia degli scavi di Ercolano (nella Villa dei Papiri), in RendNap, 20, 1940, 269-306. GENNARI 2003 J. Gennari, The evolution of Protégé-2000. An environment for knowledge-based systems development, in International Journal of Human-Computer Studies, 58, 2003, 89-123. GIGANTE 1998 M. Gigante, Lo scavo della Villa dei Papiri, in CronErcol, 28, 1998, 5-57. GUIDOBALDI 2002 M. P. Guidobaldi, La casa, in COARELLI 2002, 203377. DE ROSA 1835 P. De Rosa, Memorie sopra un’arula di bronzo trovata nel tempio d’Iside in Pompei, in Memorie dell’Accademia Ercolanese, 2, 1835, 27-36. HOFFMANN-DE VOS 1994 A. Hoffmann - M. De Vos, Casa del Fauno (VI, 1, 12), in PPM, 5, 1994, 80-141. DE SIMONE-RUFFO 2002 A. De Simone - F. Ruffo, Ercolano 1996-1998. Lo scavo della Villa dei Papiri, in CronErcol, 32, 2002, 325-344. Iside 1992 Alla ricerca di Iside. Analisi, studi e restauri dell’Iseo pompeiano nel Museo di Napoli, Catalogo della Mostra, Napoli 1992. DE SIMONE-RUFFO 2003 A. De Simone - F. Ruffo, Ercolano. La Villa dei Papiri alla luce dei nuovi scavi, in CronErcol, 33, 2003, 279-311. KNUBLAUCH-MUSEN 2004 H. Knublauch - M. A. Musen, Editing Description Logic Ontologies with Protégé OWL Plugin, in Proceedings of the 2004 International Workshop on Description Logics, Whistler, British Columbia, Canada 2004. DE VOS 1980 M. De Vos, L’Egittomania in pitture e mosaici romano-campani della prima età imperiale, in EPRO, 84, 1980. DICKMANN 1999 J. A. Dickmann, Domus frequentata, München 1999. DI ROBERTO-ESPOSITO 2009 M. V. Di Roberto - A. ESPOSITO, Dai sistemi informativi territoriali e catalografici ai modelli cooperativi e virtuali: la contestualizzazione delle conoscenze sui beni culturali, in Vesuviana 2009, 119-126. LA ROCCA et alii 1994 E. La Rocca - A. De Vos - M. De Vos, Pompei, Milano 1994. LEONHARD 1914 W. Leonhard, Mosaikenstudien zur Casa del Fauno in Pompeji, in Neapolis, II, 1914, 42-99, 135-152. MANGO FURNARI-NOVIELLO 2009 M. Mango Furnari - C. Noviello, I beni culturali e le tecnologie dei sistemi cooperativi: CMS Octapy nel 71 CIR Cultura campania, in Vesuviana 2009, pp. 105117. prototipi di classificazione ontologica dei beni culturali, in Vesuviana 2009, 127-135. MATTUSCH 2005 C. C. Mattusch, The Villa dei Papiri at Herculaneum. Life and Afterlife of a Sculpture Collection, Los Angeles 2005. RUGGIERO 1885 M. Ruggiero, Storia degli Scavi di Ercolano ricomposta sui documenti superstiti, Napoli 1885. MIELE 2009 F. Miele, Conoscenza e fruizione dei beni archeologici e culturali: siti web istituzionali ed applicazioni virtuali nel C.I.R. Cultura Campania, in Vesuviana 2009, 85-104. PANDERMALIS 1983 D. Pandermalis, Sul programma della decorazione scultorea, in La villa dei Papiri, in CronErcol, 13, 1983, 19-50. PANNUTI 1983 U. Pannuti, Il “Giornale degli Scavi” di Ercolano (1738-1756), in MemLinc, 26, 1983, 163-380. PERNICE 1938 E. Pernice, Pavimente und figürliche Mosaiken, Berlin 1938. PESANDO 1996 F. Pesando, Autocelebrazione aristocratica e propaganda politica in ambiente privato. La Casa del Fauno di Pompei, in CahGlotz, 7, 1996, 189-228. PESANDO 2002 F. Pesando, La casa del Fauno, COARELLI 2002, 220-239. PESANDO 2003 F. Pesando, La casa del Fauno, in Storie da un’eruzione 2003, 248-254. PESANDO-GUIDOBALDI 2006 F. Pesando - M. P. Guidobaldi, Pompei, Oplontis, Ercolano, Stabiae, Roma-Bari 2006. POOLE 1997 F. Poole, Ushabty di Payefheryhes, in Iside. Il mito, il mistero la magia, Catalogo della Mostra, Milano 1997, 430-434. POOLE 2004 F. Poole, Il culto di Iside a Pompei, in Pompei, Capri e la Penisola Sorrentina, Atti del Quinto Ciclo di Conferenze di geologia, storia e archeologia, Capri 2004, 209-243. POZZI PAOLINI 1977 E. Pozzi Paolini, Il Museo Archeologico Nazionale in due secoli di vita, in Da Palazzo degli Studi a Museo Archeologico Nazionale, Napoli 1977, 1-27. PPM Pompei: pitture e mosaici, I-X, Milano 1990-2003. PROTO 2009 F. Proto, Modelli di conoscenza contestualizzata e 72 SAMPAOLO 1989 V. Sampaolo, Le pitture, in Le collezioni del Museo Nazionale di Napoli, I (1-2), Roma-Milano 1989, 3875. SAMPAOLO 1998 V. Sampaolo, Tempio di Iside (VIII, 7, 27-28), in PPM, 8, 1998, 732-849. SAMPAOLO 2003 V. Sampaolo, Il tempio di Iside (VIII, 7, 27-28), in Storie da un’eruzione 2003, 233-239. SAMPAOLO 2006 V. Sampaolo, L’Iseo pompeiano, in Egittomania, Catalogo della Mostra, Napoli 2006, 87-118. SGOBBO 1971 I. Sgobbo, Panyassi il Poeta riconosciuto in un ritratto della «Villa dei Papiri» di Ercolano, in RendNap, 46, 1971, 51-74. SGOBBO 1972 I. Sgobbo, Statue di oratori attici ad Ercolano dinanzi alla biblioteca della “Villa dei Papiri”, in RendNap, 47, 1972, 241-305. Storie da un’eruzione 2003 Storie da un’eruzione. Pompei, Ercolano, Oplontis, Catalogo della Mostra, A. D’Ambrosio, P. G. Guzzo, M. Mastroroberto (edd.), Milano 2003. TRAN TAM TINH 1964 V. Tran Tam Tinh, Essai sur le culte d’Isis à Pompéi, Paris 1964. Vesuviana 2009 Vesuviana. Archeologie a confronto, Atti del Convegno Internazionale, A. Coralini (ed.), Bologna2008, Bologna 2009. WOJCIK 1983 L. R. Wojcik, La Villa dei Papiri. Alcune riflessioni, in CronErcol, 13, 1983, 129-134. WOJCIK 1986 L. R. Wojcik, La Villa dei Papiri ad Ercolano. Contributo alla ricostruzione dell’ideologia della “nobilitas” tardo repubblicana, Roma 1986. ZEVI 1981 F. Zevi, La storia degli scavi e la documentazione, in Pompei 1748-1980. I tempi della documentazione, Catalogo della Mostra, Roma 1981, 11-21. ZEVI 1991 F. Zevi, La città sannitica, l’edilizia privata e la Casa del Fauno, in Pompei, I, Napoli 1991, 47-74. ZEVI 1998 F. Zevi, I mosaici della Casa del Fauno a Pompei, Napoli 1998. ZEVI 2000 F. ZEVI, La Casa del Fauno, in Studi sull’Italia dei Sanniti, Milano 2000, pp. 118-137. ZEVI et alii 2008 Il Museo Archeologico dei Campi Flegrei. Catalogo generale. Cuma, F. Zevi, F. Demma, E. Nuzzo, C. Rescigno, C. Valeri (edd.), Napoli 2008. Referenze iconografiche Autori: figg. 1-3. Renata Esposito Soprintendenza Speciale per i Beni Archeologici di Napoli e Pompei [email protected] Fiona Proto Soprintendenza Speciale per i Beni Archeologici di Napoli e Pompei [email protected] 73 Mario Mango Furnari Carmine Noviello Paolo Acampa Octapy 3: una piattaforma open source per un CMS cooperativo di depositi documentali distribuiti Abstract In this paper we address the problem of making distributed document collection repositories mutually interoperable. To cope with this kind of problems the notions of document, cooperative knowledge community and content knowledge authority are introduced. A set of methodologies and tools to organize the documents space around the notion of contents community were developed. Each content provider will publish a set of data model interpreters to collect, organize and publish through a set of cooperative content management system nodes glued together by a web semantic oriented middleware. Content delivery and information sharing across the network is today possible using a variety of technologies, such as distributed databases, service oriented applications, and so forth. However, technologies on sharing content is only one aspect of content management in cooperative and distributed settlements. In fact, contents need to be created, managed, revised and finally published. Contents may also to be aggregated in collections, which in turn may be shared among stakeholders. Modern Content Management Systems (CMS) have a complete environment to support users in content production and publishing for the web. However, most CMSs have poor support for cross systems interoperability and cooperation over the network. They mainly focus the attention to the users’ interaction and documents usage. Prerequisite to share documents in machine understandable way is the adoption of de facto standards for content and metadata representations. Aside of this standards, documents must provide both user and machine oriented representations, and play an active rule in data sharing. In other words, it is worth to explore the possibility to map the document conceptual model on the object oriented programming model exploiting some of its methodological and technological features. Furthermore, the current semantic oriented exploitation attempts are mainly oriented to cope with the conceptualization of a single information source, they use document semantic models as monolithic entities providing little support to specify, store and access them in a modular manner. The design methodologies described in this paper are based on the hypothesis that it is yet necessary to develop an adequate treatment for distributed and heterogeneous document model interpretation to promote information sharing on the semantic web. Appropriate infrastructures for representing and managing distributed document model interpreters have also to be developed. To pursue these goals we introduced the notion of “knowledge stakeholders community” that exchange modularized “document model interpretation” together documents using a “document middleware”. Experimental implementation and tools were developed to check the adequacy of the proposed methodologies; their deployment for the cultural heritage promotion arena is also described. 1. Introduzione L’Italia è uno dei paesi più ricchi di beni culturali al mondo, per cui è strategico garantirne la sopravvivenza così che si tramandino nel tempo, nella consapevolezza che l’eclisse della memoria/identità porterebbe al progressivo oscuramento delle nostre 75 coscienze, all’oblio del nostro lavoro, sino alla perdita della nostra identità. A questo proposito non va né sottaciuto né sottovaluto il fatto che la preservazione, conservazione e promozione dei beni culturali è processo molto complesso che vede l’intreccio di competenze diverse. Per la valorizzazione e fruizione un aspetto di non secondaria importanza è la distribuzione geografica dei luoghi di conservazione dei beni culturali che rende difficile formulare un’offerta unitaria dei beni culturali. È necessario pensare, quindi, a questi processi in termini di un sistema globale di conservazione e promozione in cui i diversi soggetti, forze e competenze fortemente diversificate possano agevolmente cooperare tra loro. Appare ragionevole attendersi un contributo significativo dall’innovazione tecnologica anche se non può essere nascosto che innovare non sempre significa progredire, per cui l’applicazione delle nuove tecnologie al mondo dei beni culturali necessita di un’approfondita analisi onde evitare di inseguire “mode” che si limitano ad ampliare il mercato di utilizzo delle specifiche tecnologie. Oggi questo appare ancora più cogente per quanto riguarda l’utilizzo delle tecnologie dell’informazione e delle telecomunicazioni. Infatti, la significativa riduzione dei costi diretti e la maggiore semplicità di uso delle applicazioni sembra soddisfare più l’esigenza di ampliare i mercati piuttosto che un ripensamento e semplificazione dei “processi di produzione”. Da una prospettiva storica, lo sviluppo e l’utilizzo di sistemi informativi per la gestione di contenuti ha subito un lungo processo di crescita ed evoluzione che è coinciso sia con l’aumento delle potenzialità offerte dalle tecnologie dell’informazione sia con la diffusione di reti di comunicazione. Il primo passo è stato rivolto alla creazione di strumenti software per immagazzinare contenuti descritti da un unico (o al più una famiglia) modello di dati, che con lo sviluppo e la diffusione dei database si è avviato un processo di immagazzinamento sistematico di dati. Al contempo, istituzioni, enti, organi governativi e soggetti privati hanno sempre più ampliato l’utilizzo di strumenti e tecnologie per la memorizzazione, catalogazione, indicizzazione e ricerca di “documenti”, ben oltre quelli rappresentabili con la struttura dati tipica dei Data Bases, cioè il tipo “record”. Nel tempo, infatti, il ruolo dei database si è spostato dall’essere elementi portanti e centrali dei sistemi informativi a quello di “anello” di una catena ben più complessa in cui altre componenti software svolgono un ruolo determinante: si parla di sistemi per la gestione di basi documentali o di Content Management System (CMS). In questo contesto, a cambiare è soprattutto il modo di operare delle istituzioni, preposte alla gestione - e spesso alla definizione - dei documenti e delle collezioni digitali, che si trovano a dover cambiare il proprio ruolo da quello di semplici organi preposti al mantenimento e alla catalogazione di contenuti e strutture il cui compito preciso è quello di sviluppare tecniche organizzative, standard di rappresentazione e metadati che facilitino forme di cooperazione/interoperabilità tra istituzioni, con l’unico obiettivo comune di creare una rete virtuale di conoscenza distribuita, in cui ogni nodo di questa rete ha la responsabilità di “farsi interpretare” dagli altri. La “cooperazione” rappresenta l’elemento cardine delle collezioni digitali o, di come attualmente si indica in maniera più generale, delle biblioteche digitali1. In definitiva, la “gestione di contenuti” è un processo che mira alla definizione di metodologie di trattamento dei dati, alla creazione di eventuali strutture e/o istituzioni preposte a tale trattamento e infine, ma non ultima per importanza, alla realizzazione di specifiche tecnologie informatiche idonee ai compiti individuati. Il modo più diffuso e consolidato di rappresentare i contenuti è dato dal documento, il cui ruolo è quello di contenitore, e la sua struttura è tale da garantire “identificabilità”, “leggibilità” e “ricuperabilità” sia di se stesso che delle informazioni contenute. Un documento è quindi un oggetto virtuale che codifica le informazioni rendendole interpretabili da un “agente umano” o da un “agente software”, e convoglia più tipologie di infor1 76 BORGAMAN 2000. mazioni: il “contenuto” (la rappresentazione di ciò che si vuol comunicare); la “presentazione” (le informazioni riguardanti le modalità potenziali di fruizione); la “struttura”, che caratterizza il documento, evidenziando la struttura del contenuto, eventualmente non lineare (ipertesto); i “metadati”, le annotazioni che facilitano l’utilizzo del documento e catturano alcuni aspetti semantici del contenuto (fig. 1). Con una tale organizzazione concettuale delle informazioni (conoscenze) è possibile fornire agli utenti sia gli oggetti che rappresentano l’informazione sia i contesti interpretativi degli stessi contenuti (conoscenze). Sistemi che utilizzano questo tipo di organizzazione sono da considerare esempi di sistemi software in cui i processi di “virtualizzazione” e “ipertestualizzazione” sono realizzabili e dove l’utente svolge il ruolo di “soggetto attivo” e di “mediazione del processo di comprensione”. 1. Struttura concettuale del “documento”. 77 2. Struttura concettuale di un’ “aggregazione di documenti”. In una “comunità virtuale” di sistemi documentali, tra loro cooperanti, il contenuto svolge un ruolo attivo, espone struttura e funzionalità tali da utilizzarlo sia come elemento di una collezione di documenti sia come strumento di mediazione e cooperazione con altri sistemi. In questo senso, il contenuto diventa documento e, allo stesso tempo, interfaccia per la cooperazione con altri sistemi, centro e periferia dello stesso sistema, nodo e radice di una struttura gerarchica. Si passa quindi a un documento che ha più modalità di fruizione e rappresentazione a un documento multivalente in grado di esprimere la sua struttura e le interazioni con altri documenti e collezioni digitali2. Dal punto di vista strutturale, la nozione di “documento digitale” è costruita ricorsivamente a partire da quella di “documento semplice”, cioè costituito dalla codifica digitale del contenuto e da un insieme di proprietà che lo caratterizzano. Si passa poi a definire il “documento composto”, costituito dalla rappresentazione digitale di una struttura di aggregazioni di parti e dalle rappresentazione dei documenti associati a queste parti, dove ciascuna parte è esso stesso un documento, sia semplice che composto. La profondità di annidamento della ricorsione può essere resa arbitraria, consentendo così da rappresentare documenti sempre più complessi che modellano la tipologia organizzativa di un sistema documentale. Ad esempio, è possibile costruire la nozione di “collezione” di documenti rendendo esplicita la “relazione di aggregazione” ed è possibile considerare la collezione quale nuovo tipo di documento; si può, inoltre, aggregare collezioni o definire documenti che rappresentano le relazioni tra collezioni. Continuando in questo processo di astrazione, si può costruire la nozione di “Deposito di Documenti”, riunendo aggregati di collezioni di documenti alla stessa stregua del documento. Un aspetto interessante di questo modo di procedere è che la struttura del “Deposito di Documenti” è anch’essa rappresentabile mediante documenti (fig. 2). Un sistema informatico (Sistema Informativo Documentale) costruito a partire dalla nozione di documento consente di rappresentare: il contenuto esplicito di informazioni che gestisce; le informazioni a proposito del sistema; le informazioni di raccordo tra i suoi livelli organizzativi, informazioni che debbono essere definite in modo da essere elaborabili e interpretabili automaticamente. 2 78 GLUSHKO-MC GRATH 2005. 2. La piattaforma Octapy 3 La piattaforma Octapy CMS nasce con l’obiettivo primario di fornire funzionalità per la realizzazione di comunità virtuali a tecnologia web, e quindi fornisce strumenti specifici per la cooperazione tra sistemi autonomi e indipendenti. Con Octapy ogni contenuto può essere reso di tipo distribuito, e quindi acquisibile da qualsiasi altro sistema partecipante a una rete di sistemi trusted. Questo è possibile grazie al fatto che in Octapy ogni documento è fornito di più rappresentazioni digitali, che vanno da quelle user-oriented, cioè per la fruizione da parte dell’utente finale, a quelle strutturate in XML per essere interfacciate e interpretate da sistemi software locali e/o remoti. Il sottosistema di gestione distribuita e cooperativa consente di gestire qualsiasi contenuto remoto come se si stesse operando in locale. Un nodo documentale è interamente configurabile, per quanto riguarda le politiche cooperazione della comunità virtuale e la tipologia dei contenuti gestibili, specificati nello Octapy Meta Language - OCML. Per garantire la interoperabilità fra differenti nodi documentali si è utilizzata la nozione di “contenitore”, un’entità che, indipendentemente dalla localizzazione fisica, lega le entità Octapy. Dalla specifica dei documenti, espressa in OCML, si generano le “componenti software contenuto” che, compilati con YODA, sono poi incluse nell’ambiente di run-time e resi immediatamente disponibili all’utente. Questo run-time è stato sviluppato costruendo uno strato software sulla piattaforma Zope/Plone così da estenderlo in un’ottica di sistemi distribuiti, cooperativi e orientati ai contenuti. L’intera piattaforma Octapy è realizzato utilizzando il linguaggio di programmazione Python3. Le funzionalità di correlazione tra documenti, dello stesso tipo o meno; di scambio dei contenuti e/o dei metadati sono state organizzate in tre livelli tra loro distinti. Più in particolare: - Documents Definition Layer (DDL) è il livello che si occupa della definizione dei documenti e del relativo modello di interpretazione. Con questo livello sono definibili nuovi contenuti da rendere disponibili all’utente, nonché le interpretazioni dei singoli elementi della struttura del documento e gli eventuali vocabolari associati. I modelli di definizione fungono, inoltre, da elemento di mediazione tra i sistemi della comunità virtuale. Lo scambio dei documenti di definizione permette di condividere le tipologie dei dati gestisti da ciascun nodo e la loro struttura e modello di interpretazione. Il DDL è ampiamente utilizzato nei moduli di interazione con l’utente e in alcune componenti che garantiscono la cooperazione, come il sottosistema OAI. - Content Components Layer: questo livello si occupa della generazione delle “componenti contenuto”, con le quali è possibile effettuare tutte le operazioni tipiche di un CMS (inserimento, modifica, cancellazione, gestione) e di interfacciare le componenti che si occupano della gestione dei contenuti locali con i sottosistemi dei nodi di cooperazione, attraverso un processo di “remotizzazione” trasparente dei contenuti dei nodi della comunità virtuale. Questo livello assicura l’indipendenza dal particolare modello dati, e consente l’espansione e la personalizzazione del CMS in maniera flessibile ed efficiente. - Distributed and Cooperative Layer: è il livello che si occupa della parte distribuita e cooperativa del CMS. I moduli di questo livello provvedono alla creazione delle differenti rappresentazioni dei contenuti, supportando il protocollo OAI, e gli standard di interoperabilità dei metadati, quali il DC, MARC, PICO, nonché i modelli di rappresentazione basati su XML. Grazie a questi sottosistemi è possibile aggregare contenuti di altri sistemi, esportarne i contenuti nonché aggregare, strutturare e correlare entità differenti, quali documenti multimediali ed entità cartografiche. 3 NOVIELLO 2007; VON WEITERSHAUSEN 2007. 79 - Content Management Layer: è il livello che implementa il CMS propriamente detto, in cui viene curata parte della logica di applicazione, la presentazione all’utente, la gestione dei workflow. Questo livello è realizzato adoperando Plone 3.x, che fornisce elementi di “adattività” in base alle tipologie di utenza. In definitiva, la piattaforma Octapy utilizzabile per realizzare comunità virtuali di nodi cooperanti di sistemi di gestione documentali, dove la comunità è costituita da un insieme finito di nodi di stretta gestione documentale, accessibili direttamente, ad esempio, come siti web, e da un insieme di nodi di servizio, ad esempio nodi aggregatori, nodi di cross-walking, ecc. Questi ultimi nodi consentono di accedere ai contenuti/conoscenze della comunità in modo unitario e trasparente per l’utente finale. 3. L’utilizzo di Octapy nei Beni Culturali La principale area applicativa in cui si è verificato l’adeguatezza di Octapy è quella dei Beni Culturali, per la quale sono stati definiti le seguenti tipologie di documenti: Oggetto archeologico, Monumento-complesso archeologico, Sito archeologico, Oggetto artistico, Oggetto archivistico (foglio e fascicolo), Oggetto architettonico (museo ed edificio), Oggetto demoetnoantropologico. Per ciascuno di questi tipi sono forniti molteplici schemi di presentazione. Ogni tipo di contenuto è correlato a rappresentazioni digitali dei più diffusi vocabolari ICCD. Le scelte tecnologiche adottate nello sviluppo di Octapy consentono: a ciascun museo e soprintendenza di gestire in proprio e in piena autonomia i contenuti descrittivi relativi ai suoi beni, scegliendo il proprio modello di gestione e di rappresentazione dei dati e di realizzare la cooperazione tra le istituzioni con la realizzazione di Circuiti di Promozione superando la logica dei siti e/o portali web. La piattaforma è ovviamente compatibile con gli standard di interoperabilità fissati dal MiBAC, oltre che con i principali standard internazionali ed è in costante aggiornamento tecnologico, a cura dello stesso CNR. La cooperazione tra i diversi nodi partecipanti al circuito trova la sua concreta estrinsecazione nella realizzazione di percorsi culturali comuni a più soggetti, i così detti musei impossibili. Questa ultima possibilità è stata realizzata ideando un nuovo tipo di documento, il “tematismo”, ossia itinerari culturali tematici trasversali ai singoli musei e istituzioni culturali che si presentano tuttavia in maniera unitaria. In realtà sono composti da documenti provenienti dai differenti nodi possessori dei documenti. Nella composizione di un “tematismo” è possibile scegliere documenti di qualsiasi natura, ad esempio, un percorso culturale è “Napoli tra vedutismo e cartografia” composto da una collezione di 71 schede tra oggetti archivistici (gestiti dall’Archivio di Stato di Napoli), oggetti artistici (gestiti dalla Soprintendenza Speciale al Polo Museale Napoletano), ecc. Oggi Octapy è adoperato con successo come piattaforma tecnologica in oltre 100 nodi documentali a tecnologia web che consentono la realizzazione di diversi circuiti virtuali di cooperazione. I principali circuiti sono: - il Circuito Culturale della Campania (http://www.campaniabeniculturali.it) (figg. 3-5); - il Museo dell’identità del territorio della Terra di Bari (http://www.memoriaeconoscenza.it) (fig. 6); - la rete dei Musei Culturali della Puglia e dell’Albania (http://www.cchnet.it) (fig. 7); - la promozione dei beni archeologici dell’Egitto minore in Italia (http://osiris.lab32.org); I contenuti in esercizio sono alimentati dalle Direzioni Regionali del Ministero dei Beni Culturali delle regioni Campania e Puglia. Oltre a ciò, la piattaforma è stata ceduta in riuso per la PA alla Regione Puglia, al Comune di Bari e ad altri enti della PAL. 80 3. Circuito Culturale della Campania. 4. CIR - Il percorso “Napoli tra vedutismo e cartografia”. 81 5. CIR - Luoghi della cultura in Campania. 6. Museo della identità del territorio della Terra di Bari. 7. Musei Culturali della Puglia e dell’Albania. 82 5. Conclusioni Il CMS Octapy è frutto di anni di esperienza scientifica e tecnica maturata nel settore dei Beni Culturali, settore che ha fornito un banco di prova sufficientemente significativo per verificare le funzionalità del CMS e le basi scientifiche e informatiche su cui si fonda. Con il progetto ReMuNa (Rete dei Musei Napoletani)4, infatti, è stato possibile far cooperare in rete le più significative istituzioni culturali e museali di Napoli (tra cui Archivio di Stato di Napoli, Museo Archeologico Nazionale di Napoli, Museo di Capodimonte, Certosa e Museo di San Martino, Museo Diego Aragona Pignatelli Cortes, Museo di Palazzo Reale, Pinacoteca del Pio Monte della Misercordia, Museo del Tesoro di San Gennaro, Parco della Tomba di Virgilio) con un’unica piattaforma software e sotto un unico modello di interoperabilità, così da formare un circuito di siti web ognuno dotato di una propria autonomia di gestione, ma costituenti una rete di conoscenze comuni. I risultati tecnico scientifici del progetto ReMuNa sono stati acquisiti dalla Direzione Regionale per i Beni Culturali e Paesaggistici della Campania e sono confluiti nel progetto Circuito Informativo Regionale per la promozione e fruizione dei beni culturali della Campania (C.I.R.) (www.campaniabeniculturali.it), che ha visto la creazione di una federazione di circuiti - ognuno associato ad una provincia della Campania - con un circuito di oltre 100 siti web, in regime di cooperazione. Il circuito aderisce, inoltre, al progetto europeo Michael, iniziativa finanziata dalla Comunità Europea dedicata allo sviluppo di nuove tecnologie per la fruizione di contenuti culturali. Il Ministero per i Beni e le Attività Culturali partecipa a questo progetto e la versione italiana del portale Michael è disponibile sul sito http://michael.beniculturali.it5. Questo progetto ha prodotto un documento di specifica dei metadati che si intende utilizzare ed è consultabile in http://michael. michaelculture.org6. 4 REMUNA 2001. MICHAEL 2002. 6 MICHAEL 2001. 5 83 Abbreviazioni bibliografiche BORGAMAN 2000 C. L. Borgaman, From Gutenberg to the global information infrastructure, Cambridge 2003. MICHAEL 2001 Progetto MICHAEL del Ministero per i Beni e le Attività Culturali, 2002 (http://michael. michael-culture.org). MICHAEL 2002 Progetto MICHAEL del Ministero per i Beni e le Attività Culturali, 2002 (http://michael.beniculturali.it). GLUSHKO 2005 R. J. Glushko - T. Mc Grath, Document Engineering, Cambridge 2005. NOVIELLO 2007, C. Noviello, Il Component-Model di Octapy 3, Technical Sheet Octapy CMS, Pozzuoli-Napoli 2007. REMUNA 2001 Progetto ReMuNa, 2003 (http://www.remuna.org e http://www.remuna.org/progetto). VON WEITERSHAUSEN 2007 P. von Weitershausen, Web Component Development with Zope 3, Berlin 2007. Referenze iconografiche Autori: figg. 1-7. Mario Mango Furnari Istituto di Cibernetica “E. Caianiello” CNR Pozzuoli. [email protected] Carmine Noviello Istituto di Cibernetica “E. Caianiello” CNR Pozzuoli. [email protected] Paolo Acampa Istituto di Cibernetica “E. Caianiello” CNR Pozzuoli. [email protected] 84 Mirella Serlorenzi Andrea De Tommasi Simone Ruggeri La filosofia e i caratteri Open Approach del Progetto SITAR Sistema Informativo Territoriale Archeologico di Roma. Percorsi di riflessione metodologica e di sviluppo tecnologico Abstract The goal of the SITAR project is the creation of the Archaeological Territorial Informative System of Rome; it was launched by the Soprintendenza Speciale per i Beni Archeologici di Roma (SSBAR), the governmental Institution in charge of the safeguard and exploitation of the exceptionally rich archaeological heritage of Rome. The SITAR project is a technological and institutional challenge for the SSBAR, combining an informative system still under construction with the management of an enormous and heterogeneous amount of data, deriving from the precious historical and urban context of a constantly evolving city like Rome. The beginning and development of SITAR took place in a time characterized by the emergence of new approaches in the management and use of data, even at the higher central levels of the Ministry of Cultural Heritage (MiBAC). After decades of studies on the regulations of data description and exchange, on the taxonomic structures of several and partially accomplished informative systems, the MiBAC started a new season of philosophical and methodological reflections on the construction of central administrative and scientific data banks; in the last three years, all of this led to achieve essential results for the rationalization of the designed system. More specifically, the work of two MiBAC - Italian University commissions showed a new direction in the discussion on the SIT, IDT (Territorial Data Infrastructures) and safeguard archaeology, together with a renewed belief in the necessity of developing the multifaceted experiences from several research contexts and methodological and technological analysis coexisting in the current social Italian frame. Moreover this evolution and this open institutional approach clarified the dimensions and perspectives of the development of the public informative system projects designed for archaeology, safeguard, planned management and last but not least exploitation of the cultural heritage. At a central level, the most important result is embodied in the recent establishment by the MiBAC of the SITAN (National Archaeological Informative System), designed on the guidelines of the special peer MiBAC- University commission on SIT and IDT. The SITAR is farther well framed into this broad institutional and technological context thanks to the active involvement of the SSBAR in the work of the institutional commissions on SIT/IDT and protective archaeology. For all of this and for the collaboration with other Italian archaeological Soprintendenze, the SITAR represents the first pilot project for the shared construction of an archaeological SIT for Rome, and even of an ambitious IDT with the participation of the Regione Lazio, Comune di Roma, Comune di Fiumicino, l’Archivio di Stato di Roma, and some departments of the University of Rome Sapienza and Roma III. 1. Premessa Il SITAR, Sistema Informativo Territoriale Archeologico di Roma, è stato avviato e sviluppato dalla Soprintendenza Speciale per i Beni Archeologici di Roma, a partire dal 2007, con il fine di costruire uno strumento in grado di codificare in maniera rapida ed efficace l’insieme dei beni archeologici presenti sul territorio metropolitano (fig. 1). Ciò allo scopo di delineare un quadro conoscitivo sistematico e unitario all’interno del quale organizzare i risultati delle attività di tutela e di ricerca attuate sul territorio, e al fine di 85 1. Il territorio di competenza della SSBAR (fonte: WebGis SITAR). supportare la pianificazione territoriale condivisa e la valorizzazione in modo più consapevole e rispettoso dello straordinario contesto storico-archeologico di Roma1. 2. Il quadro istituzionale Probabilmente non a caso la nascita e lo sviluppo del SITAR si collocano in un arco temporale che ha visto la maturazione di nuovi approcci alla gestione delle informazioni e al loro utilizzo anche nei livelli superiori dell’amministrazione centrale del Ministero per i Beni e le Attività Culturali. Dopo decenni di ricerche e di studi sulle normative di descrizione e scambio dati, sulle strutture tassonomiche dei tanti sistemi informativi ipotizzati e poi solo in parte realizzati, il MiBAC ha dato vita a una nuova stagione di riflessioni filosofiche e metodologiche nell’ambito della costruzione delle banche dati amministrative e scientifiche centrali, che negli ultimi tre anni hanno condotto ad alcuni risultati fondamentali in termini di semplificazione e razionalizzazione dei sistemi progettati. In particolare, il lavoro di due commissioni paritetiche MiBAC - Università ha portato in dote alla discussione comune sui SIT, sulle IDT - infrastrutture di dati territoriali e sull’archeologia 1 Il contributo che qui si presenta è frutto dell’impegno comune di un ampio gruppo di lavoro che anche in questa sede si ha il piacere di nominare e di ringraziare: Valentina Di Stefano, Giorgia Leoni, Ilaria Jovine e Claudia Tempesta, Assistenti tecnico-scientifici della Soprintendenza Speciale per i Beni Archeologici di Roma; Valeria Boi, Arjuna Cecchetti, Cristiana Cordone, Petra Gringmuth, Federica Lamonaca, Luisa Marulli, Cecilia Parolini, Stefania Picciola, Alessandro Pintucci, Francesca Chiara Sabatini, Milena Stacca, collaboratori del Servizio SITAR della SSBAR; Pasquale Porreca e Andrea Varavallo, del CED della SSBAR; Marco Loche, Marco Santamaria, Raniero Grassucci, Andrea Vismara, Aldo Caprioli, Vittorio Fronza, consulenti tecnici esterni del Progetto SITAR. Molti degli argomenti trattati in questa sede sono stati ulteriormente sviluppati in SERLORENZI 2011, con contributi specifici dedicati ai diversi aspetti istituzionali, metodologici e tecnologici del SITAR. 86 preventiva una nuova sensibilità, forse meglio una rinnovata convinzione della necessità di valorizzare la molteplicità delle esperienze dei tanti contesti di ricerca e di sperimentazione metodologica e tecnologica che convivono nel nostro quadro sociale nazionale2. Da ultimo, questa evoluzione di approcci, questo Open-approach istituzionale, ha chiarito molto, sia a livello centrale che periferico, le dimensioni e le prospettive di sviluppo anche dei progetti e dei sistemi informativi pubblici dedicati all’archeologia, alla tutela del patrimonio culturale, alla gestione programmata dei Beni, non ultimo, alla loro valorizzazione. Probabilmente, il risultato più importante a livello centrale è stato il recentissimo varo del SITAN, il Sistema Informativo Territoriale Archeologico Nazionale che il Ministero per i Beni e le Attività Culturali si accinge a sviluppare e diffondere. Il SITAN, infatti, si prefigge di stabilire un minimo comun divisore al fine di mettere in relazione sistemi informativi archeologici differenti per finalità e impostazione. A questo proposito è utile ricordare che recentemente l’ICCD ha fatto propria tale filosofia, inserendo nell’interfaccia MODI un set minimo di dati come requisito indispensabile per poter rendere compatibile qualsiasi tipo di dato schedografico con il modello logico del SIGEC, il Sistema Generale del Catalogo3. In sostanza, si potrebbe ravvisare in questo approccio dell’amministrazione pubblica un rinnovato sforzo teso a delineare i caratteri minimi di un Open-format sia sul piano del modello concettuale e logico del dato archeologico, sia sul piano dell’ambiente tecnologico utile alla condivisione, all’impiego e all’analisi specialistica delle informazioni. Dal momento in cui verranno pubblicate, le norme tecniche e scientifiche del SITAN tracceranno, dunque, il percorso innovativo entro il quale costruire nuove esperienze nel campo dei SIT e delle IDT, dedicati all’archeologia. Quel che può apparire come un ulteriore sforzo di centralizzare e di gerarchizzare la produzione e la gestione di dati amministrativi e scientifici da parte del MiBAC, è in realtà un grande passo evolutivo che conduce all’opposto verso una concreta ripartizione delle responsabilità istituzionali in merito al reperimento, alla conservazione e alla messa a disposizione di tali informazioni, “pubbliche”per stessa definizione di legge. In altri termini, il SITAN predispone il terreno istituzionale più opportuno per la progettazione e per la costruzione di sistemi tecnologici anche personalizzabili dalle utenze finali (Soprintendenze, istituti del MiBAC, enti pubblici territoriali, altre pubbliche amministrazioni, Dipartimenti universitari, consorzi di ricerca, soggetti giuridici pubblici controllati e soggetti privati), purché dotati di un comune “talento” di base dedicato al censimento essenziale dei dati archeologici e territoriali, nonché, elemento fondamentale, provvisti delle opportune interfacce di collegamento e di comunicazione interoperanti con il SITAN e con gli altri sistemi informativi compatibili. 3. Il progetto per il Sistema Informativo Territoriale Archeologico di Roma Il SITAR si inquadra bene in tale ampio contesto istituzionale e tecnologico, anche in virtù della partecipazione attiva della Soprintendenza archeologica di Roma ai lavori delle due commissioni paritetiche sui SIT e IDT e sull’archeologia preventiva. Per tali ragioni e anche per essere già de facto l’oggetto di collaborazioni istituzionali con altre 2 Con il D.M. 24 gennaio 2007 il Ministro per i Beni e le Attività Culturali ha istituito la prima Commissione Paritetica per la realizzazione di un Sistema Informativa Archeologico delle città italiane e dei loro territori (CARANDINI 2008, 199-207), e con il D.M. 22 dicembre 2009 è stata istituita la seconda Commissione Paritetica per lo sviluppo e la redazione di un progetto per la realizzazione del Sistema Informativo Territoriale Archeologico del patrimonio nazionale - SITAN. 3 Maggiori informazioni sul MODI sono reperibili sul sito web dell’Istituto Centrale per il Catalogo e la Documentazione, all’interno della sezione “Standard catalografici”, sottosezione “Normative in fase di sperimentazione” (http://www.iccd.beniculturali.it/index.php?it/211/sperimentazione-normative). 87 Soprintendenze archeologiche italiane, il SITAR si pone quale esperienza pilota nella costruzione allargata e condivisa di un SIT archeologico del territorio metropolitano della Capitale e, con maggiori ambizioni, di un’IDT pubblica compartecipata con la Regione Lazio, il Comune di Roma e il Comune di Fiumicino, l’Archivio di Stato di Roma, alcuni Dipartimenti dell’Università “Sapienza” e della III Università di Roma. Se gli standards ufficiali del SITAN rappresentano in qualche modo un primo Open-format per la costruzione di sistemi gestionali del dato archeologico, nonché per la modellazione elementare del dato stesso, il SITAR rappresenta già da tre anni la sperimentazione concreta e funzionale delle potenzialità di un design tecnologico semplificato e aperto a numerose implementazioni logiche, sia immediate che future. Scendendo nel dettaglio del sistema della Soprintendenza Speciale per i Beni Archeologici di Roma, si possono evidenziare alcune peculiarità della filosofia e dei caratteri Open che consentono di ampliarne costantemente l’architettura logica e informativa nelle più diverse direzioni. In effetti, seppur concepito nell’attuale linea dei SIT istituzionali archeologici, il SITAR intende valicare a breve termine il limite concettuale delle classiche strutture logiche GIS, tentando anzitutto di riformularne quel paradigma in troppi casi ancora tipicamente verticale, per poter conferire una nuova “volumetria” all’architettura informativa, verso un’articolazione tridimensionale che aspira ad allinearsi, con le dovute proporzioni, al concetto attuale della cloud4. In questo senso, il piano definibile come orizzontale del sistema è quello passante per le competenze giuridiche della Soprintendenza Archeologica e per le funzioni di pianificazione della tutela programmata, mentre la sfericità tridimensionale si potrà sviluppare in ogni direzione attraverso i collegamenti agli altri sistemi informativi pubblici, verso la costruzione di un sistema condiviso delle informazioni pubbliche e della conoscenza partecipata, una vera e propria IDT5. È chiaro già da questa formulazione in quale misura sia stato necessario contemplare fin dalle prime fasi progettuali un’astrazione concettuale e logica piuttosto avanzata e innovativa tra i caratteri fondamentali del SITAR. In altri termini, risulta evidente quanto l’importanza della semplicità e dell’ampiezza semantica sia stata tenuta sempre in primo piano nello sviluppo del design degli oggetti logici del sistema. Il frutto di questo orientamento è rappresentato nel SITAR da poche classi di entità logico-informative di base cui si possono e si potranno connettere efficacemente molte delle classi logiche degli altri sistemi informativi pubblici. Questa necessaria astrazione fa appello a un’economia progettuale e a una “semplificazione” (non a una banalizzazione) descrittiva degli oggetti che lascia aperte molteplici linee di sviluppo futuro, tanto a livello della singola classe logica, quanto del sistema nella sua complessità. È chiaro che tale carattere di sintesi e di pulizia del design tecnologico richiede sforzi maggiori in termini di riflessioni metodologiche e di risoluzioni operative per evitare di penalizzare in qualsiasi modo la completezza descrittiva degli oggetti astratti, ma tale impegno è ampiamente ripagato dalla modularità del sistema espandibile praticamente ad libitum. C’è un altro aspetto fondante della filosofia del SITAR, che si coniuga bene con le tendenze attuali in tema di sperimentazione e applicazione degli ambienti operativi dedicati all’ambito GIS\SIT\IDT, ovvero la maturazione di una posizione neutrale rispetto a scuole di pensiero e tradizioni consolidate in tema di infrastruttura tecnologica a supporto del sistema, compresi i softwares impiegati nella costruzione dell’architettura logica, nella modellazione dei dati, nella gestione e nell’editing delle informazioni geo-spaziali, nella loro pubblicazione sul web. Questo superamento appare come un elemento forse poco rilevante, ma in molti 4 Cfr. la voce relativa pubblicata su Wikipedia (http://it.wikipedia.org/wiki/Cloud_computing). Per maggiori informazioni sull’argomento IDT nel quadro europeo risulta utile consultare la voce dedicata su Wikipedia e i rimandi alla Direttiva INSPIRE ivi contenuti (http://it.wikipedia.org/wiki/INSPIRE). 5 88 casi alcuni limiti tecnici di un’esperienza progettuale sono connessi troppo intimamente non tanto con le scelte tecniche iniziali della progettazione quanto con la reale incapacità di rimodulare progressivamente gli strumenti operativi in base alle nuove esigenze che emergono durante lo sviluppo di un sistema informativo. Forse questo è realmente il passaggio cruciale rispetto al quale bisogna essere pronti a modificare tutte quelle sezioni dell’architettura logico-operativa che, dopo le opportune sperimentazioni, risultino meno prestanti ed efficienti. 4. Gli orientamenti tecnologici del SITAR Nel contesto del SITAR queste correzioni di rotta sono state preventivate fin dall’avvio della progettazione, anche in considerazione delle numerose variabili operative che un sistema informativo territoriale comporta in sé. Volendo porre in evidenza quelle salienti, alcune già affrontate e risolte, altre ancora in corso di analisi e di soluzione, si possono individuare le seguenti aree di azione (fig. 2): - RDBMS dedicato alla gestione dei dati archeologici, amministrativi e della tutela archeologica del territorio di Roma e di Fiumicino. Qui la scelta si è indirizzata fin dall’inizio sugli standards open-source di PostgreSQL, a partire dalla versione 8.4, esteso da PostGIS, a partire dalla versione 1.4; - Web applications dedicate al data-entry dei dati archeologici e amministrativi e della tutela. Qui l’opzione iniziale aveva previsto uno sviluppo improntato su Ruby onrails, mentre la scelta successiva si è orientata sul framework di Symfony 1.4.9; - WebSIT dedicato alla pubblicazione web, sia in intranet che in internet, dei dati scientifici e amministrativi pubblici. Qui la scelta si è rivolta fin da subito alla piattaforma tecnologica Autodesk Map Guide Enterprise, versione più prestante del noto web spatial data engine open-source Map Guide OS, dunque OGC compliant, che è stata dotata da Autodesk di alcuni tools basici di editing delle mappe e dei web-layouts, e soprattutto di apposite web-extentions che ne migliorano molto le funzionalità del motore cartografico. Per quest’area progettuale si prevede di implementare a breve l’ambiente di sviluppo delle interfacce utente del webGis del SITAR anche con strumenti open-source disponibili sul web e con alcune personalizzazioni degli applicativi basate su PHP e Ajax, con una finalità avanzata di realizzare nel medio termine un’interfaccia utente dotata anche delle funzionalità di editing cartografico direttamente all’interno del browser web; - Desktop editing dei dati geo-spaziali. In questo settore operativo, l’utilizzo massiccio di pacchetti stand-alone e di rete di Autodesk Autocad Map 3D + Raster Design 2009\2011 e di GeoGraph che viene fatto nel laboratorio interno del SITAR, può essere affiancato dall’impiego di vari softwares FOSS o commerciali, soprattutto per poter accogliere tutte le altre istanze interne ed esterne alla Soprintendenza archeologica; - Analisi e rielaborazione dei dati scientifici. Per questo ambito specifico di applicazione si stanno seguendo alcuni indirizzi primari che in buona sostanza corrispondono per adesso alle funzionalità più o meno peculiari di ciascun software commerciale o FOSS disponibile sul mercato o sul web; l’attesa nel medio termine è quella di implementare le funzioni specialistiche di analisi e di rielaborazione avanzata delle informazioni geo-spaziali, particolarmente di quelle archeologiche, nelle web applications sviluppate all’interno del SITAR, delegando temporaneamente le funzioni analitiche più complesse alla costante sperimentazione di strumenti prodotti e rilasciati dalle differenti communities di sviluppo; - Modellazione dei dati 3D, visualizzazione e interazione con gli standards di codifica più diffusi. In questo ambito - in generale ancora un po’ ristretto per numero di sperimentazioni che riescano a focalizzare concretamente le problematiche di modellazione, soprattutto, e, in diretta proporzione a essa, di gestione dinamica del dato 3D - il SITAR sta compiendo per ora i suoi primi passi, partendo anzitutto da una mappatura delle espe89 2. L’architettura software del SITAR. rienze trans-nazionali che appaiono come portatrici di reali innovazioni e da un focus sulle reali esigenze gestionali proprie del sistema. L’attesa in tema di 3D per il SITAR è quella di poter concludere nel medio termine una prima riflessione sul modello concettuale e sul modello dati più opportuni per la descrizione, l’archiviazione e la gestione delle informazioni spaziali e descrittive, contemplando ogni aspetto filosofico e procedurale utile tra quelli attualmente in voga (GML, CityGML6, KML, SVG, ecc.). A valle di questo primo risultato e in cooperazione con altri enti pubblici e auspicabilmente con il supporto tecnologico di una o più software-house, l’obiettivo primario è senza dubbio la definizione e realizzazione di un ambiente che sia realmente 3D-operativo sul piano quantomeno della modellazione e dell’analisi specialistica dei dati di base, e che risulti opportunamente prestante sul piano della visualizzazione più o meno realistica degli stessi. In sostanza, l’istanza di cui il SITAR si fa portatore è quella di una cooperazione istituzionale “alta” per conquistare un primo obiettivo concreto in termini di operatività e di trattamento delle informazioni spaziali archeologiche, tanto nella scala territoriale, quanto nel dettaglio del singolo manufatto. 5. Il SITAR e il web La rete costituisce per il SITAR un carattere infrastrutturale fondamentale, sia nel suo insieme di elementi fisici e virtuali che supportano le interazioni del sistema, sia nel traffico interno dei flussi di lavoro e dei dati prodotti, modificati, analizzati, sia infine nelle connessioni con gli altri sistemi informativi esterni all’istituto. Nel caso del SITAR il termine “rete” ha assunto un’ambivalenza legata al network sul quale il sistema si sta sviluppando. In effetti, le sedi della Soprintendenza archeologica sono rilegate tra loro attraverso il Sistema di Pubblica Connettività - SPC (fig. 3) che 6 90 Cfr. http://www.citygml.org; http://www.citygmlwiki.org; http://www.opengeospatial.org/standards/citygml. dovrebbe agevolare tutte le interazioni tra l’istituto e le altre pubbliche amministrazioni, le università e gli enti locali territoriali interessati dalla futuribile IDT dedicata alla governance compartecipata del territorio di Roma e di Fiumicino. Tuttavia, alcuni attuali limiti tecnologici del network SPC, specie in stretta relazione al centro-stella della intranet della Soprintendenza (sede di Palazzo Massimo alle Terme, nel Centro storico di Roma), hanno indotto già da tempo ad analisi tecniche più opportune in termini di connessione telematica da e per l’esterno, rivolgendo un’attenzione particolare alla rete ad alta capacità e velocità gestita in Italia dal Consortium GARR (Gruppo per l’Armonizzazione delle Reti della Ricerca), organismo no-profit co-fondato da CNR, INFV, CRUI e altri soggetti della ricerca nazionale. È evidente, difatti, come la scelta di progettare, di costruire e di diffondere il SITAR abbia comportato per la Soprintendenza archeologica di Roma la necessaria opzione di porsi anche in una nuova veste di provider di dati, web applications e web-services specialistici per il settore archeologico della Capitale, nei confronti di un’utenza che si fa ogni giorno più variegata e che, tendenzialmente, nel medio termine utilizzerà quali strumenti di lavoro quotidiano il WebGis e il WebDatabase, punti di forza della dotazione strumentale del SITAR. La scelta di un mezzo di connessione telematica ad alte prestazioni è fondamentale anche in termini di aumento dell’utenza complessiva e, di ritorno, sotto il profilo dell’accelerazione dei tempi di debug delle applicazioni e dell’infrastruttura tecnologica, secondo un paradigma ben noto nel mondo dell’open-source7. Tutto ciò con un’attenzione costante alla semplificazione del funzionamento degli applicativi e alla partecipazione concreta degli utenti nel processo generale di miglioramento del sistema. 7 3. Schematizzazione dell’Intranet della Soprintendenza archeologica di Roma. Resta fondamentale, al riguardo, STEVEN RAYMOND 1998. 91 6. La tracciabilità e l’apertura dei dati e delle informazioni nel SITAR Naturalmente, la prospettiva di aprire il sistema a una moltitudine di utenze differenti, nonché l’aggiornamento della stessa normativa sulla digitalizzazione delle pubbliche amministrazioni, impone quale obbligo costante nelle fasi di acquisizione, di produzione e di pubblicazione delle informazioni di base, quello di mantenere ben distinti - in modo assolutamente trasparente - i dati scientifici e amministrativi elementari da ogni successiva rielaborazione più o meno complessa operata su di essi, sia all’interno dell’istituto, sia all’esterno. Questo risultato viene ottenuto valorizzando al massimo gli aspetti legati alla tracciabilità delle informazioni e del processo cognitivo e rielaborativo che li ha generati, ponendo al contempo la massima attenzione alla garanzia della loro costante accessibilità, ben strutturata secondo opportune policies di accesso e di autenticazione degli utenti rispetto agli applicativi e alle basi di dati del SITAR8. Ciò anche al fine di tutelare tanto i proprietari legittimi dei dati quanto gli autori, nonché gli utenti intermedi e finali del SITAR in ordine alla qualità complessiva dei dati utilizzabili, e di non precludere le possibili future interazioni tra istituzioni pubbliche e soggetti privati nella gestione delle conoscenze sui beni culturali e delle informazioni correlate, anche nell’ottica di una reale common knowledge9. La prospettiva di voler rendere pienamente e correttamente accessibile il SITAR e il suo patrimonio informativo, anche in maniera tale che esso possa contribuire concretamente alla costruzione condivisa e compartecipata di una IDT istituzionale, è dunque la direttrice primaria lungo la quale si muovono il Progetto SITAR, lo sviluppo modulare del SIT e tutte le riflessioni volte alla sua estensione ed evoluzione continua, tendenzialmente multi-disciplinare. Tale prospettiva, per conseguenza, ha informato necessariamente anche le scelte prioritarie connesse con l’ampia varietà di utenze, di necessità operative attese e di contenuti culturali che verranno richiesti nel tempo al sistema stesso, richiamando fin dall’inizio l’attenzione del gruppo di sviluppo sull’apertura dei dati e delle informazioni derivate, sulla flessibilità dell’architettura generale e della piattaforma tecnologica che la supporta, e soprattutto sulla costante verifica dell’approccio metodologico complessivo, aspetti sui quali d’altronde si va concentrando anche la più recente normativa nazionale. L’intenzione, dunque, è certamente quella di realizzare un proprio SIT accessibile, superando gradualmente quelle visioni e posizioni ideologiche, sia interne che esterne, per così dire meno Open-, ma è soprattutto quella di “fare sistema” con tutti gli altri soggetti istituzionali e privati coinvolti, per poter estendere il concetto di compartecipazione e di cooperazione anche al processo di definizione dell’accessibilità e dell’apertura del patrimonio di conoscenze pubbliche, certamente con una regia alta che spetta alle istituzioni preposte dall’ordinamento nazionale corrente (DigitPA, ICCD, ICCU, Autorità Garanti, ecc., solo per citarne alcune), ma con il necessario, irrinunciabile contributo concreto di tutti gli attori che animano il settore dei Beni Culturali. 7. La logica informativa del SITAR L’architettura informativa del sistema consta di quattro livelli logici e informativi generali, necessari alla costruzione di un catasto dinamico delle informazioni scientifiche e amministrative10 (fig. 4). 8 Nel SITAR è stato appositamente implementato un sistema di ruoli e di permessi per ciascun utente, basato su uno schema RBAC che prevede quattro elementi cardine: utente, ruolo, permesso e associazione tra i primi tre elementi. 9 Cfr. Wikipedia, s.v. Common knowledge (http://en.wikipedia.org/wiki/Common_knowledge). 10 Si vedano in proposito i contributi dedicati alla logica del sistema ed alle procedure di elaborazione dei dati, pubblicati in SERLORENZI 2011. A questi primi livelli costitutivi dell’architettura, opportunamente sotto-articolati al loro interno, si stanno aggiungendo quelli correlati con la gestione della conoscenza pregressa delle architetture archeologiche. Questi ultimi livelli informativi sono stati l’oggetto di una prima esperienza di sinergia operativa tra il Servizio SITAR e l’équipe interdisciplinare di lavoro istituita dal Commissario delegato agli interventi di urgenza nelle Aree archeologiche di Roma e Ostia che, in stretto affiancamento alle strutture funzionali della Soprintendenza, è stata incaricata della redazione delle prime linee guida per l’analisi e la riduzione del rischio sismico dei singoli manufatti architettonici, ai fini della opportuna messa in sicurezza. Cfr. CECCHI 2011. 92 Altri livelli tuttora in corso di progettazione riguardano il “potenziale archeologico”, ovvero la determinazione di coefficienti che permettano di attribuire a ogni singola area territoriale un grado di rischio predittivo delle possibili interferenze tra le presenze storico-archeologiche e le nuove espansioni urbanistiche, oltreché di evidenziare alcuni elementi di valutazione indiretta in ordine alla ricostruzione progressiva dei paesaggi antichi. 4. Il modello logicoconcettuale del SITAR. In colore arancio le classi logiche già contemplate nelle fasi di analisi, ancora da implementare nel SITAR; in colore verde le classi logiche già implementate nel SITAR; in colore azzurro le classi logiche comuni ad altri SIT. La logica fondante del SITAR è articolata, dunque, in quattro momenti consecutivi che rispondono anche a esigenze trasversali tra differenti settori operativi dell’istituto e che coincidono con i quattro livelli informativi seguenti (figg. 5-7): 1. le Origini dell’Informazione (acronimo OI), ovvero i contesti amministrativi e\o scientifici entro i quali sono generati tutti gli elementi parziali o complessivi della conoscenza archeologica e topografica della città antica; dal punto di vista spaziale ciascuna Origine dell’Informazione corrisponde all’area complessiva di una singola indagine archeologica o di uno studio monografico di un complesso o di un monumento; 2. le Partizioni Archeologiche (o analitiche; acronimo PA), ovvero i rinvenimenti materiali individuati all’interno di ciascuna Origine dell’Informazione; per ciascuna Origine dell’Informazione, le Partizioni rappresentano le vere acquisizioni conoscitive, pur a volte solo frammentarie e spesso anche fortemente disallineate tra loro; 3. le Unità Archeologiche (acronimo UA), ovvero gli aggregati logici delle diverse Partizioni che devono essere analizzate contestualmente e secondo criteri di coerenza cronologica e funzionale, per condurre a una prima identificazione e designazione degli insiemi storico-topografici che hanno costituito i tessuti insediamentali storici della città e del suo territorio; 4. i Dispositivi di Tutela archeologica e monumentale (acronimo DT), ovvero l’esito intermedio tra l’azione di salvaguardia immediata e puntuale, nella maggior parte dei casi, del patrimonio antico e la più ampia progettazione della valorizzazione del territorio urbano e extraurbano, condivisa tra gli enti e i soggetti istituzionalmente preposti, quali il MiBAC, la Regione, la Provincia, i Comuni, le Associazioni, i Cittadini. L’obiettivo immediato del SITAR, conseguito proprio mediante l’implementazione costante di questi livelli informativi primari, è la conoscenza dei monumenti antichi 93 5. Schema riassuntivo del workflow di tipo bottomup che esemplifica il caso di tre indagini archeologiche, condotte tra il 1975 e il 1993, le quali hanno prodotto complessivamente sei partizioni archeologiche. L’analisi e l’interpretazione critica dei dati ha permesso l’identificazione di una villa romana e di un’area sepolcrale, cioè due unità archeologiche distinte. 6. Schema riassuntivo del workflow di tipo topdown che esemplifica la schedatura di un complesso termale il cui studio analitico avviene successivamente, suddividendolo in diverse partizioni archeologiche, sulla base della cronologia e della funzionalità degli ambienti. 7. Schematizzazione dei livelli informativi della tutela archeologica e monumentale. 94 (secondo standards che gradualmente divengano realmente condivisi), delle loro dimensioni fisiche attuali e di quelle originarie. Tale conoscenza si basa sempre sul binomio fondante della cronologia e della funzionalità e può essere sostanziata all’interno dell’architettura logica del SITAR mediante una descrizione complessiva, sia sintattico-semantica che geometrico-spaziale, dei periodi di fondazione o impianto, di vita funzionale, di utilizzo e di ri-funzionalizzazione, di abbandono e di degrado, di riscoperta e di valorizzazione, insomma: di vita storica del Bene in senso lato. 8. I primi risultati del SITAR Nel periodo di lavoro compreso tra il 2008 e il 2009, sono stati inseriti circa 8.500 records, tra Origini dell’Informazione e Partizioni analitiche, mediante la digitalizzazione di circa 7.000 documenti d’Archivio, quasi tutti afferenti a formati e standards di produzione molto disomogenei, legati per lo più alle differenti epoche di redazione delle documentazioni scientifiche (fig. 8). A partire dal mese di gennaio 2010 l’attività del Servizio SITAR si è concentrata nell’area circoscritta dalle Mura Aureliane (I Municipio - Centro storico), in relazione alla quale sono stati inseriti circa 4.500 records. Il lavoro è tutt’ora in corso e si conta di completare entro la fine del 2011 anche le aree del Palatino, del Campo Marzio e di Trastevere (fig. 9). Alla mole di dati processati dalla Soprintendenza si aggiungono, inoltre, quelli elaborati e forniti al SITAR dal Dipartimento di Archeologia Classica dell’Università “Sapienza” di Roma, con la quale, in virtù di un apposito Protocollo d’intesa, si sta realizzando un proficuo interscambio, operativo già dal 2009. 8. Prospetto statistico dei dati digitalizzati nel biennio 2009-2010. 9. Carta delle Partizioni archeologiche censite nel territorio del I municipio di Roma (fonte: WebGis SITAR). 95 10. Gli scavi per l’apertura di via dei Fori Imperiali. 96 9. Conclusioni La tutela del patrimonio culturale ormai deve interessare anche le nuove strategie di conservazione degli apparati documentali digitali che, da diverse angolature, descrivono e identificano ciascun Bene e che ne possono aumentare le opportunità di valorizzazione. In tale direzione, è proprio la mappatura digitale, la rappresentazione pur astratta, schematica e virtuale - che in ogni caso deve essere pubblica e quindi condivisa - che può sostenere, passo dopo passo, i nuovi processi di ri-elaborazione virtuosa e di valorizzazione del Patrimonio storico-territoriale, rappresentando di fatto l’unica soluzione per un suo riconoscimento univoco e convenzionale, e quindi per una tutela integrata: è regola fondante della cartografia, di qualsiasi cartografia, il rappresentare solo ciò che esiste, ciò che ha valore convenzionale, ciò che non va dimenticato. Allora, mappare un Bene è ammettere che un Bene esista e che abbia davvero il suo valore, per tutti (fig. 10). Molta strada va ancora percorsa, tentando di restare al passo con la rapida evoluzione della scienza informatica. È probabile che il successo del sistema e la sua evoluzione futura potrà avvenire solo con il supporto tecnologico del cloud computing in direzione di una “nuvola di sistemi”, in cui occorrerà tenere in debita considerazione anche il potenziale straordinario delle informazioni 3D, soprattutto dal punto di vista della progettazione di nuovi softwares. Tutte queste aperture necessiteranno di un grande impegno in termini istituzionali e tecnologici, poiché si tratta di relazioni e di interazioni con le altre esperienze progettuali che meritano la massima attenzione. Dalle nuove forme di diffusione integrata dei dati territoriali e scientifici di livello pubblico, strutturate già da tempo da diverse istituzioni, fino ai canali del geo-social-networking che oggi si trova in una fase di sviluppo rapidissimo, grazie alle enormi risorse finanziarie investite dai colossi mondiali dell’informazione globale (Google, Microsoft, ecc.). È indubbio l’appeal esercitato sul grande pubblico da questi progetti di raccolta e diffusione gratuita delle informazioni geografiche, culturali e commerciali, per cui è importante che anche l’archeologia si arricchisca di questo valore aggiunto per essere di nuovo elemento culturale di grande attrazione e divenire una disciplina “aperta” al contributo delle communities scientifiche e civiche. 97 Abbreviazioni bibliografiche CARANDINI 2008 A. Carandini, Archeologia Classica, Torino 2008. CECCHI 2011 Roma Archaeologia - Interventi per la Tutela e la Fruizione del Patrimonio Archeologico -Terzo Rapporto, R. Cecchi (ed.), Roma 2011. SERLORENZI 2011 SITAR - Sistema Informativo Territoriale Archeologico di Roma. Atti del I Convegno (Roma, 26 ottobre 2010), M. Serlorenzi (ed.), Roma 2011. STEVEN RAYMOND 1998 E. Steven Raymond, La Cattedrale e il Bazaar, pubblicazione on-line su Wikisources, 1998. Web links Conferenza GARR 2010 http://www.garr.it/eventiGARR/conf10/programma.html http://www.garr.it/eventiGARR/conf10/docs/detommasi-abs-conf10.pdf http://www.garr.it/eventiGARR/conf10/docs/serlorenzi-pres-conf10.pdf Convegno SITAR 2010 http://lnx.aiac.org/agenda/2010/Allegati_2010/locandina%20sitar.pdf Web site del SITAR h t t p : / / w w w . c o m m i s s a r i o archeologiaroma.it/opencms/export/CommissarioAR /sitoCommissarioAR/Strumenti/Cartografia/index.ht ml Web site della SSBAR http://archeoroma.beniculturali.it 15th Conference on Urban Archaeology 2010 http://www.stadtarchaeologie.at/?page_id=725 http://www.stadtarchaeologie.at/?page_id=889 http://www.stadtarchaeologie.at/?page_id=886 Web page SITAR su Wikipedia http://it.wikipedia.org/wiki/Sistema_Informativo_Territoriale_Archeologico_di_Roma" Referenze iconografiche Comune di Roma - Sovraintendenza per i Beni Culturali: fig. 10. Servizio SITAR della SSBAR: figg. 1-9. Ministero per i Beni e le Attività Culturali. Soprintendenza Speciale per i Beni Archeologici di Roma. Servizio SITAR - Sistema Informativo Territoriale Archeologico di Roma. 98 Piazza dei Cinquecento - 00185 Roma. Email: [email protected] Website SITAR: www.commissario-archeologiaroma.it (alla sezione “Cartografia”), "http://sitar.archeoroma.beniculturali.it/" Website culturale: http://archeoroma.beniculturali.it Francesca Cantone Open workflow, cultural heritage and university. The experience of the Master Course in Multimedia Environments for Cultural Heritage Abstract This paper focuses on a case study of open approaches to the cultural heritage workflow in the academic context of the master course in Multimedia Environments for Cultural Heritage at the University of Naples Federico II: cultural strategies, main features, outcomes and future developments of the project will be discussed. The formulation of the master course has its first methodological background in the activities carried on by an interdisciplinary research group on New Technologies and Humanities at the University of Naples Federico II. The master course didactical modules outline the operating workflow in the cultural heritage activities (from acquisition to management, analysis, output and dissemination of cultural heritage data) and explore transformations, enrichment, prospects of related disciplines in the forthcoming challenges emerging with technological evolution. Multimedia environments support the whole process shaping new possibilities of approach and research. The cultural strategy of the project is even complicated by further considerations about management and dissemination of public cultural data in the national and international scene: open approaches to cultural heritage data anticipate a massive circulation of such contents and their interaction and integration with a wider range of other layers of information from the economic, to the logistic and manufacturing ones. A higher education project, therefore, in the field of cultural heritage should prepare new professionals to the present and upcoming cultural heritage open workflow, both for the methodological and technological aspects. Open approaches implemented in the master course project will be discussed in order to outline methodological outcomes, best practices and future developments: - open /free software laboratory; - open didactical materials repository; - open cultural heritage network; - open didactical approaches; - cultural heritage ICT prototypes. 1. Multimedia environments and cultural heritage: a master course experience in Federico II Naples University «The protection of the archaeological heritage is a process of continuous dynamic development. Time should therefore be made available to professionals working in this field to enable them to update their knowledge. Postgraduate training programs should be developed with special emphasis on the protection and management of the archaeological heritage»1. 1 ICOMOS 1990. 99 The ICOMOS statement about archaeological professionals training can be expanded to the whole cultural heritage field, needing constant updating because of its deep and continuous methodological and technological development2. Such crucial consideration of cultural heritage education requirements was the main basis for establishing a postgraduate master course in Multimedia Environments for Cultural Heritage, harmonizing humanities and ICT disciplines and balancing contents and skills. Two main fields of experimentation of new open approaches can be identified in the project: - workflows for cultural content creation, sharing, circulation, by means of interdisciplinary, modular, distributed federated repositories; - definition of skills portfolios for next generation professionals, to be supported by innovation in didactical approaches and technological tools. 2. Methodological background: open e-learning and cultural heritage In the last decades the application of Information and Communication technologies to Archaeology and Cultural Heritage has been considered in association with communication and didactics even more tightly and more often than being in relation with research and methodological investigation. Indeed the possibilities of cultural communication were immensely enriched thanks to new technologies, sometimes with an implicit belief in their capability to impress and to appeal3. For a better use and exploitation of such potentials it is crucial to investigate communication theoretical models and didactical strategies involved in the process and to verify their expected implications. For instance, a lack of a deep consideration of didactical and communication structures has been already identified as a main reason for failure in museum multimedia presentations4. Correspondingly, in designing cultural heritage learning courses a strong investigation of the methodological implications of technologies application in educational design is required in order to construct efficient courses and to apply suited models, strategies and solutions for different educational purposes. In Technology Enhanced Learning scientific debate it is established that the current information revolution scenario demands people to acquire new skills to deal with continuous change5. Many didactical models were discussed to train and expand these capabilities. In particular, an increasing active role of students is one of the main topics in the scientific discussion about socio-costructivistic didactical models6. In particular the recently created “E-learning 2.0” definition identifies new models in which students take part in content construction, by using not only the technological tools (such as wikis, blogs, forums, shared repositories, image and video sharing tools, 2.0 platforms) but mainly the participative approaches typical of the new web scenario7. 2 CRISTOFANI 1994; BUFFARDI 2004; SETTIS 2007. E-learning in cultural heritage is the topic of one of the DIGICULT issues, the well-known reports dedicated to the technological trends in cultural heritage (DIGICULT 2003). In Italy the national institution for catalogues and documentation, ICCD; developed an e-learning initiative related to its SIGEC information management system (E-SIGEC http://www.iccd.beniculturali.it/elearning/web/sito.html). For archaeological case studies: POLITIS 2008; VAN LONDEN et alii 2010. 4 GUERMANDI-SANTORO BIANCHI 1996. 5 CNIPA 2007; OLIMPO 2010. 6 MIDORO 2002; TRENTIN 2005; CALVANI 2002; CALVANI 2011. 7 BONAIUTI 2006. 3 100 In this context Open Learning initiatives set up, Boston MIT OpenCourseWare being the best known8, with a growing notoriety and consistency, and a rich debate about the cultural, economic, social implications of the free circulation and massive open access to high-quality didactic contents9. In the cultural heritage field Open Learning and Open Content Repositories issues seem to be strictly interconnected involving creation, sharing, dissemination, fruition of knowledge in a possibly uninterrupted workflow in a community joining university, research institutions, territorial authorities from the micro to the macro scale, students, citizens, private companies. 3. Multimedia Environments for Cultural Heritage: open approaches The design and implementation of a Master course in Multimedia Environments for Cultural Heritage is one of the main didactic outcomes of the studies by a research group on the interactions between cultural heritage and ICT active in the last fifteen years in Federico II University10. A complete cultural heritage workflow is outlined, from planning to data acquisition and management to analysis and communication, introducing and discussing the wide range of new methodologies and approaches emerging with the digital revolution. Furthermore this project didactical approaches are based on the results of another research line in the same university about didactical technologies experimentation both in academic and life-long learning11. In 2009 a Blended Learning SCORM module on “Information and Communication Technologies and Archaeology” was realized and tested12. Its methodological outcomes were enriched with further extensive experiences and finally for the master course a complete catalogue of fifteen blended modules was developed, embracing a wide range of disciplines of humanities and their interaction with new technologies. In the following a brief overview of the activities will be described, focusing on the main open approaches implemented: open workflow/didactical approaches, open community/repository; open source software/laboratory and a preliminary report on the four demo prototypes realized13. The overall didactical methodological background of the activities carried on in the last years by the project research group was outlined in a communication in 2009 ArcheoFOSS meeting dealing with a Blended Course on Information and Communication Technologies and Archaeology and the related shared content repository and virtual community14. The research agenda drawn in that experience has been followed and enriched in the master course project, identifying present limitations and best practices, expanding boundaries and opening new challenges for future work. One of the main topics has been the definition of a workflow for the shared repository of cultural content, that has been widened to cover a broad range of humanities and ICT disciplines, with different didactic curricula, needs and purposes. The Campus Unina environment was intensely used to support different levels of distributed creation, sharing and access to different kind of materials, from private drafts 8 http://ocw.mit.edu/index.htm. FULANTELLI et alii 2011. 10 CANTONE et alii 2009 b. 11 ANDRONICO et alii 2002; TORTORA 2003; CANTONE et alii 2009 a; CHIANESE et alii 2010. 12 CANTONE et alii 2009 b. 13 For a deeper presentation and discussion of overall master course issues, methodologies, strategies see also the proceedings of the dedicated workshop at Federico II University (CANTONE c.s.). 14 CANTONE et alii 2009 b. 9 101 1. The Master Campus Unina content sharing community (open contents screenshot). to shared working documents to open access contents freely available15 (fig. 1). The 2009 project experience made it clear that the content repository could be improved by the participation of a wide community of users to the content creation and sharing activities. Starting from this basis a deeper interaction with web 2.0 communities was encouraged to explore the possibilities associated with the various interest communities, from the general to the specialized ones (fig. 2). In this regard, the traditional institutional website (http://www.archeo.unina.it/master) and email contact ([email protected]) were increased with master accounts and active presence on the main social networks as listed in the following: Facebook: ambienti multimediali per i Beni Culturali; Youtube: mastermultibec; Twitter: mastermultibec; Linkedin: master ambienti multimediali per i Beni Culturali; Academia.edu: AMBIENTIMULTIMEDIALI BENICULTURALI. This brought to the quick constitution of a wide interest community, made of thousands of students, scholars, experts, institutions, common people, going on and growing also after the master course end with exchange of opinions, information, events (fig. 3). This way it supports the realization of one of the main project goals: encouraging and supporting the methodological discussion about the perspectives of approach to cultural heritage in the context of updating professional skills and cultural knowledge. Furthermore the experimentations carried on in the last years identified another field of operations to emphasize even more: the open source software support. In order to develop this methodological main line, the master course is supported by open source software both for overall didactic activities (for instance: office automation, didactical services, networking, community based learning, learning management systems and so on), and for the laboratory and project-work phases (for instance: image proces- 15 102 CANTONE et alii 2009 a. sing, XML based cataloguing, web editing, structured didactical content authoring and management and so on). A new laboratory was set up jointly with the master course, dedicated to multimedia application to cultural heritage, hosted in Federico II Montesantangelo venue and equipped with the software instruments selected for the project work implementation. It may be useful to sum up the operating chain defined and the main open source software tools used. Besides is to be remarked that the 2.0 learning approach to the project work development allows students to customize their didactical needs. 2. The Master Campus Unina content sharing community (community contents screenshot). 3. The Master Facebook fan page. 103 For this reason the grid presented in the following is not meant to propose a definitive approach to a open source workflow in cultural heritage but principally it reflects a course framework developed by and with the 2009/2010 community (students, tutors, experts, teachers) choosing among the various possibilities of open tools presented. 4. Demo prototypes report In the project work phase four groups were established (based on the assessment of a wide range of features, from curricula to interests, skills, inclinations, personal interactions). Each group delineated and developed a demonstrator prototype in a specific field of interaction between cultural heritage and technologies, that will be briefly described in the following with a scheme reporting: theme, title, abstract, main open source software support, screenshot. Theme Archeology, new media, new methods. Title C.S.A. Computer System in Archaeology: georeferencing, cataloguing, 3D reconstructing of Elea/Velia territory (Rosa Ciccarelli, Pietro Melchionna, Annamaria Santamaria, Saverio Serafino, Pasquale Visone). 16 Websites of the cited open projects, listed as presented in the text, and visited last time on 30 december, 2011: http://inkscape.org/; http://www.gimp.org/; http://wordpress.com/; http://www.openoffice.org/; http://www.joomla.org/; http://www.chamilo.org/; http://moodle.org/; http://camstudio.org/; http://www.virtualdub.org/; http://www.syntext.com/products/serna-free/; http://www.blender.org/; http://www.qgis.org/; http://audacity.sourceforge.net; http://musescore.org/. 104 Abstract The project methodological background is the application of information and communication technologies in the archaeological discipline17. The focus is the study and definition of an integrated interpretation model of Focean colonies in the ancient Mediterranean Basin. The first prototype implemented is aimed at an analysis of the urban features of Elea/Velia, in the South of Italy, and of its development between IV and III centuries b.C18. supported by GIS methodologies and technologies19. Furthermore a project website has been developed for the project results divulgation and for scientific networking purposes: http://csaproject.altervista.org/. Main open source software Gimp, Inkscape, Qgis, Wordpress. 4. C.S.A. Prototype Screenshot. C.S.A. Prototype Screenshot (fig. 4) Theme Digital products and multimedia for territorial development. Title MediaMiglio - Museum and documentation center of Miglio d’oro (Loredana Riccardi). Abstract The project aims at the territorial development and touristic exploitation of the cultural heritage of the Vesuvian area called Miglio d’Oro. The main outcome of the prototypal phase has been the proposal of a private business networking group, focused on the use of multimedia products for cultural communication. As a first step, a website has been realized to divulge cultural information about the monuments of the area and of the related development project: http://migliodoro.altervista.org/. Main open source software Gimp, Inkscape, Open data. 17 MOSCATI 2009. GRECO 2003. 19 DJINDJIAN et alii 2008; AZZENA 2009. 18 105 5. MediaMiglio Prototype Screenshot. MediaMiglio Prototype Screenshot (fig. 5) 6. Napoli Virtual Look Prototype Screenshot. Theme Virtual museums and new comunication approaches. Title Napoli Virtual Look (Anna Cozzolino, Annalisa Esposito, Roberta Gargiulo, Licia Pucella, Viviana Zafarana). Abstract The methodological context of this project are new virtual museologies and their use to promote knowledge sharing in the cultural heritage field20. The topic of interest is Napoli fashion and costume between ‘800 and ‘900. The proposal is a virtual museum in a Tridimensional Multiuser Virtual Environment, with 3D reconstruction of the clothes (thanks to the cooperation of Fondazione Mondragone, Textile and Fashion Museum “Elena Aldobrandini”) and links to the related scientific information (descriptions, pictures, archival documents, and so on). The prototypal phase main outcomes are: the implementation of the project website, the outline of a 3D Fashion and Costume Virtual Museum on Second Life; a review of contemporary fashion stylist on Second Life and of their opinions about the interaction between fashion, the virtual world, users needs; the definition of a scientific cataloguing schema for the costumes of the Mondragone Museum and their 3D and 2D photographic documentation. The virtual world prototype has been developed in Second Life to make the most of the interaction with the well established and numerous community of expert users, but a second phase of the project is to be developed in a open source 3D MUVE21. Screenshots, prototypal materials and further details in: http://napolivirtualook.jimdo.com/. Main open source software Gimp, Inkscape, Blender, Gimdo,Virtualdub. Napoli Virtual Look Prototype Screenshot (fig. 6) 20 ANTINUCCI 2007; MOSCATI 2007; Minerva 2008; GRECO et alii 2008. Also by making the most of the previous experimentations on developing 3D environments for e-learning cultural heritage communities, presented and discussed in CANTONE et alii 2011. 21 106 Theme Evolving scenarios in communication and didactics of cultural heritage. Title Educational Village (Daniela Di Monaco, Filomena Gliottone, Claudio Iannotta, Assunta Vanacore). Abstract The project goal is to use new technologies to enhance communication and didactics of cultural heritage. The prototype realized is an e-learning course on Caserta medieval village, developed in standard SCORM format by means of IDEA software, an experimental tool developed by Federico II researchers to support the diffusion of technology enhanced education22. The Caserta medieval village multimedia is a first step in the implementation of a rich set of didactical and divulgation services about Campania medieval cultural heritage. One of the main project outcomes has been the definition of a start up in the cultural tourism services field. These services will be supported by the open source tools for E-learning materials authoring and course management tested (among them Chamilo and Moodle seem to be the most promising technologies for the Educational Village project purposes). Furthermore the website developed to publish information about the project is the first prototype of a e-commerce portal, to support on line booking of the services proposed and merchandising of local products: http://eduvillage.altervista.org/. Main open source software Inkscape, Gimp, Idea, Chamilo, Moodle, Virtualdub. Educational Village Screenshot (fig. 7) 7. Educational Village Prototype Screenshot. Prototype 5. Open approaches to cultural heritage in the academic context. The Multimedia Environments for Cultural Heritage master course experience: outcomes, best practices, present limitations, future developments. This paper presented an experimentation carried on in the academic context with the implementation of open approaches to cultural heritage communication. The master course in Multimedia Environment for Cultural Heritage was the last 22 CANTONE et alii 2009 b. 107 step of previous research lines on the application of new technologies to cultural heritage and to didactics. The main open approaches experimented were described: open workflow/didactical approaches, open community/repository; open source software/laboratory and cultural heritage ICT demo prototypes. Many encouraging outcomes confirmed the project hypotheses and good expectations deriving from applying open didactical approaches: students showed better results in final curricular exams with an interesting improvement in skills, knowledge and group interaction and personal maturity. Shared construction of knowledge supported by open semantic repositories was one of the best tests developed during the master course. These results were perfectly coherent with the ones of previous steps of experimentation of blended didactic strategies in archaeology in the academic curriculum. Furthermore the interdisciplinary open content repositories developed during the course are still alive after the end of 2009/10 didactic activities, sustaining easy transformations from learning communities to practice and work communities. Further efforts are needed to enrich such strategies and to support a stronger linking of the communities developed to the territorial professional structures and official institutions23. More studies will be dedicated also to the definition of requirements and the development of highly specialized contents and courses for particular curricula24. This way the emerging new approaches can impact the whole workflow of Open Cultural contents creating, analyzing, sharing, by supporting information circulation, interdisciplinary integration, shared construction of knowledge25. Use of existing open source tools and development of new software can contribute to the whole process in order to match the needs of the public administration forthcoming standards and to fulfill the cultural heritage specific needs. This kind of practice will support a better integration of contents and skills in order to improve the technology dissemination and innovation diffusion for the exploitation of cultural heritage and territorial development by making the most of new professionals and specialists. 23 MAUTONE 2006. For case studies and a discussion of e-portfolio development in e-learning: BONAIUTI 2006. 25 JONES 2007. 24 108 Abbreviazioni bibliografiche IV Workshop, P. Cignoni, A. Palombini, S. Pescarin (edd.), Roma 2009, ACalc, suppl. 2, 2009, 309-319. ANDRONICO et alii 2002 A. Andronico - A. Chianese - B. Ladini (edd.), ELearning. Strumenti, metodi e esperienze a confronto. Didamatica 2002. Informatica per la didattica, Napoli 2002. ANTINUCCI 2007 F. Antinucci, Musei Virtuali, Roma 2007. CANTONE et alii 2011 F. Cantone - A. Chianese - V. Moscato - S. Serafino, La casa dei Pithoi a Serra di Vaglio. Una sperimentazione di ambiente 3D Open Source per la fruizione di beni archeologici, in ArcheoFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica, Atti del V Workshop, G. De Felice, G. Sibilano (edd.), Foggia 2010, Bari 2011, 125-134. AZZENA 2009 G. Azzena, Punto di non-ritorno (Cartografia numerica, Sistemi Informativi Territoriali, Analisi spaziali), in ACalc, 20, 2009, 169-177. CHIANESE et alii 2010 A. Chianese - V. Moscato - A. Picariello, I fondamenti dell’informatica per gli umanisti. Un viaggio nel mondo dei BIT, Napoli 2010. BONAIUTI 2006 G. Bonaiuti, E-Learning 2.0. Il futuro dell’apprendimento in rete, tra formale e informale, Trento 2006. CNIPA 2007 Vademecum per la realizzazione di progetti formativi in modalità e-learning nelle pubbliche amministrazioni, in I Quaderni Centro Nazionale per l’Informatica nella Pubblica Amministrazione, 32, 2007(http://www2.cnipa.gov.it/site/_files/cnipa_qua d_32.pdf). BUFFARDI 2004 A. Buffardi, La formazione professionale tra tradizione e innovazione, in Educazione al Patrimonio Culturale: problemi di formazione e di metodo, Atti del Convegno Nazionale, M. R. Iacono, F. Furia (edd.), Caserta 2002, Caserta 2004, 87-96. CALVANI 2002 A. Calvani, Elementi di didattica. Problemi e strategie, Roma 2002. CALVANI 2011 A. Calvani, Principi dell’istruzione e strategie per insegnare. Per una didattica efficace, Roma 2011. CRISTOFANI 1994 Beni Culturali. Ricerca, Didattica, Profili professionali, Atti del Convegno, M. Cristofani (ed.), Napoli 1991, Napoli 1994. DIGICULT 2003 Learning Objects from Cultural and Scientific Heritage Resources, DIGICult Thematic Issue, 4, 2003. CANTONE c.s. Ambienti Multimediali per i Beni Culturali, Atti del Workshop, F. Cantone (ed.), Napoli 2010, Napoli c.s. DJINDJIAN et alii 2008 F. Djindjian - H. Noizet - L. Costa - F. Pouget, Webmapping dans les sciences historiques et archéologiques, Actes du Colloque International, Paris 2008, ACalc, 19, 2008. CANTONE et alii 2009 a F. Cantone - A. Chianese - G. Cirillo - V. Curion, Una piattaforma di servizi integrati per la didattica universitaria. L’esperienza di Campus all’Università degli Studi di Napoli Federico II, in Si-El 2009, VI Congresso della Società italiana di E-Learning 2009 (atti su cd-rom). FULANTELLI et alii 2011 G. Fulantelli - M. Gentile - D. Taibi - M. Allegra, La centralità dei docenti per il successo delle risorse educative aperte, in TD. Tecnologie Didattiche, 19, 2011, 80-87. CANTONE et alii 2009 b F. Cantone - A. Chianese - V. Moscato, Archeologia Virtuale in Blended Learning. Esperienze, metodologie e strumenti all’università Federico II di Napoli, in ArcheoFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica, Atti del GRECO 2003 Elea-Velia. Le nuove ricerche, Atti del Convegno di Studi, G. Greco (ed.), Napoli 2001, Pozzuoli 2003. GRECO et alii 2008 G. Greco - B. Ferrara - F. Cantone, Museo Narrante. The Foce Sele Hera Sanctuary Virtual Museum, in 109 Layers of perception, Proceeding of the 35th International Conference on Computer Applications and Quantitative Methods in Archaeology (CAA), A. Posluschny, K. Lambers, I Herzog (edd.), Berlin 2007, Berlin 2008, 418-425. GUERMANDI - SANTORO BIANCHI 1996 M. P. Guermandi - S. Santoro Bianchi, Didattica e informatica nei musei archeologici: un binomio incompiuto. Riflessioni a margine di una indagine in museo, in ACalc, 7, 1996, 1077-1089. ICOMOS 1990 Charter for the protection and management of the archaeological heritage, prepared by the International Committee for the Management of Archaeological Heritage (ICAHM) and approved by the 9th General Assembly in Lausanne 1990 (http://www.international.icomos.org/charters/arch_e .htm). JONES 2007 C. Jones, Institutional Repositories: Content and Culture in an Open Access Environment, Oxford 2007 MAUTONE 2006 M. Mautone, Linee strategiche e criteri di sviluppo per le attività del Dipartimento Patrimonio Culturale, Roma 2006. MIDORO 2002 V. Midoro, Dalle comunità di pratica alle comunità di apprendimento virtuali, in TD. Tecnologie Didattiche, 25, 2002, 3-10. Minerva 2008 Minerva Handbook on cultural web user interaction, 2008 (http://www.minervaeurope.org). MOSCATI 2007 Virtual museums and archaeology. The Contribution of the Italian National Research Council, P. Moscati (ed.), ACalc, suppl. 1, 2007. MOSCATI 2009 La nascita dell’informatica archeologica, Atti del Convegno Internazionale, P. Moscati (ed.), Roma 2008, ACalc, 20, 2009. POLITIS 2008 D. Politis, E-Learning Methodologies and Computer Applications in Archaeology, in Information Science Reference, Athens 2008. OLIMPO 2010 G. Olimpo, Società della conoscenza, educazione, tecnologia, in TD. Tecnologie Didattiche, 50, 4-16. SETTIS 2007 S. Settis, Italia S.p.A. L’assalto del patrimonio culturale, Torino 2007. 110 TORTORA 2003 G. Tortora, On/off Learning, Napoli 2003. TRENTIN 2005 G. Trentin, Apprendimento cooperativo in rete: un possibile approccio metodologico alla conduzione di corsi universitari online, in TD. Tecnologie Didattiche, 36, 2005, 47-61. VAN LONDEN et alii 2009 H. Van Londen - M. S. M. Kok - A. Marciniak, ELearning Archaeology: Theory and Practice, Amsterdam 2009. Per tutti i riferimenti web ultimo accesso in data 18/04/2012. Referenze iconografiche Autore: figg. 1-7. Francesca Cantone Università degli Studi di Napoli Federico II. Laboratorio di informatica applicata all’archeologia. [email protected]. Federico Morando Prodromos Tsiavos Diritti sui beni culturali e licenze libere (ovvero, di come un decreto ministeriale può far sparire il pubblico dominio in un paese) Abstract This article analyses the Italian Cultural Heritage Law (Legislative Decree 42/2004, Art. 107) and makes some references to similar laws, such as the Greek one (Law 3028/2002, Art. 46), highlighting how these sets of norms produce a quasi-intellectual-property protection concerning the cultural heritage of these nations. The so-called cultural heritage of a Nation, in the theory of copyright, should fall by definition into the public domain: «the wealth of information that is free from the barriers to access or reuse usually associated with copyright protection» and which also represents a fundamental «basis of our self-understanding as expressed by our shared knowledge and culture» (see the Manifesto of the Public Domain). However, the analysis of the legislation on cultural heritage (at least in Italy and Greece) shows that most of the objects which are historically, archaeologically, architecturally significant, and so on, even when their authors have died for well over 70 years (the term of duration of copyright), are far from being freely reusable by anyone. Conversely, one faces the paradox that almost everything that is older than fifty years ends up being protected by “cultural heritage rights”, even before escaping the constraints created by copyright. In short, Italy and Greece do not enjoy a public domain concerning the images of their statues, their churches, their paintings, their manuscripts and, in general, their cultural heritage and their monuments. One of the practical consequences of such a situation is that it is extremely difficult (if not impossible, at least theoretically) to publish photos of objects preserved in our museums on user generated platforms such as Wikipedia. And this legal setting also implies that a researcher would face complex legal issues, if he or she wanted to publish online some scientific articles featuring images of cultural heritage goods. In this context, the first part of this article analyses the Italian Code of Cultural Heritage and Landscape for the part related to the creation of reproductions of cultural heritage goods. Then, the second part of the article drafts some approaches, which are alternative to the existing legal scenario and under which cultural institutions would be able to pursue most of their current goals, without impoverishing the public domain. 1. Introduzione Questo articolo analizza brevemente alcuni aspetti della legge sui beni culturali italiana (Decreto Legislativo 42/2004), evidenziando come questa e simili normative (ad esempio quella greca, ai sensi della Legge 3028/2002) creino un quasi-diritto-di-proprietà-intellettuale sul patrimonio culturale di queste nazioni. Il cd. patrimonio culturale di una nazione, nella teoria del diritto d’autore, ricade per antonomasia nel pubblico dominio: quella «preziosa risorsa di informazioni che è libera dalle barriere all’accesso o al riuso generalmente associate alla tutela del copyright» e 111 che rappresenta anche una fondamentale «espressione del bagaglio comune di conoscenze e cultura» di un popolo (Manifesto del Pubblico Dominio)1. Tuttavia, analizzando la normativa sui beni culturali (almeno in Italia e in Grecia) si evince come la maggior parte degli oggetti storicamente, archeologicamente, architettonicamente rilevanti e così via, anche quando i loro autori sono morti da ben più dei 70 anni di durata del diritto d’autore, siano ben lungi dall’essere liberamente riutilizzabili da parte di chiunque. All’opposto, si finisce in un paradosso per cui quasi tutto ciò che è più antico di una cinquantina d’anni finisce per essere imbrigliato da vincoli all’utilizzo, legati a vari cultural heritage rights, ancor prima di sfuggire ai vincoli creati dagli intellectual property rights. Insomma, Italia e Grecia si trovano prive di un pubblico dominio sulle immagini delle loro statue, delle loro chiese, dei loro codici miniati custoditi nelle biblioteche pubbliche e, in generale, dei loro beni culturali e dei loro monumenti. Le conseguenze pratiche di una situazione del genere sono varie, per esempio, l’estrema difficoltà (se non l’impossibilità, almeno teorica) di pubblicare su Wikipedia foto di oggetti custoditi nei nostri musei. Ma anche la necessità di attendere complesse autorizzazioni prima di poter pubblicare vari tipi di articoli e/o libri, in particolare qualora questa pubblicazione avvenga sul Web. In questo contesto, l’articolo consiste in una prima parte che analizza in un certo dettaglio la normativa sui beni culturali italiana (per la parte relativa alle riproduzioni dei beni culturali). La seconda parte dell’articolo si propone invece di descrivere alcune soluzioni, alternative allo scenario attuale, grazie alle quali le istituzioni culturali riescano a perseguire i propri scopi di tutela e valorizzazione, senza impoverire il pubblico dominio e senza frustrare gli obiettivi di disseminazione e arricchimento della cultura che sono al fondamento della loro stessa esistenza2. 2. Panoramica sull’interazione tra diritti sui beni culturali e pubblico dominio Le leggi a tutela dei beni culturali (Cultural Heritage Protection Laws o CHPL) prevedono in alcuni stati membri dell’UE (ad esempio in Italia, ai sensi dell’art. 107 del D.lgs. 42/2004, o Grecia, secondo l’art. 46 della Legge n. 3028/2002) misure inerenti al controllo dell’accesso ai beni culturali (in taluni ordinamenti definiti anche risorse culturali o monumenti) nonché alle loro riproduzioni3. Questo genere di controlli di accesso, spesso esercitati dallo Stato attraverso il Ministero della Cultura o le sue divisioni locali e/o regionali, può imporre un livello di restrizioni addizionali rispetto all’utilizzo di lavori altrimenti liberamente riproducibili in termini di diritto d’autore (o copyright). Ciò pone una prima serie di problemi di base: un turista finlandese che scatta una fotografia del Partenone di Atene potrebbe violare la disciplina greca in materia di protezione del patrimonio culturale, specialmente se lo stesso avesse intenzione di pubblicare l’immagine sul Web. Lo stesso potrebbe accadere in Italia, di certo all’interno dei musei, 1 Disponibile a http://publicdomainmanifesto.org/manifesto (ultima visita, 14 luglio 2011). Gli autori ringraziano per gli spunti forniti (e riportati nella seconda parte del presente articolo) tutti i partecipanti alla riunione del gruppo di lavoro 3 (WG3 on Libraries, museums and archives) del network tematico europeo sul pubblico dominio digitale COMMUNIA (http://communia-project.eu/), tenutasi il 10 dicembre 2010 a Istanbul e finalizzata all’elaborazione di raccomandazioni di policy inerenti la tutela del patrimonio culturale e il pubblico dominio. Un ringraziamento particolare va a Stefano Costa di Open Knowledge Foundation Italia. 3 Si noti che una sistematica analisi di diritto comparato sarebbe necessaria a individuare altri paesi che, sia all’interno che all’esterno della EU, prevedono normative che restringano le riproduzioni fotografiche dei loro beni culturali. Ad esempio, la Turchia prevede, ai sensi dell’art. 34 della Legge 2863/1983 che: «Shooting of photographs and films [...] of the movable and fixed cultural assets existing in the ruins and museums reporting to the Ministry of Culture and Tourism for instruction, education, scientific research and promotion purposes is subject to the permission of the Ministry of Culture and Tourism. Relevant principles are established through regulations». 2 112 ma eventualmente anche per ciò che concerne la riproduzione di monumenti visibili dalla pubblica via4. D’altra parte, alcuni stati hanno adottato approcci più mirati in questo campo: ad esempio, il Portogallo avrebbe elencato solo cinque edifici di rilevanza artistica e culturale, che non possono essere liberamente fotografati5. Apparentemente, invece, molti paesi del Nord Europa non porrebbero limiti alla fotografia di beni culturali, sia che si tratti di edifici storici che di opere artistiche. Al riguardo, si osservi che le leggi a tutela del patrimonio culturale sono state, perlopiù, concepite in epoca pre-digitale e anche quelle che sono state recentemente rivisitate (come per il caso italiano, che sarà descritto nel prosieguo) a quanto pare trascurano la facilità con cui è attualmente possibile creare riproduzioni digitali dei beni culturali (a costo quasi zero e senza rischio di danneggiare gli stessi) e soprattutto le relative opportunità, anche in termini di crescita e partecipazione culturale dei cittadini. A questo riguardo è importante sottolineare come talune istituzioni culturali detengano diritti di quasi-proprietà intellettuale concernenti non solo le opere di cui sono custodi, ma anche le loro immagini o altre riproduzioni, ponendo così gravi restrizioni non solo all’uso personale, ma anche allo sviluppo di archivi pubblici come Wikimedia Commons6. Per quanto molte di queste istituzioni siano impegnate attivamente in collaborazioni con i creatori di contenuti aperti online, è importante che il legislatore e queste stesse istituzioni si chiedano costantemente se i diritti relativi alla circolazione delle immagini dei beni da esse detenuti non rischino di rappresentare più un limite che un’opportunità per la diffusione della conoscenza, nel contesto del Web 2.0. Riguardo le licenze adottate dalle istituzioni culturali, poi, la frequente distinzione tra uso commerciale e non-commerciale risulta essere particolarmente dannosa, ponendo più problemi di quanti ne risolva. In particolare, questa distinzione non tiene conto dell’esistenza dei beni comuni (commons) e del pubblico dominio, in altre parole, di contenuti che hanno allo stesso tempo caratteristiche di creazione e uso frequentemente noncommerciale, ma che verrebbero resi meno utili dalla “sterilizzazione” dei potenziali riutilizzi commerciali a valle. Un fotografo, ad esempio, potrebbe voler pubblicare le sue fotografie di korai arcaiche sotto una licenza Creative Commons7, Attribuzione, Condividiallo-stesso-modo (CC BY-SA), consentendo in tal modo qualsiasi tipo di riutilizzo, dalla incorporazione in Wikimedia Commons alla pubblicazione di una guida turistica o un libro di testo. Tuttavia, vietare l’uso commerciale della foto imporrebbe al fotografo di utilizzare a sua volta una licenza di tipo Non-Commerciale (es. CC BY-SA-NC), il che rende- 4 Come vedremo in seguito, pare andare in questo senso l’interpretazione della lettera della normativa italiana. In merito alla riproduzione fotografica di beni culturali visibili dalla pubblica via, si veda tuttavia la risposta che, in data 5 febbraio 2008, il Governo ha fornito all’interrogazione parlamentare (n. 4-05031) in tema di “libertà di panorama”. Nell’ambito di tale risposta (che gli autori di questo lavoro condividono in linea di principio) si affermava che «In Italia, non essendo prevista una disciplina specifica, deve ritenersi lecito e quindi possibile fotografare liberamente tutte le opere visibili [dalla pubblica via], dal nuovo edificio dell’Ara Pacis al Colosseo, per qualunque scopo anche commerciale». (Per ulteriori dettagli, si rimanda anche ahttp://it.wikipedia.org/wiki/Utente:Alcuni_Wikipediani/Libert%C3%A0_di_panorama#La_risposta_del_Governo; e http://punto-informatico.it/2189657/PI/News/governo-diritto-panorama.aspx; visitati per l‘ultima volta il 14 luglio 2011). Per un’articolata discussione in dottrina, che raggiunge simili conclusioni, v. RESTA 2009. 5 Gli autori ringraziano per questa indicazione i partecipanti al WG3 del network tematico europeo sul pubblico dominio digitale COMMUNIA: v. supra, nt. 2. 6 Wikimedia Commons (http://commons.wikimedia.org) è un archivio di immagini liberamente riutilizzabili, che fornisce - in particolare - una fonte preziosa per le illustrazioni dell’enciclopedia online generata dagli utenti Wikipedia. A oggi (14 luglio 2011), Wikimedia Commons ospita 10.541.773 contenuti multimediali liberamente riutilizzabili, molti dei quali di tipo fotografico. 7 Per un’introduzione alle licenze Creative Commons, per altro funzionale all’analisi della loro applicabilità alla distribuzione di riproduzioni di beni culturali: DE ANGELIS 2009 a; DE ANGELIS 2009 b. Disclosure: Prodromos Tsiavos è legal project lead per Creative Commons England and Wales e Creative Commons Greece; Federico Morando è membro del gruppo di lavoro di Creative Commons Italia. 113 rebbe impossibile l’uso su Wikipedia e in numerosi altri contesti che - pur di per sé non commerciali - vogliono offrire al pubblico solo materiale liberamente riutilizzabile (anche per fini commerciali). Qui è opportuna un’ulteriore precisazione: in termini di diritto d’autore, la maggior parte dei beni culturali appartengono alla sfera del pubblico dominio (ad esempio, poiché sono stati realizzati secoli or sono, mentre la durata del diritto d’autore è limitata - a oggi in Europa - a settant’anni dopo la morte dell’autore). Ciò vale per il bene in quanto tale, ma il discorso è più complesso per le sue riproduzioni digitali. Se la riproduzione è fondamentalmente un’operazione meccanica, a rigore, si potrebbe sostenere che nessun diritto d’autore venga a originarsi in relazione alla riproduzione stessa8. Tuttavia, questo è facilmente argomentabile per una scansione di un documento o di un’opera bidimensionale, mentre nel caso della fotografia (e in particolare della fotografia di oggetti tridimensionali), la distinzione tra un lavoro creativo e uno che non lo sia risulta tanto incerta che, nella pratica, è prudente assumere che qualsiasi riproduzione sia protetta dal diritto d’autore o - negli ordinamenti come quello italiano che lo prevedono - quantomeno dal diritto connesso relativo alle semplici fotografie9. Sulla fotografia di un bene culturale, dunque, vengono a sovrapporsi due diversi diritti, con diversi titolari: il diritto relativo al bene culturale, che in alcuni ordinamenti si estende alle sue riproduzioni ed è sostanzialmente esercitato dal “custode” del bene stesso, e quello relativo all’immagine in quanto opera dell’ingegno e che nasce in capo al fotografo. Ognuno di questi diritti è un diritto esclusivo, esercitabile erga omnes, e ciascun titolare è soggetto al “potere di veto” dell’altro rispetto alla maggior parte delle utilizzazioni rilevanti (e certamente rispetto alla fattispecie di pubblicazione sul Web). 3. La normativa italiana Per l’Italia, la disciplina relativa alla creazione e divulgazione delle riproduzioni (analogiche o digitali) dei beni culturali è dettata dal Codice dei Beni Culturali e del Paesaggio (D. lgs. 22 gennaio 2004, n. 42 e successive modificazioni10 - nel seguito, il Codice) e relativi decreti attuativi11. L’ambito di applicazione della disciplina è strettamente legato alla definizione di “beni culturali”, prevista dall’art. 2, comma 2 del Codice, la quale ricomprende «le cose immobili e mobili che, ai sensi degli articoli 10 e 11, presentano interesse artistico, storico, archeologico, etnoantropologico, archivistico e bibliografico e le altre cose individuate dalla legge o in base alla legge quali testimonianze aventi valore di civiltà». Il citato art. 11 riguarda appunto le «cose oggetto di specifiche disposizioni di tutela», mentre l’art. 10 fornisce ampie elencazioni, in base alle quali sono beni culturali «le raccolte di musei, pinacoteche, gallerie e altri luoghi espositivi dello Stato, delle regioni, degli altri enti pub8 114 In Italia, la legge sul diritto d’autore (LdA, legge 633/1941) disciplina i diritti relativi alle fotografie in vari punti, distinguendo tra ben tre diverse tipologie di fotografie: le opere fotografiche, dotate di carattere creativo e dunque tutelate dal diritto d’autore in senso proprio (al pari, per esempio, di un dipinto o di un romanzo); le fotografie cosiddette “semplici”, di cui all’art. 87 primo comma LdA, che godono della tutela dei diritti connessi (v. sotto, nota 9); le fotografie di documenti e oggetti simili, menzionate nel secondo comma del medesimo articolo a cui non viene riconosciuta alcuna tutela. 9 In prima approssimazione, il diritto esclusivo sulle fotografie può essere considerato equivalente a una sorta di diritto d’autore limitato e la cui durata temporale è stabilita in vent’anni dalla produzione della fotografia stessa. 10 Il codice è stato emanato dal Governo nell’esercizio della delega prevista dall’art. 10 della legge n. 137 del 6 luglio 2002 e successive modifiche sono state operate dal D. lgs. 24 marzo 2006, n. 156, dal D. lgs. 24 marzo 2006, n. 157, dal D. lgs. 26 marzo 2008, n. 62 e dal D. lgs. 26 marzo 2008, n. 63. 11 Si veda, in particolare, il Decreto 20 aprile 2005 del Ministero per i Beni e le Attività Culturali (“Indirizzi, criteri e modalità per la riproduzione di beni culturali, ai sensi dell’articolo 107 del decreto legislativo 22 gennaio 2004, n. 42”), GU, n. 152 del 2 luglio 2005 (discusso diffusamente nel prosieguo). blici territoriali, nonché di ogni altro ente e istituto pubblico», ma anche una vasta gamma di archivi e raccolte librarie di enti pubblici, nonché altri beni e archivi (anche non di proprietà dello Stato) che siano stati dichiarati beni culturali in virtù del particolare interesse che rivestono. Rimandando alla normativa per la definizione completa di “beni culturali”, ci limitiamo qui a ricordare come il comma 4 dell’art. 10 espliciti ulteriori categorie di beni culturali, rappresentati dalle cose (ivi comprese le architetture) che «abbiano carattere di rarità o di pregio» e che interessino la paleontologia, la preistoria e le primitive civiltà, la numismatica, e molti altri campi di interesse artistico, storico …». In conclusione, la definizione di “beni culturali” è ampia ed esclude quasi soltanto quei beni che - pur di interesse storico, artistico, ecc. - siano opera di autore vivente o la cui esecuzione non risalga a oltre cinquanta anni. Semplificando - ma non troppo - dal punto di vista di un comune cittadino si può sostenere che le cose di un qualche interesse culturale e artistico che siano più vecchie di cinquant’anni abbiano una buona probabilità di essere considerate beni culturali. È dunque cruciale comprendere quali siano le norme che regolano le riproduzioni di tali beni, in quanto - oltre che tramite la fruizione diretta il bene culturale può essere goduto indirettamente, in particolare tramite riproduzioni fotografiche, le quali rappresentano la più comune forma di fruizione online e nell’ambito digitale. La disciplina rilevante è dettata dagli artt. 107 e 108 del Codice. L’art. 107 disciplina l’uso strumentale e precario e la riproduzione di beni culturali, riconoscendo al Ministero, alle Regioni e agli altri enti pubblici territoriali (cui si farà riferimento nel prosieguo anche come ai “custodi” del bene) la facoltà di «consentire la riproduzione nonché l’uso strumentale e precario dei beni culturali che abbiano in consegna12». Al contempo, l’art. 108 si occupa di determinare i canoni di concessione e i corrispettivi per la riproduzione (in base a criteri quali il tipo e tempo di utilizzazione degli spazi e dei beni, ma anche l’uso e la destinazione delle riproduzioni, nonché i «benefici economici che ne derivano al richiedente»). Il favore del legislatore per la circolazione della cultura è comunque confermato dal fatto che (al comma 3 dell’articolo in questione) si stabilisce che «nessun canone [sia] dovuto per le riproduzioni richieste da privati per uso personale o per motivi di studio, ovvero da soggetti pubblici per finalità di valorizzazione». In questi casi, i richiedenti sono solo tenuti al rimborso delle spese sostenute dall’amministrazione concedente. Vale qui la pena di sottolineare come l’apertura alle attività di valorizzazione da parte degli enti pubblici sia particolarmente rilevante, a causa dell’ampiezza del concetto di “valorizzazione”, come definito dall’art. 6 del Codice: «La valorizzazione consiste nell’esercizio delle funzioni e nella disciplina delle attività dirette a promuovere la conoscenza del patrimonio culturale e ad assicurare le migliori condizioni di utilizzazione e fruizione pubblica del patrimonio stesso, anche da parte delle persone diversamente abili, al fine di promuovere lo sviluppo della cultura. Essa comprende anche la promozione e il sostegno degli interventi di conservazione del patrimonio culturale». In questo contesto, per esempio, parrebbe lecito immaginare che un ente pubblico possa richiedere di riprodurre un bene culturale e magari possa richiedere di mettere a disposizione del pubblico queste riproduzioni con una licenza libera Creative Commons, al fine di promuovere la conoscenza e fruizione del bene stesso. Una dose addizionale di prudenza, tuttavia, è imposta all’interprete interessato all’applicazione di licenze libere alle immagini di beni culturali dal Decreto 20 aprile 2005 del Ministero per i Beni e le Attività Culturali: «Indirizzi, criteri e modalità per la riproduzione di beni culturali, ai sensi dell’art. 107 del decreto legislativo 22 gennaio 2004, n. 12 L’art. 107 fa (ovviamente) salve le disposizioni di cui al comma 2 dell’articolo stesso (ordinario divieto di trarre calchi) e quelle in materia di diritto d’autore (siccome è ben possibile - data la durata mediamente centaria del diritto d’autore - che un bene culturale sia anche tutelato dal diritto d’autore, nel qual caso il custode del bene non godrebbe di sufficienti diritti per autorizzarne al riproduzione). 115 42». Come già osservato in dottrina, questo provvedimento, che si pone esplicitamente come il principale strumento interpretativo dell’art. 107 del Codice, «pone dei limiti che, prima facie, mal si adattano a una diffusione della riproduzione fotografica del bene culturale sulle reti telematiche o, quantomeno, riducono le libertà del fruitore nel condividere la riproduzione fotografica secondo gli schemi di utilizzazione degli strumenti offerti dalle nuove tecnologie e secondo gli usi invalsi dai cd. internauti»13. Infatti, già gli artt. 3 e 4 del Decreto citato, nel tratteggiare la procedura autorizzativa e i relativi corrispettivi, dispongono che il responsabile dell’istituto che ha in consegna i beni tenga conto di elementi quali le «finalità della riproduzione, anche sotto il profilo della compatibilità con la dignità storico-artistica dei beni da riprodurre» e il «numero delle copie da realizzare». Per quanto questo tipo di valutazioni siano in linea con i normali criteri di remunerazione per la riproduzione di immagini, ad esempio nel mercato dell’editoria artistica, la definizione di un preordinato numero di copie è di per sé difficilmente compatibile con utilizzazioni online e anche una chiara definizione delle finalità di riproduzione è largamente incompatibile con un approccio aperto e decentralizzato alla valorizzazione, quale, per esempio, quello che potrebbe essere praticato nell’ambito di comunità online, che fanno dell’uso inatteso e della serendipità uno dei loro punti di forza. Ma è l’art. 5 del Decreto in questione a rendere più ardua la compatibilità tra questa procedura autorizzativa e l’uso di licenze libere, poiché al comma 2 dello stesso si stabilisce che «il materiale relativo ai beni culturali e idoneo a ulteriori riproduzioni (stampe fotografiche, negativi, diapositive, film, nastri, dischi ottici, supporti informatici, calchi, rilievi grafici ed altro) non può essere riprodotto o duplicato con qualsiasi strumento, tecnica o procedimento, senza preventiva autorizzazione dell’amministrazione che ha in consegna il bene e previo pagamento dei relativi canoni e corrispettivi». Ciò implica che il controllo dei custodi dei beni non si limita alla prima riproduzione delle immagini degli stessi, ma segue - teoricamente all’infinito - la catena delle riproduzioni e delle riutilizzazioni. Analogamente, il comma 3 stabilisce che «ogni uso delle copie ottenute, diverso da quello dichiarato nella domanda, è autorizzato dall’amministrazione che ha in consegna il bene». Merita un’ultima menzione la previsione dettata dal comma 4 dell’art. 5, concernente il fatto che «ogni esemplare di riproduzione reca l’indicazione, nelle forme richieste dal caso, delle specifiche dell’opera originale (nome dell’autore, bottega o ambito culturale, titolo, dimensioni, tecniche e materiali, provenienza, data), della sua ubicazione, nonché della tecnica e del materiale usato per la riproduzione. Esso riporta altresì la dicitura che la riproduzione è avvenuta previa autorizzazione dell’amministrazione che ha in consegna il bene, nonché l’espressa avvertenza del divieto di ulteriore riproduzione o duplicazione con qualsiasi mezzo». Se la prima parte di questo comma non fa che creare una sorta di “clausola di attribuzione” ad hoc per i beni culturali, il tassativo divieto di ulteriore riproduzione non autorizzata sancisce ulteriormente l’incompatibilità di questa normativa con un approccio “alla Creative Commons” e coi progetti che fanno leva sui contenuti generati dagli utenti14. Come è già stato osservato15, questo tipo di norme «fotografano [...] una realtà che le innovazioni tecnologiche hanno già di fatto superato […] La scelta del legislatore è chiara. La strada della valorizzazione del bene culturale non deve percorrere quella di una struttura a rete, mediante comunicazione diretta tra fruitore e fruitore, ma soltanto attraverso una struttura piramidale», in cui si demanda all’istituzione custode del bene una valutazione caso per caso, collegata alla (supposta) necessità di preventivo controllo «per 13 DE ANGELIS 2009 b, 68. Questa previsione è non di rado disattesa, persino nell’ambito di progetti di visibilità internazionale. Ad esempio, si veda il (peraltro lodevole) Google Art Project (http://www.googleartproject.com/), che riporta numerose immagini di opere della Gelleria degli Uffizi in altissima risoluzione, senza recare alcuna «espressa avvertenza del divieto di ulteriore riproduzione o duplicazione con qualsiasi mezzo» (sito visitato l’ultima volta il 14 luglio 2011). 15 DE ANGELIS 2009 b, 70. Cfr. anche BRAY 2009 e ESCHENFELDER-CASWELL 2010. 14 116 prevenire azioni che non valorizzino il bene culturale o che non siano compatibili con la dignità storico-artistica del bene da riprodurre». Infine, alcune questioni interpretative restano aperte. Ad esempio, la lettera delle norme parrebbe far sempre riferimento ad autorizzazioni caso per caso, ma pare possibile ipotizzare anche autorizzazioni “in blocco”, almeno per alcune tipologie di creazione di immagini e relativi utilizzi. Questo è indirettamente confermato dalla prassi applicativa all’interno di alcune istituzioni culturali, che, per esempio, appongono cartelli o avvisi del tipo «Sono ammesse fotografie, senza flash e cavalletto, per esclusivo uso personale». 4. Ratio della disciplina in materia di protezione del patrimonio culturale Questa seconda parte dell’articolo tenta di definire la natura e la portata delle CHPL, onde abbozzare alcune raccomandazioni volte alla massimizzazione dei benefici per la società e alla minimizzazione degli effetti negativi sui beni comuni (commons) e il pubblico dominio. La ratio legis della maggior parte delle CHPL è, infatti, molto sfaccettata e gli obiettivi di tali leggi si declinano in diversi ordini di questioni. In primo luogo, la tutela. Conservare i beni culturali è forse l’elemento chiave della disciplina e si riferisce alla capacità di uno Stato di preservare determinate risorse che, in riferimento a una specifica giurisdizione, sono considerate di rilevante valore culturale. In tale contesto, il controllo di accesso è il risultato della necessità di preservare il bene culturale fisico. Le leggi in oggetto disciplinano in tal senso principalmente gli aspetti tecnici della conservazione dei beni e non hanno a che fare con le versioni digitali dei contenuti culturali16. Ad esempio, il Codice dei beni culturali italiano prevede (all’art. 107) che sia «di regola vietata la riproduzione di beni culturali che consista nel trarre calchi dagli originali di sculture e di opere a rilievo in genere», mentre si prevede che siano «ordinariamente consentiti […] i calchi da copie degli originali già esistenti»; chiaramente, la disparità di trattamento tra “copie di originali” e “copie di copie” deriva da una preoccupazione relativa alla preservazione fisica del bene culturale originale in relazione al processo fisico di riproduzione17. In secondo luogo, il controllo dell’accesso. Come già accennato sopra, al fine di facilitare la tutela dei beni culturali, le istituzioni culturali mantengono il controllo relativo all’accesso alle opere stesse. Se i controlli di tale accesso sono stati originariamente stabiliti con lo scopo di risolvere problemi di accesso fisico, questo stesso controllo degli accessi fisici può venire progressivamente mutato in controllo all’accesso digitale. La terza ratio possibile, infatti, è il controllo sulla diffusione delle copie del prodotto culturale in quanto tali. Ancora una volta, il controllo sulla produzione di copie è stato originariamente pensato in relazione alle copie fisiche o alle fotografie analogiche, che dovevano essere utilizzate a fini commerciali tipicamente legati a una pubblicazione. Se tali restrizioni potevano avere senso in ambiente analogico - pur con l’effetto collaterale di diventare una sorta di prelievo gravante su settori quali l’editoria artistica e culturale - è dubbio che le stesse possano risultare efficaci (e, soprattutto, opportune) in ambiente digitale, in cui i costi di acquisizione e riproduzione di immagini e video di opere culturali sono estremamente contenuti (e in cui il concetto di pubblicazione, grazie a Internet, si svincola dal possesso di mezzi di produzione industriali/professionali). Senza una rivisitazione delle normative sui beni culturali, ci troviamo quindi di fronte alla criminalizzazione della maggior parte delle attività turistiche, ad esempio, nei siti archeologici. Questo effetto è esacerbato nel caso tali pratiche siano abbinate all’uso di social net16 Fa, ovviamente, eccezione la “prima copia”, la quale può essere regolamentata a fini di conservazione, ad esempio vietando l’uso del flash per non danneggiare opere fotosensibili. 17 Lo stesso articolo del Codice prevede che sia comunque richiesta l’autorizzazione del sovrintendente per la realizzazione di copie di calchi. Questa autorizzazione, che di norma sarà concessa, ha una ratio legis presumibilmente differente (e probabilmente legata al controllo sulla realizzazione di copie in quanto tali). 117 work o altri strumenti online (ad esempio, è probabile che un blog individuale sia seguito dallo stesso numero di persone che in passato potevano riunirsi a guardare l’album delle foto delle vacanze dell’odierno blogger, ma mentre quest’ultimo uso di eventuali immagini di beni culturali era chiaramente personale, l’upload su un blog potenzialmente accessibile a chiunque è senz’altro una vera e propria pubblicazione). Infine, le norme in questione possono avere un altro, duplice, obiettivo: da un lato, ottenere un ritorno economico, dall’altro gestire l’attribuzione/menzione della fonte e/o controllare la circolazione e qualità delle riproduzioni. Infatti, la necessità di controllare la riproduzione di opere culturali è anche giustificata dalla necessità di recuperare parte degli investimenti per la digitalizzazione e/o pubblicazione di tali opere (o, semplicemente, dalla necessità di finanziare l’attività di tutela). Tale controllo è inoltre legato all’obiettivo di mantenere un livello minimo di qualità dell’immagine culturale di un certo paese e a quella di attribuirne correttamente le opere. La non-pubblicità/non-attribuzione della fonte può essere uno strumento in questo contesto, per escludere che usi impropri o approssimativi di un’immagine possano essere associati all’istituzione culturale che custodisce il relativo bene culturale. Per tutti questi motivi la diffusione di informazioni culturali è disciplinata dallo Stato, che fornisce autorizzazioni restrittive per la riproduzione di opere culturali, specialmente per quanto riguarda l’ulteriore diffusione e utilizzazione delle riproduzioni stesse. Come già accennato, tuttavia, nell’ambiente digitale queste politiche sono sempre più difficili da gestire e i relativi meccanismi di controllo diventerebbero sempre più costosi, sicché, di fatto, l’applicazione stessa della legge è spesso carente, almeno nei confronti dei singoli utenti della rete (mentre risulta più agevole nei confronti di grandi piattaforme, quali Wikipedia)18. 5. Un aspetto trascurato: gli effetti sul pubblico dominio Se fossero state scritte tenendo in considerazione gli interessi degli utenti della rete, le CHPL sarebbero probabilmente molto diverse dal modello che emerge tratteggiando la normativa italiana (o da quello che emergerebbe analizzando la simile normativa greca). Buona parte degli obiettivi delle CHPL, infatti, potrebbero probabilmente essere raggiunti da ben calibrati diritti di accesso, che non pongano limitazioni per le copie successive a una prima riproduzione, una volta che questa sia avvenuta19. Inoltre, qualora si decida che un certo grado di controllo e una contropartita per l’uso commerciale delle riproduzioni ci debbano essere, il processo relativo ad autorizzazioni e pagamenti dovrebbe essere facile e veloce. In particolare, dovrebbe trattarsi di una sorta di diritto a compenso (fatto scattare da alcuni tipi di utilizzazione delle riproduzioni) e non di un diritto di proprietà (che richiede la preventiva autorizzazione per la creazione dell’immagine stessa). La politica inerente ai visitatori dei musei, ad esempio, dovrebbe essere quella dell’“aperto salvo indicazione contraria” (open by default) e le istituzioni potrebbero eventualmente indicare le opere la cui riproduzione sia vietata o regolamentata in modo particolare20. La necessità di far evolvere la politica culturale si basa sulla comprensione del fatto (o sulla considerazione della concreta eventualità, se si preferisce) che il patrimonio culturale sia protetto e non minacciato dalla promozione dei beni comuni, dei contenuti generati dagli utenti e del dominio pubblico. D’altro canto, le opposte argomentazioni che sostengono che la digitalizzazione del patrimonio culturale possa essere economicamente 18 Per esempi in proposito, si vedano i link forniti in nt. 4. Una modalità di tariffazione particolarmente facile da applicare, per esempio, è relativa al pagamento di un “biglietto per la macchina fotografica”, che includa l’autorizzazione a realizzare fotografie (senza flash o cavalletto e con eventuali restrizioni alle forme di licenza delle immagini stesse). 20 L’ipotesi sottesa a questo ragionamento è che, ad esempio, le tariffe relative alla riproduzione di un ristretto numero di opere celebri sia all’origine della maggior parte dei proventi di una data istituzione culturale. Tale ipotesi andrebbe, ovviamente, approfondita empiricamente. 19 118 sostenibile attraverso la concessione di licenze di accesso e/o riproduzione, paiono basate più su una sorta di scommessa che su una solida analisi economica dei benefici che i paesi come l’Italia o la Grecia possono trarre da normative restrittive in questa materia. Solide analisi empiriche in questo campo sarebbero dunque necessarie. Infine, anche ammettendo che si voglia utilizzare la licenza dei diritti sulle immagini per finanziare la digitalizzazione, sarebbe opportuno esplorare la possibilità che l’introduzione di un regime efficiente di licenze commerciali gestite automaticamente online possa continuare a soddisfare questo obiettivo, garantendo che l’accesso ai contenuti per fini non-commerciali rimanga libero. Le seguenti raccomandazioni sono un primo (e preliminare) contributo all’individuazione di una strategia attraverso la quale la disciplina inerente il patrimonio culturale possa raggiungere i suoi obiettivi, aumentando al contempo le possibilità di accesso ed evitando restrizioni non necessarie del dominio pubblico. Più analiticamente, gli obiettivi delle raccomandazioni sono: - assicurare la conservazione di beni culturali e relative informazioni; - garantire il mantenimento di un livello qualitativo minimo delle informazioni diffuse; - ridurre i costi di transazione, se e quando vengano previsti adempimenti economici relativi alle autorizzazioni/licenze/utilizzazioni; - non limitare il dominio pubblico (o, quantomeno, non limitarlo più di quanto sia strettamente necessario per raggiungere gli altri obiettivi di policy delle norme relative ai beni culturali). 6. Riflessioni preliminari su alcune opzioni di policy alternative Il problema della sovrapposizione tra la disciplina in materia di tutela del patrimonio culturale e pubblico dominio può essere risolto in vari modi, alcuni dei quali sono sintetizzati nelle opzioni che seguono. A) Abolire la disciplina in materia di riproduzioni dei beni culturali (per la parte che si pone in contrasto con il concetto di pubblico dominio ai sensi del diritto d’autore): questa è l’alternativa più radicale e, allo stesso tempo, la soluzione più semplice. L’abolizione della disciplina in questione, infatti, garantirebbe che nessuna ulteriore restrizione al pubblico dominio venga imposta. Questa soluzione, tuttavia, è di difficile attuazione a causa della riluttanza dei legislatori nazionali ad accettare una soluzione che allenti il controllo attualmente esercitato sul flusso di informazione culturale nonché per la potenziale perdita di entrate provenienti dalla vendita di licenze commerciali. Una concreta e realizzabile raccomandazione di policy, tuttavia, potrebbe riguardare l’analisi di scenari alternativi, tra cui quello nel quale la riproduzione dei beni culturali sia libera. B) Armonizzare la disciplina in materia di riproduzioni dei beni culturali: il principale vantaggio di tale approccio è relativo al trattamento uniforme di accesso alle informazioni culturali in tutta l’UE, il che darebbe anche un impulso ai modelli di utilizzo di tali informazioni, riducendo gli attuali problemi di incertezza e i relativi costi di transazione. La questione che si solleva, però, a partire da questa soluzione è relativa alla tendenza dei legislatori (testimoniata nel campo della proprietà intellettuale, sia nello scenario europeo che in quello internazionale) a operare le armonizzazioni normative nella direzione degli ordinamenti che offrono la maggior tutela, piuttosto che nella direzione suggerita dagli ordinamenti più permissivi. Il problema della compressione del pubblico dominio a opera delle CHPL, dunque, avrebbe buone probabilità di non essere ridotto, ma di estendersi a paesi che ne sono stati per il momento risparmiati. C) Operare una transizione graduale verso minori e più razionali restrizioni: l’idea alla base di questo approccio è che il sistema della tutela del patrimonio culturale adotti gradualmente pratiche compatibili con quelle degli utenti che generano contenuti 119 culturali digitali. Il processo può essere descritto in una road map simile alla seguente (alcuni punti della quale potrebbero essere presi in considerazione anche da singole istituzioni culturali, nell’ambito dello scenario normativo vigente): C1. Rendere il processo di autorizzazione semplice ed economico: l’attuale iter di autorizzazione risulta complicato ed è perlopiù gestito off-line e senza alcuna considerazione del modo in cui i servizi Web 2.0 possono operare. Il suggerimento è quello di rendere l’eventuale registrazione per l’utilizzo non-commerciale di immagini facoltativo e agevole e l’eventuale pagamento per uso commerciale gestibile online in modo automatico e standardizzato. C2. Assicurare che, qualora esista un sistema di tariffe e/o regole di “attribuzione”: - vi siano eccezioni in relazione a usi non-commerciali delle opere; - quando l’attribuzione/indicazione dell’origine sia posta come una condizione, questa sia supportata (nel senso di resa più facile e utile) da strumenti tecnici (ad esempio, URI stabili per l’attribuzione e adozione delle tecnologie del Web semantico). C3. Uso di soft law: ogni volta in cui questo sia possibile, non imporre obblighi formali per gli utenti finali per quanto riguarda l’attribuzione, o simili, ma piuttosto invitare gli utenti a collaborare con le istituzioni a tal fine, eventualmente utilizzando anche strumenti tecnologici di supporto (vedi C2). C4. Chiarire il concetto di uso personale delle riproduzioni digitali: - l’uso personale dovrebbe includere la diffusione delle informazioni su homepage, blog, social network ed equivalere essenzialmente all’uso non commerciale (dal punto di vista dell’utilizzatore stesso e anche su canali, come Facebook o YouTube, che siano di per sé chiaramente commerciali); - in questo contesto, ogni eventuale considerazione riguardante gli effetti (negativi) dell’uso personale in rapporto allo sfruttamento commerciale delle riproduzioni21 dovrebbe essere superata dalle considerazioni relative alla libera espressione dei cittadini e alla loro partecipazione alla vita culturale della società. C5. I diritti sulle riproduzioni del patrimonio culturale non devono essere trattati come diritti assoluti (erga omnes), vale a dire che, una volta che il permesso alla prima riproduzione (ed eventualmente alla prima diffusione) viene accordato al primo soggetto, non ci dovrebbe essere nessun controllo ulteriore sulla diffusione delle informazioni culturali (si ha una sorta di “esaurimento” dei diritti dopo la prima autorizzazione). C6. Utilizzare la disciplina in materia di tutela del patrimonio culturale per rafforzare e proteggere il pubblico dominio: - la disciplina in materia di tutela del patrimonio culturale potrebbe essere utilizzata per proteggere il pubblico dominio, se l’autorizzazione originaria fosse accompagnata dall’obbligo di contrassegnare il bene culturale stesso come opera di pubblico dominio (per esempio usando strumenti quali il Public Domain Mark (PDM)22; - più in generale, un uso delle CHPL più in linea con i modelli di utilizzo delle informazioni online da parte degli utenti potrebbe consistere nell’imporre alcuni modelli di licensing che un’istituzione valuti idonei a garantire che le riproduzioni dei beni culturali non siano oggetto di forme di diritti di proprietà intellettuale che ne sottraggano la fruizione al pubblico (e alle stesse istituzioni culturali)23. 21 120 Si fa qui riferimento alla possibilità che la disponibilità di riproduzioni amatoriali e disponibili solo per uso noncommerciale sia comunque in concorrenza con il mercato delle licenze per uso commerciale da parte dell’istituzione culturale stessa. Un esempio di situazione di questo genere è quella in cui il divieto di fotografare un certo bene culturale viene giustificato con la motivazione di preservare la vendita delle cartoline o simili riproduzioni disponibili a pagamento (e, di norma, fornite da un operatore commerciale, che ha preso in licenza le immagini stesse, a fini di sfruttamento commerciale). 22 Il PDM è uno strumento sviluppato da Creative Commons, in interazione con Europeana, al fine di “etichettare” e comunicare chiaramente (sia agli esseri umani che a eventuali software) lo status di pubblico dominio di un’opera. Si veda anche https://creativecommons.org/press-releases/entry/23755 (consultato il 15/07/2011). 23 Per alcuni esempi di licenze atte a tale scopo, si veda il punto C7. C7. Utilizzare la disciplina in materia di tutela dei beni culturali per assicurare l’uso di licenze libere per le relative riproduzioni digitali: - nel caso sussista qualche forma di proprietà intellettuale sulle riproduzioni dei beni culturali (in capo ai creatori delle riproduzioni stesse), le CHPL possono essere usate per imporre l’adozione di una licenza permissiva, quale CC Zero (che tende a porre la riproduzione in pubblico dominio) o CC BY (che richiede la sola attribuzione della paternità dell’opera); - l’approccio appena descritto assicurerebbe che la riproduzione così licenziata non possa essere completamente “appropriata” dal creatore, ma circoli liberamente, concorrendo alla valorizzazione del bene culturale; tale risultato potrebbe essere “rafforzato” imponendo l’uso di licenze “persistenti” o “virali”, quali CC BY-SA, che però hanno effetti collaterali in termini di libertà di mescolare contenuti culturali tra loro e riutilizzarli liberamente24; - l’imposizione dell’uso di una certa licenza per le riproduzioni dei beni culturali potrebbe ottenersi con due procedure (alternative): 1) tramite il trasferimento della piena proprietà dei diritti d’autore e connessi all’istituzione culturale, che dovrebbe poi rilasciare la riproduzione sotto una licenza CC Zero, CC BY o CC BY-SA; oppure 2) tramite licenza diretta del lavoro sotto licenza libera da parte del creatore della riproduzione (questa seconda soluzione appare preferibile, anche perché più facilmente amministrabile); - l’uso di una licenza libera per le riproduzioni potrebbe anche non essere obbligatorio, ma - in caso il creatore di una riproduzione non voglia adottare una licenza libera si potrebbe aumentare la tariffa relativa all’autorizzazione per la riproduzione stessa. C8. Distinguere tra il rilascio delle immagini di opere culturali (già in possesso delle istituzioni) e il permesso di creare nuove immagini (ad opera di terze parti): - nel primo caso, il principio cardine dovrebbe essere quello secondo cui il contenuto di pubblico dominio dovrebbe rimane di pubblico dominio: il PDM dovrebbe essere usato per contrassegnare chiaramente le opere di pubblico dominio; se la riproduzione gode di un’autonoma protezione, la stessa dovrebbe resa riutilizzabile in modo completamente libero con strumenti quali CC Zero, oppure essere rilasciata con una licenza libera quale CC BY (l’uso di CC BY-NC o BY-SA non appare raccomandabile, ma rimandiamo ad altro contributo un approfondimento delle ragioni che rendono tale soluzione sub-ottimale)25; - nel secondo caso, si veda il punto C7. 7. Conclusioni Il problema dell’interazione tra la disciplina in materia di protezione del patrimonio culturale e il pubblico dominio (e la circolazione della conoscenza in genere e sulle reti digitali in particolare) costituisce un ambito di ricerca ancora largamente inesplorato. Allo stesse tempo, si tratta di un tema di grande potenziale rilevanza per l’Europa che è attivamente impegnata nel processo di digitalizzazione dei suoi beni culturali e i cui stati ambi24 In sintesi, l’uso di licenze “virali” del tipo Creative Commons Condividi-allo-stesso-modo (Share-alike) ha l’effetto collaterale di rendere più complesso il mescolare tra loro contenuti con origine diversa. Se si applicano ai contenuti A e B due diverse licenze con obbligo di attribuzione, per esempio, è possibile che sia lecito rilasciare un’opera C, derivata da A e B, sotto una qualsiasi delle licenze originali; di contro, siccome una licenza virale impone di rilasciare le opere derivate con la licenza stessa è molto probabile che - in assenza di esplicite clausole di interoperabilità tra le due licenze in questione - la creazione di C sia semplicemente illecita (mentre resta possibile modificare A e B per realizzare A’e B’, da licenziarsi sotto la medesima licenza di A e B rispettivamente). 25 Per alcune, preliminari riflessioni, si veda sopra, nt. 24 oltre a quanto discusso nel penultimo capoverso della sezione 2 in merito alle licenze non-commerciali. 121 scono a coinvolgere la cittadinanza nella vita culturale. A oggi, in alcuni paesi tra cui l’Italia, la disciplina in materia di protezione del patrimonio culturale crea uno strato di diritti (ulteriori e indipendenti rispetto a quelli di proprietà intellettuale) che di fatto riducono le possibilità di valorizzazione dei beni culturali sulla rete. Ad esempio, è un dato facilmente verificabile che la localizzazione in lingua italiana di Wikipedia sia relativamente povera di immagini di beni culturali, in virtù del fatto che la comunità degli utenti di Wikipedia stessa non solo non viola la normativa, ma si attiva anche per non permette a eventuali utenti ignari delle norme di violare la normativa italiana in merito alle riproduzioni dei beni culturali26. Questo articolo è dunque un invito a riflettere sulle modalità per rendere le discipline nazionali relative alla tutela e valorizzazione dei beni culturali compatibili con le pratiche di produzione di contenuti culturali generati dagli utenti online. È anche un invito a considerare esplicitamente gli effetti di tali normative sul pubblico dominio, che oggi viene compromesso, con significativa compressione delle libertà di espressione e partecipazione alla vita culturale dei cittadini, ma senza che lo Stato ne tragga alcun beneficio concretamente misurabile (o, almeno, misurato). Inoltre, questo lavoro è un invito a valutare alcune strategie alternative, in cui la disciplina relativa alle riproduzioni dei beni culturali diventi uno strumento per facilitare l’identificazione dei beni in pubblico dominio ed eventualmente favorisca la circolazione, sotto licenze libere, delle riproduzioni fotografiche dei beni culturali. Infine, questo articolo è un invito a considerare, qualora si impongano tariffe relative alle riproduzioni per uso commerciale dei beni culturali, tutti i costi (anche indiretti) che tali tariffe impongono. Nel caso si segua la via dell’imposizione di tariffe, si invita a considerare in particolare l’opportunità di esentare dal pagamento delle stesse chi rilasci una riproduzione sotto una licenza libera, che può rappresentare una forma di compensazione “in natura” della società, grazie alla quale la condivisione della conoscenza sostituisce la compensazione monetaria. 26 122 In merito, si veda ad esempio http://it.wikipedia.org/wiki/Utente:Alcuni_Wikipediani/Lettera_aperta_sulle_leggi_sul_copyright (visitato l’ultima volta il 14 luglio 2011). Abbreviazioni bibliografiche BRAY 2009 P. Bray, Open Licensing and the Future for Collections, in, Museums and the Web 2009: Proceedings, J. Trant e D. Bearman (edd.), Toronto 2009 (http://www.archimuse.com/mw2009/). DE ANGELIS 2009 a D. De Angelis, Brevi note in tema di applicabilità delle licenze Creative Commons ai beni pubblici culturali (prima parte), in DigItalia, Rivista del digitale nei beni culturali, 4, 2009, 9-23 (http://digitalia.sbn.it). DE ANGELIS 2009 b D. De Angelis, Brevi note in tema di applicabilità delle licenze Creative Commons ai beni pubblici culturali (seconda parte), in DigItalia, Rivista del digitale nei beni culturali, 4, 2009, 61-73 (http://digitalia.sbn.it). ESCHENFELDER-CASWELL 2010 K. R. Eschenfelder - M. Caswell, Digital cultural collections in an age of reuse and remixes, in First Monday, 15, 2010 (http://firstmonday.org/). RESTA 2009 G. Resta, Chi è proprietario delle piramidi? L’immagine dei beni tra property e commons, in Politica del diritto, 4, 2009, 567-604 (http://www.mulino.it/rivisteweb/scheda_articolo.php?id_articolo=31408). Federico Morando Centro NEXA su Internet & Società. Dipartimento di Automatica e Informatica, Politecnico di Torino, [email protected]. Prodromos Tsiavos Innovation and Information System Group. Management Department, London School of Economics. [email protected]. 123 Documentare e ricostruire: strumenti e metodi aperti. Angelo Chianese Vincenzo Moscato Antonio Picariello Un framework per la creazione di ambienti virtuali 3D Abstract Augmented Reality (AR) is an emerging technology that promises significant results in a variety of applications. In this paper a framework, that allows museums and Cultural Heritage Institutions to build and manage virtual areas based on 3D models of artefacts, is presented. To facilitate the creation of emergent AR applications, a novel data model and a simple building and querying language for 3D objects are presented, designed in order to be sufficiently powerful to include the functionalities and characteristics of modern 3D description languages, such as X3D and Collada, and at same time simple for optimization aims. Several examples from real Italian Cultural Heritage sites are provided and preliminary results are commented and discussed, showing the main advantages of the proposed system for both creation and retrieval goals. 1. Introduzione Lo scopo della “realtà virtuale” è quello, da un lato, di ricreare, tramite computer, mondi e oggetti che sono la trasposizione digitale di ambienti reali o di fantasia, dall’altro, di studiare i metodi di interazione tra utenti e i mondi virtuali. Oggi i mondi virtuali si possono unire ad altre tecnologie come, ad esempio, gli strumenti di comunicazione e collaborazione e quelli di ricostruzione tridimensionale e simulazione, per trasformarsi in sistemi incredibilmente utili per un ampio insieme di settori applicativi quali l’archeologia virtuale, l’e-learning, i musei virtuali, ecc. Nei differenti settori applicativi c’è una problematica di ricerca comune: quella di potere ricreare, attraverso una serie di tool di semplice utilizzo, ambienti tridimensionali complessi (siti archeologici, chiese, palazzi storici, piazze, uffici, ecc.), eventualmente sfruttando oggetti 3D già precedentemente creati da altri utenti, memorizzati in appositi formati (X3D, Collada, ecc.) e organizzati in apposite basi di dati. Un esempio motivante potrebbe essere quello di un archeologo che all’interno di scavi effettua il ritrovamento di parte di un’anfora e ne vuole ricreare nell’ambiente virtuale una possibile riproduzione 3D. Osservando degli artefatti già creati da altri archeologi, l’archeologo può ricreare l’oggetto modificando degli oggetti esistenti (per esempio aggiungendo una tessitura differente ad un’anfora presente nella base di dati o effettuando semplici operazioni di estrusione e scaling su un altro vaso simile), oppure ricrearlo ex novo, eventualmente sfruttando e assemblando componenti dell’oggetto già presenti nella base di dati. In un siffatto contesto, l’obiettivo del presente lavoro è quello di proporre un framework per la ricostruzione di ambienti 3D che fornisca all’utente un’interfaccia di semplice utilizzo per la definizione di mondi e oggetti virtuali. Tale framework include: 1. la definizione di un modello per la rappresentazione di oggetti 3D e delle operazioni ammissibili per gli oggetti (introducendo anche il concetto di similarità tra oggetti); 127 2. la definizione di un’algebra che consenta la creazione di oggetti 3D e il retrieval (anche basato su esempi, i.e. query by example) da basi di dati 3D; 3. l’implementazione di un tool software che supporta in maniera semplice e intuitiva i suddetti processi di creazione e interrogazione per consentire all’utente di creare con tempi e sforzi ridotti, e attraverso un apposito linguaggio, ambienti 3D di elevata complessità (ovvero composti da un elevato numero di oggetti). In particolare il lavoro è organizzato come segue. La sezione 2 illustra il modello dei dati utilizzato che si ispira al modello B-rep1, classificato in letteratura come approccio surface-based2, e utilizza 4 entità fondamentali (vertici, spigoli, facce e reticoli) per descrivere la geometria di un qualsiasi oggetto 3D. Su tali oggetti vengono poi definite una serie di operazioni che permettono di modificarne la struttura e di assemblare oggetti semplici in forme più complesse. La sezione 3 descrive poi come gli oggetti 3D possono essere “mappati” in apposte “relazioni” e come su di esse è possibile definire un’algebra di interrogazione in cui viene introdotto, da un lato, il concetto di “similarità” di oggetti, dall’altro, l’operatore di selezione attraverso cui risulta semplice implementare meccanismi di retrieval3 di oggetti da basi di dati 3D, anche attraverso query basate sul contenuto degli oggetti stessi4. L’algebra contiene, quindi, primitive sia per la creazione e composizione di oggetti 3D (una colonna può essere ottenuta attraverso l’unione di un cilindro con due parallelepipedi), sia per l’interrogazione in basi di dati 3D5 capaci di sfruttare oltre ai metadati (semantica) e le features degli oggetti, anche un concetto di “similarità” tra forme. Le sezioni 4 e 5 presentano il tool software sviluppato, la relativa architettura e alcuni dettagli implementativi. È disponibile per gli utenti finali un’interfaccia dei comandi basata su linguaggio naturale6 per specificare le istruzioni che consentono la ricostruzione di ambienti 3D. Infine, la sezione 6 descrive come casi di studio la creazione, attraverso il framework proposto, di un sito archeologico e di un reperto e come queste attività possono essere semplificate attraverso l’utilizzo del tool sviluppato, mentre nella sezione 7 sono riportate le conclusioni del presente lavoro. 2. Il Modello dei dati In questa sezione viene presentato il modello dei dati che descrive, da un lato, quelle che sono le entità di base in cui un oggetto 3D può essere scomposto e, dall’altro, le relative operazioni utilizzate per creare, gestire e trasformare un oggetto 3D generico. 2.1. Entità Base Le entità fondamentali usate per costruire oggetti generici sono: vertice, spigolo, faccia e reticolo (fig. 1) e di seguito se ne riportano le definizioni formali. Definizione 1 (Vertice V) Sia D3 un sottoinsieme finito di R3, ad esempio D3 ⊆ R3. Un vertice V è un qualsiasi elemento appartenente a D3. 1 ABDUL RAHMAN-PILOUT 2007. ARENS et alii 2005. 3 CHAU-CHITTAYASOTHORN 2007. 4 BIMBO-PALA 2006. 5 ESCOBAR-MOLAN et alii 2007. 6 KAWAI et alii 1999. 2 128 Definizione 2 (Relazione topologica λ) Una Relazione topologica λ è una qualsiasi relazione spaziale tra 2 entità del modello nello spazio 3D. 1. Entità base del modello dei dati. Definizione 3 (Spigolo E) Uno spigolo E è una tripla di elementi composta da una coppia di vertici e dalla relazione topologica λ tra di essi, ad esempio: E=〈Vs,Ve, λ〉. Definizione 4 (Faccia F) Una faccia F di lunghezza N è una sequenza ordinata di spigoli 〈{E1,E2,…,EN},C,T〉, essendo {E1,E2,…,EN} una sequenza ordinata di vertici tali che per ogni i∈[1,N-1], Vei≡ Vsi+1 e Vs1≡ VeN, essendo Vei ,Vsi∈Ei; C, T sono invece il colore della faccia e la sua texture. Definizione 5 (Reticolo di ordine k) Un reticolo di ordine k è un set di k facce, dove k è l’ordine del reticolo, insieme a una label di annotazione l, Rk=〈{F1,F2,…,Fk},l〉. Possibili label per gli oggetti creati nel sistema in esame sono: Triangle, Rectangle, Circle, Square in uno spazio 2D; Box, Sphere, Cylinder, Cone in uno spazio 3D. 2.2. Operazioni Le operazioni applicabili ad un reticolo possono essere classificate in quattro categorie: -operazioni di definizione: creazione e copia; -operazioni geometriche: spaziali e strutturali; -operazioni di assemblaggio: merge e join; -operazioni varie: etichettatura, colorazione, settaggio delle texture. La prima classe di operazioni consente la “creazione” di un nuovo reticolo o la 129 “copia” di un reticolo già esistente in uno spazio 3D. In particolare, la creazione di un nuovo oggetto è ottenuta definendo i vertici, gli spigoli, le facce e, infine, la label del reticolo. È assunta l’esistenza di un insieme di reticoli predefiniti chiamati reticoli di default per i quali la creazione viene eseguita più facilmente, definendo solo la label e le dimensioni di base. Le operazioni geometriche modificano le proprietà del reticolo, trasformando quindi un reticolo assegnato in uno nuovo. Si distinguono in spaziali e strutturali. In particolare, le operazioni spaziali definite nel modello sono rotazione, traslazione e scaling. Queste operazioni sfruttano formule geometriche per il calcolo delle nuove coordinate dei vertici del reticolo in un apposito sistema di riferimento cartesiano, come mostrato di seguito. Rotazione - La rotazione ϕ(Rk,ω,θ) è una trasformazione applicata al reticolo Rk che causa un movimento circolare di tutti i vertici del reticolo di un angolo θ (angolo di rotazione) intorno all’asse ω (asse di rotazione). Traslazione - La Traslazione π(Rk,ι) è una trasformazione lineare che sposta ogni vertice del reticolo Rk di un apposito vettore di traslazione ι=〈ιx,ιy,ιz〉. Scaling - Lo scaling δ(Rk,ε) è una trasformazione lineare che allarga o riduce il reticolo Rk di un fattore di scaling ε=〈εx,εy,εz〉 in tutte le direzioni, traslando i relativi vertici. Le operazioni strutturali definite nel modello sono invece l’estrusione, la deformazione, l’estrusione di una singola faccia, la rimozione di una faccia e la rimozione di uno spigolo. Tutte queste operazioni agiscono su un reticolo modificandone la struttura interna. Si riportano, a titolo di esempio, le sole definizioni di estrusione e deformazione. Estrusione - L’estrusione ψ(Rk,ι,ε) è una trasformazione applicata su un reticolo 2D Rk; essa crea un reticolo 3D che ha Rk, e le sue copie scalate, come profilo delle sezioni trasversali; ι e ε sono i vettori di traslazione e scaling usati per applicare l’estrusione. Deformazione - La deformazione γ(Rk,Fi,ε) è una trasformazione che applica un operazione di scaling di un fattore ε sulla faccia Fi appartenente al reticolo Rk. Le operazioni di assemblaggio definite in questo modello sono chiamate merge e join. Esse agiscono su due o più reticoli e restituiscono un singolo reticolo (fig. 2). Merge - L’operazione di merge μ(Rk11,Rk22,…,Rknn) è una trasformazione che coinvolge due o più reticoli (ogni reticolo deve avere un vertice in comune con almeno un altro reticolo) che permette di ottenere un reticolo singolo composto dall’unione dei vertici appartenenti ai differenti reticoli (le caratteristiche geometriche di ogni operando sono mantenute). Join - Il join Rk11 Θ F1i=F2j Rk22 è una trasformazione binaria che coinvolge due reticoli Rk11, Rk22 che riesce a unire gli stessi in un singolo reticolo sulla base di una faccia comune che è ottenuta allineando e sovrapponendo le due facce F1i, F2j. In altre parole, l’operazione di join è eseguita traslando il secondo reticolo in modo che il baricentro della faccia F2j, appartenente al secondo reticolo, si sovrapponga al baricentro della faccia F1i, appartenente al secondo reticolo. Le operazioni varie definite nel modello sono l’etichettatura, la colorazione e il settaggio della texture. Esse agiscono sul reticolo senza modificare la struttura geometrica relativa. 130 Etichettatura - L’etichettatura è un’operazione che permette di modificare la label del reticolo. Colorazione - L’operazione di colorazione permette di modificare il colore del reticolo o di una sua faccia. 2. Alcuni esempi di operazioni sul modello dei dati: (a) Merge, (b) Join. Settaggio della texture - Questa operazione permette di modificare la texture del reticolo o di una sua faccia. 3. L’algebra di query Il principale obiettivo dell’algebra di query definita è quello di fornire alcune primitive per la ricerca di oggetti 3D che soddisfano delle specifiche o che sono simili ad altri oggetti in termini di caratteristiche geometriche. L’algebra si basa sul concetto di similarità tra reticoli che si basa, a sua volta, su quello di similarità tra facce, come riportato dalle seguenti definizioni. Operatore di similarità tra Facce - siano Fi e Fj due facce, un operatore di similarità tra facce è un operatore binario Fi ≅τ Fj che restituisce un valore booleano vero se esiste una trasformazioneτ, composizione di rotazioni, traslazioni e scaling, che permette di sovrapporre completamente la faccia Fi alla faccia Fj. Operatore di similarità tra reticoli - siano Rk1 e Rk2 due reticoli di ordine k, un 131 operatore di similarità tra reticoli è un operatore booleano Rk1 ≅τ Rk2 che è vero se per ogni faccia del primo reticoli ne esiste una simile nel secondo e viceversa. Altri operatori di similarità molti importanti sono quelli che consentono di determinare l’ordine di similarità (k-similarità) tra reticoli e se un reticolo è “contenuto” in un altro (similarità di inclusione). Operatore di k-similarità tra reticoli - siano Rk11 e Rk22 due reticoli di ordine k1 e k2 e k appartenente a N-{0}, un operatore di k-similarità tra reticoli è un operatore booleano Rk11 ≅τk Rk22 che è vero se esiste un sottoreticolo di ordine k di Rk11 che è simile a un sottoreticolo di ordine k di Rk22. Operatore di similarità di inclusione tra reticoli - siano Rk11 e Rk22 due reticoli di ordine k1 e k2}, un operatore di similarità di inclusione tra reticoli è un operatore booleano Rk11 ⊆ Rk22 che è vero se esiste un sottoreticolo di ordine k1 di Rk22 che è simile a Rk11. Infine è possibile definire delle similarità che lavorano sui metadati degli oggetti, comparando le relative label. Operatore similarità tra label di reticoli - siano Rk11 e Rk22 due reticoli, un operatore di similarità tra label di reticoli è un operatore binario booleano Rk11 ≅l Rk22 che è vero se la label del primo reticolo è contenuta nella label della secondo. Operatore similarità tra label - sia Rk un reticolo e L una label un operatore di similarità tra label è un operatore booleano Rk =l L che è vero se la label del reticolo sulla sinistra è contenuta nel label in ingresso. Gli operatori di similarità di base tra facce, reticoli e label, presentati precedentemente, possono essere utilizzati nell’algebra delle query per esprimere condizioni atomiche e complesse all’interno di una data query 3D. Introdotto poi, il concetto di relazione 3D come un insieme di reticoli identificati univocamente da un apposito codice, è possibile ridefinire su di essa il classico operatore di selezione dell’algebra relazionale. Nella nostra algebra un operatore di selezione è un operatore capace di estrarre da una data relazione i soli reticoli che soddisfano determinate proprietà basate sul soddisfacimento di apposite condizioni atomiche e/o complesse. 4. L’architettura del sistema e il workflow supportato L’architettura di riferimento del nostro 3D Building System (3DBS) è basata su un approccio multilayer e su tecnologie open-source. I principali moduli del sistema sono analizzati in seguito (fig. 3). 3DBS engine - è il componente principale del sistema che implementa il modello dei dati e tutte le relative operazioni (building e query) descritte, fornendo nel contempo, un’astrazione di ogni entità del modello. 3DBS di object database - è il componente responsabile della memorizzazione, dell’organizzazione e della ricerca dei dati 3D, garantendone l’integrità e la consistenza. 3DBS file manager - questo componente interagisce con il file system locale per l’importazione e l’esportazione di oggetti 3D da/nei formati standard di descrizione 3D, come X3D e Collada. In particolare, un modulo di questo componente è specializzato nel132 3. Architettura di riferimento del sistema 3DBS. 4. Schermata principale del sistema 3DBS. l’eseguire query sul Google 3D Web Warehouse. 3DBS shell - questo modulo è la shell del sistema (fig. 4). Esso consente agli utenti di inserire i comandi, interpretando questi sulla base del linguaggio grammaticale definito. 3DBS language manager - questo modulo permette di definire il linguaggio di cui un utente ha bisogno di sapere al fine di interagire con il sistema. 3DBS player - questo modulo permette di visualizzare in anteprima gli oggetti 3D. In altre parole, l’architettura proposta è tipica dei sistemi basati su un linguaggio naturale, che sono in grado di modellare scene 3D attraverso un’interfaccia da linea di comando che supporta le espressioni del linguaggio naturale. Un utente fornisce al sistema una serie di istruzioni per gestire la scena e i risultati 133 possono essere visualizzati attraverso un generico dispositivo di output (ad esempio, smart phone, schermi 3D e così via), consentendo di migliorare l’aspetto della scena fino a che non si raggiunge un risultato ritenuto soddisfacente. Il workflow di base è il seguente: -un utente immette una serie di istruzioni che descrivono la scena desiderata; è possibile sfruttare anche oggetti già creati: -recuperandoli da apposite query, -ricercandoli sul 3D Google Web Warehouse; -la shell analizza le istruzioni e produce un albero sintattico che viene poi convertito dall’interprete in una sequenza di istruzioni, usando le operazioni definite in precedenza; -l’oggetto 3D è cosi creato, modellato, traslato, ruotato o scalato in base alla sequenza mnemonica inserita; -il risultato è visualizzato su un dispositivo di output; -l’utente può applicare nuove trasformazioni alla scena fino a quando non è soddisfatto. Gli oggetti possono essere finalmente memorizzati con uno pseudonimo nel database del sistema. Se l’utente vuole riutilizzare gli oggetti memorizzati, può semplicemente recuperare le informazioni dal dizionario correlato. 5. Dettagli implementativi La logica di business e la presentazione del sistema sono realizzate utilizzando tecnologie JAVA. Per ciò che invece concerne il livello dati, il modello per gli oggetti 3D definito è stato implementato utilizzando un approccio Object Relational per mezzo del DBMS PostgreSQL. Le entità fondamentali che compongono il modello dei dati (reticoli, facce, spigoli e vertici) sono state mappate in tabelle SQL che memorizzano le informazioni corrispondenti alle diverse parti in cui ciascun reticolo può essere decomposto. Purtroppo, la semplice decomposizione di un reticolo nelle quattro entità di base, di cui sopra, non consente di eseguire efficientemente sui reticoli inseriti nel database le operazioni di ricerca basate sulla similarità. Per tale motivo, è stato utilizzato un metodo di ripartizione delle facce di un reticolo in triangoli chiamato Triangolazione, che permette di suddividere le facce di un reticolo in una serie di triangoli, partendo dalle coordinate di un punto fisso (ad esempio il baricentro) della faccia da ripartire. Infatti è possibile suddividere ogni figura piana in una serie di triangoli, semplicemente unendo ogni vertice della faccia con il baricentro. Il vero vantaggio che è possibile ottenere dall’applicazione della tecnica appena descritta è che siamo in grado di determinare con precisione, ad esempio, se due oggetti (un rombo e un quadrato) sono simili semplicemente verificando che i triangoli base che li compongono sono simili l’uno con l’altro. Per poter applicare questa tecnica, è necessario aggiungere una quinta entità (triangolo) al modello, che contiene le informazioni di base dei triangoli che costituiscono le facce di un reticolo e che vengono utilizzate durante le differenti operazioni di similarità. Dopo la creazione delle tabelle di mappatura delle entità del modello, sono state realizzate una serie di procedure di memorizzazione (in PL/pgSQL) per implementare tutte le operazioni previste dal modello per la creazione, modifica e query sui reticoli. Infine, notiamo che uno degli obiettivi principali del nostro sistema è quello di fornire un semplice linguaggio testuale che permetta a utenti non esperti (ad esempio archeologi, geologi, ecc.) la creazione di uno scenario virtuale. Gli oggetti 3D che compongono il mondo possono essere creati ex novo, definendo e assemblando nuovi reticoli oppure modificando reticoli esistenti. 134 Il linguaggio proposto è conforme alle regole di una grammatica, definita utilizzando il tool ANTLR, che è composta da tre principali tipologie di dichiarazioni: definizione di entità, operazioni di manipolazione e operazioni di query. I comandi appartenenti alla prima categoria consentono di creare un reticolo nuovo, definendo i suoi vertici e le sue facce. Al contrario, nelle operazioni di manipolazione e query si modificano e recuperano reticoli già esistenti. 5. Andria. Castel del Monte. 6. Casi di studio In questa sezione presentiamo due casi di studio per il dominio dell’archeologia virtuale. Il primo scenario riguarda la modellazione e la ricostruzione 3D, supportate dal nostro sistema, e l’esportazione in Google Earth di Castel del Monte, un edificio del XII secolo (fig. 5), situato ad Andria (Italia). In tal caso il flusso di lavoro fornito dal nostro sistema, per il caso di studio proposto, è il seguente: raccolta di tutta la necessaria documentazione sul castello; modellazione 3D attraverso la decomposizione dell’oggetto in una serie di oggetti 3D più elementari; costruzione e assemblaggio degli oggetti componenti attraverso il linguaggio definito; applicazione di texture; esportazione nel formato Collada; importazione nell’ambiente di Google Earth. In particolare, il castello può essere visto composto da un corpo centrale di forma ottagonale e una serie di 8 torri laterali (fig. 6). Per costruire il corpo del castello, in primo luogo, abbiamo generato la struttura di base definendo i suoi vertici e le sue facce e quindi abbiamo ottenuto la struttura completa, applicando una serie di operazioni di estrusione. Al contrario, per costruire le torri laterali abbiamo effettuato due operazioni di join su una serie di 3 poligoni ottagonali sottoposti a diverse operazioni di estrusione e rotazione. Le torri sono poi state traslate in corrispondenza di ogni vertice della struttura di base e unite al corpo centrale. Successivamente, i dettagli della facciata del castello sono stati ottenuti da apposi135 6. Elementi base del castello. 7. Ricostruzione 3D del castello importata in Google Earth. te operazioni di rotazione, traslazione ed estrusione su una serie di forme di base. A titolo di esempio, si riportano di seguito le istruzioni del linguaggio usate per la costruzione di una torre laterale. R1=Create (Polygon,8,1.25); R2=Extrusion (R1,0,1,0,1,0,1,0,1); R3=FaceExtrusion (R2,2,0,0.01,0,1.03,0,0.03,0,1); R4=R3; R5=Rotation (R4,3.14,0,0); R6=R3.F19 Join R5.F19; R7=FaceExtrusion (R6,36,0,0.1,0,1.01,0.1,0.1,0,0.1); R8=Create (Polygon,8,1.35); R9=Extrusion (R8,0,0.3,0,1,0,0.3,0,1); R10=R9.F2 Join R7.F1 Infine, abbiamo applicato le apposite texture sulle facce dell’oggetto ottenuto ed esportato l’oggetto finale nel formato Collada. L’oggetto 3D è stato poi importato in Google Skecthup e poi esportato in Google Earth (fig. 7). 136 Nel secondo scenario si considera un archeologo che durante alcuni scavi presso delle rovine etrusche recupera una parte di un’anfora (fig. 8, a), in particolare la sua base, e vuole ottenere attraverso il suo smartphone l’anteprima di una sua rappresentazione 3D. A questo punto, l’archeologo può generare il semplice modello 3D della base dell’anfora (composto da due poligoni estrusi e da un cono ruotato), usando il nostro linguaggio di costruzione, ad esempio, attraverso le seguenti istruzioni. 8. Processo di creazione dell’anfora etrusca: (a) reperto iniziale, (b) riscotruzione 3D della base, (c) risultato della query. 9. Tempi di costruzione di un oggetto in funzione del numero di facce. R1=Create (Polygon,24,1.5); R1=Extrusion (R1,0,1,0,1.2,0,1,0,1.1); R2=Create (Cone,1.5,1); R2=Rotate (R2,1.56,0,0); R3=Create (Polygon,24,1.5); R3=Extrusion (R3,0,0.5,0,0.5,0,0.5,0,0.5); R3=Translation (R3,0,-1.5,0); R4=R1 Merge R2 Merge R3 Una volta ottenuto il nuovo oggetto (fig.8, b), il reticolo correlato può essere utilizzato come oggetto per una query basata sull’operatore di similarità di inclusione che restituisce tutte le anfore etrusche nel nostro database 3D (fig. 8, c) che contengono una base simile a quella osservato dall’archeologo. Inoltre, i risultati della query possono essere raffinati, utilizzando anche un operatore di similarità tra label attraverso l’istruzione riportata di seguito. R=Select (subset_similairty(R5) AND label_similarity(‘Etruscan amphora’). Si riporta infine (fig. 9) l’andamento dei tempi di costruzione degli oggetti 3D al variare del numero di facce da cui sono composti. Come è possibile notare, un limite per l’efficienza è data da oggetti composto di circa 2000 facce. Questo limite non è un problema reale se si considerano reperti archeologici che sono geometricamente semplici da costruire. 137 7. Conclusioni Questo lavoro ha presentato un modello di dati per oggetti 3D e uno strumento in grado di creare, gestire, visualizzare, eseguire query e memorizzare in un database relazionale oggetti 3D attraverso la definizione di un semplice linguaggio di creazione e query. Alcuni esempi nell’ambito dell’archeologia virtuale hanno evidenziato l’utilità del sistema per la creazione semplificata di ambienti 3D. Gli sviluppi futuri saranno incentrati su: 1) l’espansione del modello geometrico e la definizione di nuovi operatori di query; 2) l’integrazione di interfacce grafiche per semplificare la gestione dei oggetti 3D; 3) una sperimentazione più dettagliata del sistema. 138 Abbreviazioni bibliografiche ABDUL RAHMAN-PILOUT 2007 A. Abdul Rahman - M. Pilout, Modelling for 3D GIS, Springer 2007. ARENS et alii 2005 C. Arens - J. Stoter - P. Oosterom, Modelling 3D spatial objects in a geo-dbms using a 3d primitive, in Computers and Geosciences, 1, 2005, 165-177. BIMBO-PALA 2006 A. D. Bimbo - P. Pala., Content based retrieval of 3D models, in ACM Trans. Multimedia Computing, Communication and Applications, 2, 2006, 1-24. CHAU-CHITTAYASOTHORN 2007 V. T. N. Chau - S. Chittayasothorn, A temporal metadatabase system for 3D objects, in Proceedings of the 7th IEEE International Conference on Computer and Information Technology, Fukushima 2007, Washington 2007, 151-156. ESCOBAR-MOLAN et alii 2007 M. Escobar-Molan - D. Barrett - E. Carson - N. McGraw, Representation for databases of 3D objects, in Computers, Environment and Urban Systems, 31, 2007, 409-425. Kawai et alii 1999 Y. Kawai - Y. Higashiyama - K. Koyama - M. Okada, A fundamental study on a natural-language-based 3D cg modelling, in Proceedings of the IEEE International Conference on Systems, Man, and Cybernetics (SMC), Washington 1999, 714-719. Referenze iconografiche Autori: figg. 1-4; 6-9. Wikipedia: fig. 5. Angelo Chianese Dipartimento di Informatica e Sistemistica. Università degli Studi di Napoli Federico II. [email protected]. Antonio Picariello Dipartimento di Informatica e Sistemistica. Università degli Studi di Napoli Federico II. [email protected]. Vincenzo Moscato Dipartimento di Informatica e Sistemistica. Università degli Studi di Napoli Federico II. [email protected]. 139 Luca Bezzi Nicolò Dell’Unto Rilievo tridimensionale di reperti archeologici: tecniche a confronto Abstract This contribution is intended to present the results of some comparative tests between different techniques for tridimensional digital documentation, applied to archaeological finds. Both open source and proprietary solutions have been analyzed, investigating pros and cons of their approach and considering the characteristics of hardware and software components from an archaeological point of view. Our attentions was especially focused on Computer Vision applications (mainly based on software) with a comparison of Microsoft’s product Photosynth with the GPL licensed Bundler. Another point of interest (hardware side) has been the investigation on optic sensors, which took us to concentrate on the triangolation laserscan Next Engine (proprietary) and on the structured light Three Phase Scan (open source)1. 1. Il rilievo dei reperti archeologici: lo stato dell’arte Il rilievo dei reperti costituisce una delle fasi imprescindibili della disciplina archeologica. Da esso, infatti, dipende tutta quella branca di studi tipo-cronologici su cui si fondano, in ultima istanza, anche le analisi e le interpretazioni di più ampio respiro, volte a individuare, nei loro limiti spaziali e temporali, le diverse sfaccettature della cultura materiale (siano esse ascrivibili a gruppi etnici, facies, vere e proprie culture o a semplici influenze stilistiche). Per questo motivo nel corso dei decenni è stata sviluppata una serie di convenzioni grafiche condivise, atte a rappresentare i singoli manufatti oggetto di indagine (nella maniera più chiara e accurata possibile); si è andato cioè delineando quell’insieme di codifiche alla base del disegno archeologico. Solo in questo modo è stato possibile studiare intere collezioni di reperti, composte da centinaia di esemplari, oppure comparare analiticamente manufatti rinvenuti o conservati a notevole distanza, evitando i 1 Gli autori intendono ringraziare tutte le persone e le istituzioni che hanno reso possibile la stesura del presente articolo, e in particolare: lo HumLab (http://www.humlab.lu.se/) dell’Università di Lund (Svezia), per aver fornito lo scanner Next Engine e le macchine di calcolo; i dott.ri Sandra Heinsch e Walter Kuntner della Innsbruck Universität e il prof. Vakhtang Licheli della Javakhishvili Tbilisi State University (Georgia) per i dati provenienti dallo scavo di Khovle Gora; la dott.ssa Nicoletta Pisu della Soprintendeza per i Beni Librari, Archivistici e Archeologici di Trento, per i dati provenienti dallo scavo della chiesa di S. Andrea presso Storo; il dott. Viktor Jansa del TUWA (Tauchverein fűr Unterwasserarchäologie), per le foto subacquee; la dott.ssa Sara Caramello, la dott.ssa Paola Matossi l’Orsa e la Fondazione Museo delle Antichità Egizie di Torino per i dati provenienti dal Museo Egizio di Torino. I diversi rilievi registrati durante le sperimentazioni condotte per la stesura del presente articolo sono stati effettuati tramite strumentazione hardware e software differente, che può aver influito, almeno in parte, sulla tempistica generale dei test. In particolare, per i test riguardanti Photosynth e Next Engine è stata utilizzata una macchina DELL (8 GB di RAM, scheda grafica Nvidia Quattro con sistema operativo Windows 7). Diversamente per i test su Bundler e su Three Phase Scan ci si è appoggiati a un laptop Acer Aspire 5685WLMi (2 GB di RAM, scheda grafica Nvidia GeoForce Go 7600) con sistema operativo ArcheOS. 141 problemi logistici di un esame diretto degli oggetti. A tutt’oggi il disegno archeologico, nonostante i suoi limiti, rappresenta il metodo più utilizzato per registrare e condividere le caratteristiche metriche e morfologiche dei reperti ed è inoltre soggetto a un’evoluzione metodologica, derivante dalle nuove possibilità offerte dalla computer grafica2. Negli ultimi anni, tuttavia, il continuo sviluppo di tecniche e strumentazioni di rilievo tridimensionale e il relativo abbassamento dei loro costi hanno posto le basi per una rivalutazione complessiva del problema, imponendo all’attenzione della comunità scientifica gli evidenti vantaggi di una documentazione dei manufatti in tre dimensioni. Proprio il confronto tra alcune di queste tecniche 3D è l’oggetto principale del presente contributo in cui si tenta di analizzare non solo la capacità geometrico-descrittiva, ma anche il grado di accessibilità e versatilità delle metodologie proposte, siano esse open source o a codice chiuso. 2. Tecniche di rilievo prese in esame Nel vasto panorama delle tecniche di rilievo tridimensionale attualmente disponibili, ci siamo limitati ad analizzare le metodologie considerate più accessibili, quelle cioè che per il loro basso costo possono essere utilizzate nella maggior parte dei casi di studio archeologici, senza incidere in maniera significativa sul budget a disposizione. Per questo motivo sono stati esclusi dai test tutti quegli strumenti hardware che per la loro complessità intrinseca raggiungono cifre che esulano dalla disponibilità economica di un progetto di media grandezza; inoltre non è stata presa in considerazione la tipologia dei laser-scanner ibridi (a modulazione e tempo di volo). Un’ulteriore selezione è stata operata in base all’effettiva possibilità di applicazione al delicato campo dei beni culturali, escludendo, in tal modo, tutti quei sensori che necessitano di un contatto diretto con l’oggetto da rilevare (con il rischio di danneggiare il reperto). Sono dunque state eliminate tutte le sonde appartenenti alla categoria nota con il nome di “tastatori”. In sostanza, in base a ulteriori considerazioni riguardanti la tempistica e la complessità di work-flow, si è ristretto il campo delle varie metodologie possibili a due tecnologie principali: la Computer Vision e i sensori ottici (figg. 1-6). All’interno di queste due categorie si è cercato di mettere a confronto sistemi open source e sistemi chiusi, verificando di volta in volta vantaggi e svantaggi dei due approcci. Infine, si sono valutate a livello complessivo le diverse tecniche esaminate, cercando di arrivare a una comparazione impostata su quattro parametri discrezionali: velocità, precisione, versatilità e prezzo. 2.1. La Computer Vision Grazie alle innovazioni introdotte di recente nel campo della Computer Vision e, in particolare, nel settore della Structure from Motion (SfM), è oggi relativamente facile ottenere un rilievo tridimensionale utilizzando una fotocamera digitale e programmi specifici per il processamento dei dati3. La prima tecnica da noi sperimentata appartiene a questa branca dell’informatica, dove la ricostruzione delle tre dimensioni è gestita interamente da una combinazione di software, il cui input si riduce a un semplice set di immagini dell’oggetto da riprodurre. Scopo primario dei test effettuati tramite SfM è stato quello di mettere a confronto le due principali applicazioni esistenti in questo settore, ovvero il prodotto di casa Microsoft, Photosynth (fig. 1), a codice chiuso, e l’alternativa open source Bundler. Per 2 3 142 BEZZI et alii 2010 a. BEZZI et alii 2010 b. 1. Schermata iniziale della applicazione web Microsoft Photosynth. 2. Finestra principale di PPT-GUI. 3. Lo scanner Next Engine. 4. L’interfaccia di ScanStudio. 5. L’hardware utilizzato per il Three Phase Scan. 6. Il software di controllo del Three Phase Scan. raggiungere risultati soddisfacenti a livello archeologico, si è dovuto tuttavia integrare la pipeline di entrambi i programmi con applicazioni di Image-Based Modeling (IBM) e, in particolare, di Multiple View Stereovision (MVS), al fine di ottenere nuvole di punti sufficientemente dense, in grado di rappresentare in maniera accurata gli oggetti rilevati. In questa prospettiva si è aggiunto al workflow complessivo il software a codice aperto PMVS2, mentre per l’elaborazione finale e il post-processing (ovvero la creazione delle mesh) si è utilizzato Meshlab, anch’esso open source. In definitiva i due metodi esaminati si compongono di una pipeline completamente FLOSS (Free/Libre e Open Source Software), ovvero Bundler-PMVS2-MeshLab, e di un sistema ibrido, formato dal software proprietario Photosynth, unito ai soliti PMVS2 e Meshlab. Questa soluzione è stata dettata, da una parte, dalla mancanza di valide alternative chiuse per le fasi di IBM e MVS, dall’altra, dall’eccezionale livello tecnico raggiunto da Meshlab, ormai di fatto una “killer application” nel campo del mesh processing. 2.2. I sensori ottici Per quanto riguarda i sensori ottici presi in esame, la prima scelta è caduta sullo 143 7. Una fase di scansione con Three Phase Scan (proiezione di un pattern sull’oggetto). 8. I tre pattern di Three Phase Scan. scanner Next Engine (fig. 3), uno strumento accurato e low-cost, spesso utilizzato nell’ambito dei beni culturali4. Questo apparecchio appartiene alla famiglia degli scanner a triangolazione, ovvero a quell’insieme di macchinari che basano il rilievo 3D su formule trigonometriche in grado di definire la posizione di una linea laser proiettata sull’oggetto da rilevare e catturata da un sensore CCD (una videocamera), sistemato a una distanza nota rispetto a quella dell’emettitore di luce. L’hardware è gestito da un programma proprietario molto solido, ScanStudio (fig. 4) che consente di controllare un elevato numero di parametri attraverso un’interfaccia grafica intuitiva. Rispetto ad altri scanner commerciali della stessa categoria, questo strumento è uscito sul mercato a un prezzo estremamente contenuto, cosa che ha permesso una sua distribuzione su larga scala nel settore dei beni culturali. Purtroppo, nel tentativo di comparare lo scanner proprietario Next Engine con un prodotto omologo open source, si è dovuto fare i conti con l’attuale assenza di valide alternative libere. Per questo motivo si è deciso di sperimentare un’altra tipologia di sensore ottico, ovvero lo scanner a luce strutturata Three Phase Scan. Questo progetto utilizza componenti hardware molto semplici che, nella sua configurazione base, si riducono a un miniproiettore e a una webcam (fig. 5), mentre, per il lato software, si appoggia a diversi programmi a codice aperto (Processing, ControlP5, Peasycam, Structured-light) (fig. 6). Il suo funzionamento è relativamente facile e dipende dalla proiezione di tre diversi pattern codificati (generalmente barre bianche e nere) (fig. 8) che vengono deformati dalla superficie dell’oggetto da rilevare (fig. 7). Contemporaneamente un sensore CCD registra le tre immagini corrispondenti e, attraverso la triangolazione, il software è in grado di ricostruire la morfologia dell’oggetto rilevato. Ulteriori test sono stati effettuati anche su un’altra tipologia di sensore ottico open source, ovvero sul progetto di scanner a silhouette Splinescan. In questo caso la registrazione tridimensionale degli oggetti è effettuata attraverso il riconoscimento di una serie di profili continui, evidenziati dalla silhouette proiettata da una linea laser. Per facilitare il compito del software di controllo, l’oggetto da rilevare è di norma posto su un piano a rotazione costante (nel nostro caso un normale espositore da vetrina). L’insufficiente risoluzione delle scansioni ottenute e la bassa attività del progetto negli ultimi anni, hanno però spinto a sospendere temporaneamente le sperimentazioni, in attesa di ulteriori sviluppi. Infine, al momento della stesura del presente articolo, sono stati effettuati nuovi test, basati sul promettente sensore MakerScanner, che potrebbe in futuro costituire una valida alternativa a Next Engine. Allo stato attuale, però, l’eccessiva instabilità del software e i continui crash hanno suggerito, anche in questo caso, di interrompere gli esperimenti in vista una stabilizzazione del programma. 4 144 TRUPPIA 2007. Nel campo dei sensori ottici, dunque, il confronto tra tecnologie a codice chiuso e soluzioni a codice aperto, oggetto principale di questo contributo, è stato effettuato essenzialmente su due strumenti appartenenti a categorie diverse (scanner a triangolazione e scanner a luce strutturata) ed è, quindi, da considerarsi con le dovute cautele. 9. L’oggetto utilizzato per i test. 3. Il modello di riferimento Il modello utilizzato nell’ambito dei vari test è stato scelto in base a delle specifiche che lo rendessero un campione di difficoltà medio-alta. In particolare si è cercato di trovare un oggetto che replicasse alcune tra le caratteristiche più comuni a varie tipologie di reperti, ma che allo stesso tempo rappresentasse un caso limite per le diverse tecniche di rilievo sottoposte a esame. In particolare, si è puntata l’attenzione sulla presenza del colore nero (che poteva causare problemi sia a metodologie basate sulla Computer Vision, sia ai sensori ottici); sulle ridotte dimensioni (4 cm circa); sulla simmetria regolare (aumentando il gradiente di difficoltà per le tecniche di SfM, soggette a potenziali confusioni tra due facce simili in una simmetria assiale); sulla presenza di elementi irregolari o in grado di causare zone d’ombra durante la scansione e, infine, su di una superficie che presentasse aree dalle caratteristiche diverse, tra cui almeno alcune zone lucide o parzialmente riflettenti (che potevano ingenerare disturbi e rumori vari sia durante la proiezione di luce, laser o strutturata che fosse, sia durante l’acquisizione di immagini tramite dispositivi CCD). L’oggetto visibile in fig. 9, ha pienamente soddisfatto tutte queste esigenze, fornendo un campione sufficientemente complesso per i diversi test. 4. I test di rilievo 3D I risultati ottenuti dai test sono stati incoraggianti se non addirittura ottimali. Tuttavia i diversi sistemi presentano caratteristiche proprie, non solo per quanto riguarda la qualità dei dati raccolti, ma anche per quanto riguarda la tempistica dell’intero flusso di lavoro, senza considerare i differenti problemi logistici connessi alle specifiche esigenze dell’hardware di volta in volta utilizzato. Nei paragrafi seguenti verranno, quindi, analizzati più in dettaglio i vari metodi presi in esame, proponendo anche una veloce valutazione da un punto di vista archeologico. 4.1. Photosynth Il flusso di lavoro necessario per ottenere buone repliche 3d di reperti tramite il software Photosynth prevede, in prima istanza, l’acquisizione di un set di fotografie che ritraggono l’oggetto interessato da varie angolazioni. Questo passaggio è relativamente semplice e può essere effettuato con una normale fotocamera digitale, senza la necessità di ser145 10. I risultati di Photosynth. virsi di apparecchiature professionali. Ovviamente quanto migliori saranno le foto di partenza tanto migliore sarà il modello finale, con positive ricadute anche sui tempi di elaborazione. Per questo motivo è consigliabile eseguire una buona serie di riprese, curando sia l’illuminazione ambientale (con una distribuzione omogenea della luce su tutte le superfici), sia l’angolazione di scatto. In generale, i migliori risultati si ottengono in laboratorio, ruotando intorno all’oggetto (o facendo ruotare l’oggetto su uno sfondo nero) e fotografandolo ogni dieci gradi circa, magari aggiungendo passaggi integrativi nel caso di zone d’ombra. Una volta terminata questa prima fase, bisogna caricare il set di foto sui server Microsoft dove verrà processato mediante le tecniche di Structure from Motion, eseguendo lo Sparse Bundle Adjustement. Di norma, nonostante la grande quantità di dati da analizzare, si tratta di un passaggio che non richiede delle tempistiche lunghe, rispetto, ad esempio all’elaborazione in locale che caratterizza l’alternativa open source Bundler. Tuttavia, l’upload delle immagini, parte imprescindibile dell’intero processo, impone la variabile della velocità di connessione internet, rendendo la metodologia inadatta in situazioni di scarsa connettività alla rete. Come anticipato precedentemente, il risultato ottenuto durante questa prima fase non è di norma sufficiente per un rilievo accurato di un reperto archeologico. Si pone, quindi, la necessità di raffinare il dato superando la fase di SfM e affidandosi a un software come PMVS2 (open source), per rendere la nuvola di punti più densa attraverso le tecniche di Image Base Modeling e Multi View StereoVision. Il modello così ottenuto è pronto per la fase di mesh processing (ricostruzione della superficie dalla nuvola di punti) all’interno di un programma specifico come MeshLab (fig. 10). In definitiva Photosynnt si configura come uno strumento adatto anche a un uso professionale e sufficientemente versatile. Il flusso di lavoro è abbastanza veloce, vista anche la rapidità della fase di Structure from Motion, e in particolare dello Sparse Bundle Adjustment. Tuttavia, la dipendenza del metodo da un accesso a internet impone la variabile dei tempi di upload delle immagini, strettamente collegati alla disponibilità di banda della connessione utilizzata. I modelli finali raggiungono, nel complesso, una buona risoluzione, qualora (come nell’esperimento proposto) venga affiancato al software di casa Microsoft un programma per rendere le nuvole di punti più dense (PMVS2). Per quanto riguarda la proprietà dei dati, da un punto di vista legale, non ci sono particolari restrizioni nell’uso di Photosynth e, nello specifico, l’unica clausola posta da Microsoft riguarda l’accettazione del Microsoft service Agreement, che in fatto di contenuti caricati dall’utente dichiara: «Except for material that we license to you, we don’t claim ownership of the content you provide on the service. Your content remains your content. We also don’t control, verify, or endorse the content that you and others make available on the service». 4.2. Bundler La principale alternativa FLOSS a Photosynth è Bundler, un programma con cui 146 l’applicazione Microsoft condivide la genesi e di cui rappresenta in pratica un fork nato in seguito all’esperienza di Photo Tourism (il software sviluppato congiuntamente da Microsoft Research e dall’Università di Washington). Trattandosi anche in questo caso di un programma di Structure from Motion è ovvio che il primo passaggio del work-flow riguardi l’acquisizione dei dati tramite una fotocamera digitale. Non è il caso tuttavia di soffermarsi ulteriormente su questa fase poiché quanto è stato precedentemente descritto per Photosynth vale anche per Bundler, soprattutto se si considera il modo estremamente simile di lavorare delle due applicazioni, vista la comune origine. Per quanto riguarda il flusso di lavoro è bene invece sottolineare che l’utilizzo di Bundler viene notevolmente semplificato dal software Python Photogrammetry ToolBox (PPT) e della sua interfaccia PPT-GUI (fig. 2) che permette di concatenare in un’unica applicazione sia le vere e proprie fasi di Structure from Motion, sia quelle di Image Based Modeling e Multiple StereoVision (PMVS2), introducendo, inoltre, la possibilità (tramite il programma CMVS di “clasterizzare” la mole di dati da elaborare in gruppi ridotti di immagini, il cui numero rimane a discrezione dell’operatore. Questo sistema appare quindi più intuitivo e meno interattivo rispetto a Photosynth, i cui continui cambiamenti di software possono disorientare gli utenti più inesperti, rendendo nel suo complesso l’intera metodologia un po’ meno immediata e scorrevole. Dal punto di vista dei risultati (fig. 11), non vi sono grandi differenze tra quanto è possibile ottenere mediante la combinazione di Photosynth e PMVS2 rispetto ai modelli prodotti da PPT. Il principale punto di forza di Bundler consiste nella possibilità di elaborare i dati direttamente in locale, senza delegare a terzi questo delicato passaggio, come al 11. I risultati di Bundler. contrario avviene nel caso del prodotto di casa Microsoft e di altre applicazioni simili (ad esempio, Arc3D o Autodesk Photofly 2.0). La possibilità di lavorare sul proprio computer permette un più stretto controllo sull’intera “filiera” dei programmi coinvolti e, allo stesso tempo, una maggiore versatilità del sistema. Inoltre in questo modo è possibile processare i dati anche in ambienti privi di una connessione internet (come i cantieri archeologici). Tuttavia questo vantaggio è controbilanciato dalle tempistiche di elaborazione dei dati, decisamente più lunghe rispetto a Photosynth, e dall’utilizzo di un hardware di elevata capacità computazionale. Da questo punto di vista però appare molto promettente la continua e rapida evoluzione dei prodotti a codice aperto, che si avvantaggiano di molti sviluppatori (professionisti e non) sparsi per il mondo e del contributo di una comunità in continua crescita. In conclusione un utilizzo in campo archeologico di Bundler appare già possibile, al pari di Photosynth, soprattutto per la risoluzione raggiungibile nei modelli tridimensionali, la cui elaborazione tramite Meshlab risulta peraltro molto semplice (trattandosi di un’unica nuvola di punti o di più nuvole già allineate, nel caso si utilizzi anche CMVS). Come si è visto, l’unica nota negativa riguarda la tempistica di processamento, legata alla potenza dell’hardware a disposizione per elaborare i dati. 147 12. I risultati dello scanner Next Engine. 148 4.3. Next Engine I migliori risultati (fig. 12), sia da un punto di vista della tempistica, sia per quanto riguarda la risoluzione dei modelli, sono stati ottenuti mediante lo scanner a triangolazione Next Engine. Questo sistema si avvantaggia soprattutto dell’estrema precisione e della relativa rapidità raggiungibile da questa particolare tipologia di scanner, il cui funzionamento è già stato brevemente descritto. Il suo utilizzo appare, inoltre, complessivamente semplice e, tramite alcune accortezze, garantisce la possibilità di documentare reperti anche mediamente complessi. Il principale punto debole di questa tecnica, invece, è rappresentato dalla sua scarsa versatilità, dovuta soprattutto all’apparecchiatura hardware necessaria, ossia lo scanner vero e proprio. Lo strumento risulta, infatti, meno maneggevole di una macchina fotografica ed è inoltre vincolato a un utilizzo su un piano d’appoggio stabile. Questo fatto impone di pianificare attentamente le scansioni prima di passare alla fase operativa vera e propria (almeno nei casi in cui non sia possibile muovere l’oggetto da documentare e sia quindi necessario spostare lo scanner per evitare zone d’ombra). L’utilizzo di un normale cavalletto per attrezzatura fotografica può comunque aiutare qualora si debba fissare lo scanner in posizioni angolate. In queste situazioni limite è, inoltre, consigliabile utilizzare il software MeshLab per l’elaborazione dei modelli e l’allineamento delle diverse nuvole di punti prodotti, in quanto più performante di ScanStudio, il programma a codice chiuso fornito con lo scanner. Un altro limite dello strumento riguarda invece le dimensioni degli oggetti da documentare, che possono essere scansionati in modalità Macro (coprendo un’area di 129×96 mm) oppure Wide (con un’area di rilievo di 345×256 mm). Anche in questo caso è possibile però ovviare al problema, producendo più scansioni (spostando lo strumento o l’oggetto da rilevare) e assemblandole poi in post-processing. Viste le ridotte dimensioni del campione utilizzato durante i test, non si è manifestata tuttavia la necessità di operare accorgimenti particolari e, anzi, tramite una semplice procedura standard, si è ottenuto un ottimo modello tridimensionale. Nel suo complesso, dunque, lo scanner Next Engine si è rivelato uno strumento molto performante. Veloce e accurato, al momento rappresenta probabilmente la migliore soluzione per un utilizzo professionale, specialmente in presenza di grandi quantità di reperti da documentare. Per quanto riguarda i suoi punti deboli, invece, al di là della già citata scarsa versatilità (che ne limita di fatto l’uso al solo campo dei reperti), va aggiunto il costo. Rispetto, infatti, alle alternative legate alla Structure from Motion, che per Photosynth come per Bundler non prevedono costi di alcun genere (se non quelli dovuti all’acquisto di una normale fotocamera), la spesa complessiva per lo scanner Next Engine si aggira sui 5000 $, tra hardware e software. 4.4. Three Phase Scan Vista la mancanza di soluzioni open source in grado di competere con un prodotto professionale come lo scanner Next Engine, si è deciso, come è stato già anticipato, di condurre i test su un apparecchio a codice aperto appartenente a una diversa categoria di sensori ottici e, più precisamente, alla famiglia degli scanner a luce strutturata. Il progetto selezionato si chiama Three Phase Scan ed è composto da un hardware molto semplice. In sostanza è sufficiente un proiettore di qualsiasi genere e un dispositivo CCD (nel nostro caso abbiamo utilizzato un microproiettore e una webcam, per una spesa complessiva di 150 $). La parte software è invece leggermente più articolata ed è formata da un gruppo di programmi rilasciati sotto varie licenze aperte. Nello specifico è necessario: il decoder Structured-light (New BSD License), che lavora all’interno dell’ambiente di sviluppo Processing (GNU GPL); l’applicazione PeasyCam (Apache Public License 2.0), per fornire, all’interno dello stesso ambiente, una finestra di visualizzazione delle nuvole di punti; la libreria di controllo ControlP5 (GNU Lesser GPL), in grado visualizzare un’interfaccia per applicare alcuni filtri e modificare i parametri principali dei modelli. Il funzionamento del sistema è abbastanza semplice e praticamente immediato: il videoproiettore illumina con tre diversi pattern l’oggetto da scannerizzare, mentre la camera registra le tre corrispettive immagini. A questo punto il software elabora le foto e ricostruisce una nuvola di punti, cui si possono applicare alcuni filtri standard, oltre a modificare dei parametri nel tentativo di ottenere un modello il più realistico possibile. Da un punto di vista strettamente tecnico, i risultati ottenuti con questo metodo non sono stati soddisfacenti, probabilmente per le ridotte dimensioni dell’oggetto documentato (4 cm circa) e per la scarsa qualità delle immagini registrate dalla webcam (il sistema non sembra comunque in grado di reggere immagini a più alta risoluzione, evidentemente per limiti legati alla componente software). Inoltre, durante l’intero procedimento l’accuratezza del prodotto finale è delegata in maniera eccessiva all’esperienza dell’operatore che deve saper regolare i parametri in maniera corretta e applicare i filtri giusti all’interno del software di controllo. Infine all’interno del modello sono comparsi degli errori spiegabili solo da un punto di vista di malfunzionamento del software durante la fase di riconoscimento ottico. Tali errori nell’ambito dei test da noi effettuati, si sono concentrati nell’area delle braccia della statuetta utilizzata (fig. 13), ma sono stati riscontrati anche nei modelli prodotti utilizzando le immagini campione allegate al programma structuredlight. Ciononostante il Three Phase Scan presenta qualche lato positivo, soprattutto considerando la rapidità con cui si ottiene un modello tridimensionale. Purtroppo però ciò non è sufficiente a controbilanciare la scarsa precisione e densità della nuvola di punti prodotta; anzi ulteriori problemi, in fase di mesh processing, sono causati dall’estrema regolarità nella disposizione dei punti rilevati all’interno della nuvola stessa (probabilmente dovuta alla regolarità dei pattern proiettati. 13. I risultati di Three Phase Scan. 149 14. Scavo presso la Chiesa di S. Andrea in Storo (TN). In definitiva, al momento, il progetto non sembra adatto a un uso professionale nella documentazione dei reperti. Maggiori potenzialità, vista la rapidità del work-flow, sembra presentare nel campo della modellazione 3D per le ricostruzioni archeologiche, in quanto sarebbe in grado di fornire in tempi brevi dei modelli su cui lavorare. Tuttavia vi sono anche in questo caso ampi margini di miglioramento, soprattutto per quel che riguarda la componente software. 5. Considerazioni finali In base ai test effettuati, lo strumento migliore per il rilievo tridimensionale dei reperti archeologici è risultato essere lo scanner Next Engine, almeno per quanto riguarda la velocità del flusso di lavoro complessivo e la risoluzione dei modelli ottenuti. Queste caratteristiche fanno sì che tale sistema si configuri come la soluzione ideale per tutti quei progetti in cui vi è la necessità di registrare una grande quantità di dati in tempi ristretti e, di fatto, la sua efficacia è, ad esempio, dimostrata dal suo utilizzo nell’ambito della creazione del Pottery Informatics Database5 del CISA3 (Center of Interdisciplinary Science for Art, Architecture and Archaeology) del California Institute for Telecommunications and Information Technology. Considerando, però, anche la variabile del prezzo, le proposte migliori, anche se dispendiose in termini di tempo, appaiono essere le tecniche che si basano sulla combinazione di software di Structure from Motion di Dense Stereo Matching, che, a fronte di una spesa complessiva pari a zero, restituiscono modelli virtuali molto accurati e assolutamente accettabili da un punto di vista archeologico; la risoluzione è spesso paragonabile a quella degli scanner a tempo di volo e in ogni caso implementabile mediante l’uso di ottiche macro6. L’estrema versatilità della suite di software di PPT rappresenta, inoltre, un ottimo strumento da utilizzare nei casi più difficili, come le missioni all’estero (fig. 16), le situazioni di emergenza (magari caratterizzate da condizioni di luce non ottimali e tempi ristretti nell’acquisizione) (fig. 17), l’archeologia subacquea (fig. 15) e le documentazioni tramite dispositivi di remote sensing (ad esempio, UAVP, fig. 14). 5 6 150 http://cisa3.calit2.net/arch/research/digitalpotery.php HERMON et alii c.s. Concludendo, si può affermare che la documentazione tridimensionale dei reperti è orami una tecnica applicabile in archeologia a qualsiasi livello, grazie al basso costo e alla relativa semplicità delle tecnologie necessarie. I risultati sono soddisfacenti e assolutamente adatti ai bisogni di ricerca della disciplina. Sotto molti punti di vista i modelli digitali tridimensionali sono in grado di veicolare le informazioni relative a un reperto in maniera molto più efficace di quanto non si possa fare attualmente col disegno archeologico, e questo non solo per la precisione del rilievo (scevro da errori umani ed eccessive distorsioni) ma anche per la velocità con cui possono essere trasmessi i dati e duplicati in rete. Inoltre i rilievi tridimensionali rappresentano delle riproduzioni più oggettive rispetto al disegno manuale, in quanto non sono generalmente influenzate dall’interpretazione dell’autore, né sono percepibili in esse le influenze stilistiche della mano di chi le ha prodotte. Non va, inoltre, sottovalutata la possibilità di ottenere in maniera automatica o semiautomatica dei disegni archeologici più aderenti alla realtà e codificati secondo le convenzioni normalmente accettate, proprio partendo da modelli digitali tridimensionali. 15. Rilievo SfM subacqueo (foto di Viktor Jansa, elaborazione Arc-Team). 16. Scavo di Khovle Gora in Georgia. Esempio di rilievo SfM durante una missione all’estero (Scavo Università di Innsbruck e Università Statale di Tiblilisi, rilievo Arc-Team). 17. Rilievo SfM in situazione estrema dovuta a cattive condizioni di illuminazione, presso il Museo Egizio di Torino (rilievo sperimentale operato da Luca Bezzi per gentile concessione della Fondazione Museo delle Antichità Egizie di Torino). 151 Abbreviazioni bibliografiche ARCHEOFOSS 2010 ARCHEOFOSS Open Source, Free Software e Open Format nei processi di ricerca archeologica, Atti del V Workshop, G. De Felice, M. G. Sibilano (edd.), Foggia 2010. BEZZI et alii 2010 a A. Bezzi - L. Bezzi - S. Cavalieri, Proposta per un metodo informatizzato di disegno archeologico, in ARCHEOFOSS 2010, 113-123. BEZZI et alii 2010 b A. Bezzi - L. Bezzi - B. Ducke, Computer Vision e Structure From Motion, nuove metodologie per la documentazione archeologica tridimensionale: un approccio aperto, in ARCHEOFOSS 2010, 103-111. HERMON et alii c.s. S. Hermon - D. Pilides - N. Amico - A. D’Andrea - G. Iannone - M. Chamberlain, Arch3D and LaserScanner. A comparison of two alternate technologies for 3D data acquisition, 38th Computer Application in Archaeology, Granada 2010, c.s. TRUPPIA 2007 L. Truppia, Scansioni di oggetti 3D: guida metodologica e casi di studio, Tesi di Laurea, G. Gallo, G. Impoco (edd.), Università degli Studi di Catania, a.a. 2007. Referenze iconografiche Archivio Fotografico Arc-Team: figg. 2, 5-17. Archivio Fotografico Soprintendenza per i Beni Librari Archivistici e Archeologici di Trento: fig. 14. Archivio Fotografico TUWA (Tauchverein für Unterwasserarchäologie): fig. 15. Archivio Fotografico Università di Innsbruck: fig. 16. Archivio Fotografico Università di Lund: figg. 10, 12. Sito ufficiale Microsoft hardware: fig. 5. Sito ufficiale di Microsoft Photosynth: fig. 1. Sito ufficiale di Next Engine: figg. 3-4. Sito ufficiale di Optoma: fig. 5. Luca Bezzi Arc-Team. [email protected] Nicolò Dell’Unto Lund University. Department of Archaeology and Ancient History. [email protected] 152 Pier Moulon Alessandro Bezzi Python Photogrammetry Toolbox: a free solution for ThreeDimensional Documentation Abstract The modern techniques of Structure from Motion (SfM) and Image-Based Modelling (IBM) open new perspectives in the field of archaeological documentation, providing a simple and accurate way to record three-dimensional data. In the last edition of the workshop, the presentation “Computer Vision and Structure from Motion, new methodologies in archaeological three-dimensional documentation. An open source approach.” showed the advantages of this new methodology (low cost, portability, versatility), but it also identified some problems: the use of the closed feature detector SIFT source code and the necessity of a simplification of the workflow. The software Python Photogrammetry Toolbox (PPT) is a possible solution to solve these problems. It is composed of python scripts that automate the different steps of the workflow. The entire process is reduced in two commands, calibration and dense reconstruction. The user can run it from a graphical interface or from terminal command. Calibration is performed with Bundler while dense reconstruction is done through CMVS/PMVS. Despite the automation, the user can control the final result choosing two initial parameters: the image size and the feature detector. Acting on the first parameter determines a reduction of the computation time and a decreasing density of the point cloud. Acting on the feature detector influences the final result: PPT can work both with SIFT (patent of the University of British Columbia - freely usable only for research purpose) and with VLFEAT (released under GPL v.2 license). The use of VLFEAT ensures a more accurate result, though it increases the time of calculation. Python Photogrammetry Toolbox, released under GPL v.3 license, is a classical example of FLOSS project in which instruments and knowledge are shared. The community works for the development of the 1 software, sharing code modification, feed-backs and bug-checking . 1. Introduction 3D Digital copy can be done by various technology, laser (ground), lidar (aerial), structured light, photogrammetry. They have their pros and cons. Laser and Lidar are accurate (millimeter precision) but expensive, even in rental agency, and their use requires formation. Photogrammetry is more and more accessible with the recent progress in electronics that make compact digital camera cheaper but less precise (centimeter precision). Photogrammetry with consumer camera does not reach the same performance as the laser but is accessible to anybody. Today Computer Vision algorithms are mature to be used by non technical users. It’s a very active research domain and a lot of progress have been done in the last decade. Such progress are visible with web-service like the Microsoft 1 This work have been made possible due to many individual Open-Source initiative. We thanks particularly Noah Snavely for Bundler sources, Yasutaka Furukawa for CMVS/PMVS sources and Vladimir Elistratov for the osmbundler initiative. 153 Photosynth Project2. Our objective consist in providing a tool-chain in order to make 3D digital copy easy. This tool-chain should be Free, Open Source and Cross-Platform to be accessible without constraint. Our pipeline draws largely from existing solution that have proven to be functional and adequate. 2. Related Work The reconstruction of a scene captured from different viewpoints by a set of 2D images is a computer vision problem that have been studied for decades. Such 3D reconstructions are able to describe the structure (3D points) of the scene and the configuration (motion) of the camera for the registered pictures. The 3D reconstruction problem could be decomposed into three main steps: 1. Correspondences between pairs of images are found and 3D configuration of image pairs is estimated (estimation of relative camera pose); 2. The two-view geometries are fused in a common coordinates system (estimation of global camera pose); 3. Having a complete camera calibration, a homogeneous dense model of the scene surfaces is computed using all images. While the two-view camera calibration is a well-studied problem, the multi-view camera calibration remains a challenging task. This multi-view calibration is crucial as it will determine the precision of the scene reconstruction and the quality of the resulting dense 3D model. The most impressive progress in SfM and MVS make possible to compute a 3D representation of a city from web pictures3, with aerial or ground images. But only a few free or open solution exists. Recent research gave birth to companies that have efficient products such as Pix4d4 and Acute3D5. A short history 3D reconstruction from pictures starts with project like Façade6, Canoma7 and PhotoModeler8 that use corresponding points selected by the user in various pictures to determine the 3D position of cameras and thus provide the user with an interface to model the pictured scene by hand . The process was long and required a lot of expertise. Progress in image matching and wide baseline matching allows now to determine the correspondences automatically thanks to contributions like SIFT9 or SURF10. In recent years, a lot of commercial products and web services make 3D reconstruction more accessible but computed 3D data are not always provided to the users. The main example is Photosynth. It only provides a 3D visualization service to travel through the set of photos but 3D data cannot be used for your own purpose. The web service uses the cloud as a storage and computational platform, so the pictures and computed data usage are not under your control. Some web services are free (ARC3D11 or CMP SFM 2 http://photosynth.net. AGARWAL et alii 2009; FRAHM et alii 2010. 4 http://www.pix4d.com/ 5 http://www.acute3d.com/ 6 http://ict.debevec.org/~debevec/Research/ 7 http://www.canoma.com/ 8 http://www.photomodeler.com/ 9 LOWE 2004. 10 BAY et alii 2008. 11 http://homes.esat.kuleuven.be/~visit3d/webservice/v2/ 3 154 WebService12) but again they use a cloud for computation so there is no control over data (pictures) usage. 1. Structure from Motion/ImageBased Modeling's standard workflow. Thanks to the emergence of Open Source frameworks (Bundler13, CMVS/PMVS14) that perform multi-view calibration and dense 3D point cloud computation, we aim to develop a free and easy to use pipeline in order to make 3D digital copy easy. We provide the user a self-contained solution that gives him control on the whole data flow. As pictures are under user’s property we chose a user-side pipeline. The main drawback of our approach is that computation speed depends from user’s computer. It could have some drawbacks for large scenes or large images but a compromise between performance and quality can be done by reducing image size dynamically in the toolbox. 3. 3D from pictures, the basis Building 3D “model” from pictures consists in recovering 3D camera positions related to pictures and 3D positions of particular content of the images. It is done by identifying similar content between N views and solve 3D geometry problems. User input consists of an image collection and camera parameters. The computed output is a set of 3D camera positions and 3D points (fig. 1). 3D from pictures is an active research domain that rely on Computer Vision and more specifically, Image retrieval/matching, Structure from Motion (SfM) and Multiple View Stereovision (MVS). - Image matching finds common local sub-image between two pictures. - Structure from Motion estimates the relative camera position from anchor points computed at the previous step. - Multiple View Stereovision estimate a dense representation of the 3D model (Dense point cloud). 3.1. Matching Image matching identifies pictures that can be used to compute the relative orientation of 2 cameras and thus to calibrate a network of images. This process of image mat- 12 http://ptak.felk.cvut.cz/sfmservice/ SNAVELY et alii 2008. 14 FURUKAWA 2010. 13 155 2. Three steps of Image Matching and final geometric graph. ching is performed in 3 steps: 1. compute local content on each image (Feature and Descriptor computation, for instance SIFT); 2. find putative matches between two pictures (find the nearest descriptor in the other image of the pairs); 3. check the geometry of the putative matches (Epipolar geometry). Once the image matching between all possible pairs is performed, a geometric graph is built (fig. 2). An edge is added if a geometric connection exists between two pictures. 3.2. Pose estimation Camera pose estimation finds the camera positions by solving the relative pose estimation problem. Relative pose estimation consists in estimating a rigid motion between two cameras, a rotation R and a translation T (fig. 3). This relative geometry between two views is faithfully described by an “Essential” matrix15. This Essential 3×3 matrix relates corresponding points in stereo images assuming that the cameras satisfy the pinhole camera model. This E matrix could be computed from 8 points with a linear method or with 5 points16. The 5 points method is preferred because it is the minimal case and it allows to add more constraint on the estimated matrix and so provides more accurate results. The image matching step is thus crucial: the more common points we get between pictures, the more accurate we can estimate image positions. The position of a camera can also be computed from correspondences between 3D points and corresponding projections in the image plane. This 3D-2D correspondence problem is known as Resection (fig. 4). It consists in estimating Pi (rotation, translation and internal parameters of the camera) with a ray constraint geometry. It finds the Pi configuration that minimize the re-projection errors between the rays passing through optical camera center to 3D points and the 2d image plane coordinates. Once two cameras are related with an Essential matrix and 3D points X are build, we can add incrementally new camera to the scene by using successive resection. Based on those computations (Essential, Resection) we can perform Incremental Structure from Motion. It’s the algorithm that is implemented in the 3D calibration software we use (Bundler). 15 16 156 http://en.wikipedia.org/wiki/Essential_matrix NISTER 2004. 3. Essential matrix E. 4. Resection. 3.3. Incremental Structure from Motion Bundler is one of the state-of-the-art implementation of incremental SfM. It takes as input an image series and camera information (like focal values extracted from Exif jpg data and CCD sensor size available on camera manufacturer website or dpreview.com). From an initial image network, Bundler chooses a pair of images, computes the relative pose with the Essential Matrix and try to add incrementally the remaining images in the 3D scene by using successive resections. In order to avoid incremental error, bundle adjustments17 is used to refine non linearly the estimated camera parameters and 3D point positions, and thus reduce the error across computed data whose size is growing. 17 http://en.wikipedia.org/wiki/Bundle_adjustment 157 This pseudo algorithm can be pictured as in fig. 5: 5. Bundler’s workflow. Input: ▪ image network of geometrically coherent pictures; ▪ internal camera parameters (Focal length, CCD sensor size). Output: ▪ camera position; ▪ sparse point cloud. Bundler suffers from some defaults. It’s code is not very clean and sometimes the 3D reconstruction fails due to drift error. But it has the advantage of being nearly the only Open-Source viable solution over internet with such performance. Recent community initiative like the libmv project18 is a prelude to a cleaner implementation of “Bundler clones”. This bricks could be replaced in the tool-chain in a near future. 3.4. Multiple View Stereovision Multiple View Stereovision (MVS) consists in mapping image pixel to 3D points fcposes, (images point cloud). This dense representation can be a dense point cloud or a dense mesh. In order to find a 3D position for each corresponding pixel of the image sequence, MVS uses multiple images to reduce ambiguities and estimate accurate content (fig. 6). One of the interesting state-of-the-art method is the Patch approach called PMVS (Patch MultiView Stereo)19. It is based on a seed growing strategy. It finds corresponding patches between images and locally expands the region by an iterative expansion and fil- 18 19 158 http://code.google.com/p/libmv/ FURUKAWA 2010. tering steps in order to remove bad correspondences (fig. 7). Such an approach finds additional correspondences that were rejected or not found at the image matching phase step. Fig. 8 shows benefit of using PMVS (empty 3D zones correspond to poorly textured or too ambiguous image zones): 4. The Python Photogrammetry Toolbox 20 The Python Photogrammetry Toolbox (PPT) implements a pipeline to perform 3D reconstruction from a set of pictures. Its design follows the classic reconstruction process. It takes pictures as input and performs automatically the 3D reconstruction for the images for which 3D registration is possible. PPT hides from the user the boring task of data conversion and files listing that are required to communicate through the various software components of the chain. Open Source software has been chosen to perform the intensive computational parts of the reconstruction pipeline: Bundler for the camera pose estimation and CMVS/PMVS for the dense point cloud computation. 20 6. Multiple View Stereovision (MVS) allows to convert image pixel to 3D points starting fcposes, photos point cloud. 7. Initial seed (left), patch expansion (middle) and problem parametrization (right). Source code is accessible from http://code.google.com/p/osm-bundler/ 159 8. Bundler result (calibration) on the left and PMVS result (dense point cloud) on the right. Initially Bundler and CMVS/PMVS are provided with some shell scripts that automates launching tasks, but one of the main drawback of shell is that it is not cross-platform. It cannot be used under Windows. Compilation of those software are not managed through the same basic interface (Makefile on Linux and vcproj on Windows) and so requires double maintenance for smooth compilation on both platform. Design choices in PPT make it cross-platform: ▫ it uses Python21 as a cross-platform script language to handle communication and software launching operations. It handles all the tasks that are required for our purpose (directory listing, file listing, images conversion, Exif reading, Sqlite database management); ▫ it uses Cmake22 for the compilation configuration of the chosen code-that is available under the Open Source Photogrammetry code repository23. PPT provides a tool-chain that is easier to maintain and use than the previous approaches. It defines a clear pipeline to handle 3D reconstruction. This pipeline is designed as python module with a High Level API in order to be extensible in the future. It results in a 3-level application: Interface, Python modules and Software. A graphic wrapper has been developed to hide the command-line calls that are required to use the chain through python modules. It provides a 2-step reconstruction workflow. The multi-level application makes maintenance easier. Each bottom module can be updated as long it respects the designed High Level API. This makes the interface easily extensible. For example the python wrapper uses a design pattern interface in order to have various feature detection/description algorithm for the image matching step (the user can use the David Lowe SIFT24 or the Open Source implementation VLFEAT25). Data workflow is organized in a temp directory created at the beginning of the process. All the required data to process the 3D reconstruction is located in this directory. Data is updated by the different element of the tool-chain and showed at the end to the user via a directory pop-up. The main workflow is illustrated in fig. 9. It’s interesting to take a 21 http://www.python.org/ http://www.cmake.org/ 23 https://github.com/TheFrenchLeaf 24 http://www.cs.ubc.ca/~lowe/keypoints/ 25 http://www.vlfeat.org/ 22 160 closer look to the 2-step process workflow (RunBundler and RunCMVS) to better see the job of the python scripts. RunBundler (fig. 10) performs the camera calibration step. It computes the 3D camera pose from a set of images with corresponding “camera model”/”CCD width size” embedded in a Sqlite database. In fig. 10, orange coloured items (bottom squares) are the created files. We recognize image matching tools (sift, matchFull) and the 3D pose estimation software (Bundler). RunCMVS (fig. 11) takes as input the images collection, cameras poses and perform the dense 3D point cloud computation. Data conversion from Bundler format to CMVS/PMVS format is done by using Bundle2PMVS and RadialUndistort. Dense computation is done by PMVS as well as CMVS, that is an optional process to divide the input scene in many smaller instances to make the process of dense reconstruction faster. 9. Python Photogrammetry Toolbox pipeline. 10. RunBundler pipeline. 161 11. RunCMVS pipeline. 12. Python Photogrammetry Toolbox GUI. PPT-Gui (fig. 12) is the graphical interface to interact easily with the photogrammetry toolbox26. The GUI part is powered by PyQt427, a multi-platform gui manager. The interface is designed in two different parts: a main window composed by numbered panels which allows the user to understand the steps to perform, and a terminal window in which the process is running. The GUI is deliberately simple and it is build for people who are not familiar with command-line scripts. The four panels lead the user to the end of the process through only two steps: Run Bundler (panel 1) and Run CMVS\PMVS (panel 2). Running CMVS before PMVS is highly recommended, but not strictly necessary: there is also the possibility to use directly PMVS (panel 3). Panel 4 provides a fast solution to integrate the SQL database with the CCD width (mm) of the camera, without using external software. 26 27 162 Source code is accessible from https://github.com/archeos/ppt-gui/. http://wiki.python.org/moin/PyQt4 5. Application Archaeological field activity is mainly a working process which ends, in most cases, with the complete destruction of the site. Usually a ground layer is excavated to investigate the underlying level. In the lack of particular expensive equipment (laserscanner, calibrated camera) or software (photogrammetric applications), field documentation is composed by pictures (digital or films), manual drawings, total station measurements and bi-dimensional photo-mosaics. At best all the data are connected together inside a Geographical Information System (GIS). The last years’ progresses of Computer Vision open new perspectives, giving to everybody the possibility to record three-dimensional data. The benefits of this technique are different: ▪ it is a software-based technology in continuous development (data analysed today could be processed in future ending in better results); ▪ it is well represented by Free and Open Source solutions; ▪ it needs only the equipment which is normally used in an excavation (digital camera and total station); ▪ easily portable hardware components allow archaeologists to work under critical or extreme conditions (e.g. in high mountain, underwater or inside a cave); ▪ the flexibility of this technique facilitates the documentation of a wide range of situations. 13. Mesh of an archaeological layer in Georgia. The next chapters introduce some examples of application in different scales: from macro (layers, structure) to micro (finds). 5.1. Layers Normally archaeological layers are documented using photomapping techniques, a bi-dimensional projection of reality which produces rectified images starting from zenith pictures and ground control points (GCP). Using the same instruments (digital camera and total station) it is possible to record also the morphology of the level (figg. 13-14). The 163 14. Stratigraphy (both vertical and horizontal) of an archaeological trench. data acquisition is fast and simple: it consists exclusively in taking pictures of the area of interest (both horizontal surfaces and vertical sections) paying attention to include at least four measured marks, which will be used in data processing to georeference the final model. The same rules of the traditional photography are to be followed: centre the desired object in each picture, avoid extreme contrast shadow/sun, use a tripod in low-light condition. There are no limits around the number of images: it depends on the complexity of the surface and on the power of the hardware (RAM) which will process the data. 5.2. Architectonic Structure This technique is particularly indicated for architectonic monuments (figg. 15-16). In this case the main difficulty is to cover the whole object with a good photo set, in order to avoid holes in the final mesh. Most of the time it is possible to solve logistical problems related to the complexity of the structure, using specific hardware like telephoto lenses or remote sensing devices (UAV). 164 15. Dense point clouds of the Mausoleum of Theodoric in Ravenna. 16. Inside the Mausoleum of Theodoric in Ravenna. 165 17. Mesh of an ancient vase documented in situ. 5.3 Finds (artefacts and ecofacts) Archaeological finds can be documented in situ, taking pictures moving around the object (fig. 17), or in laboratory using a turntable and a black background (fig. 18). In this last case the position of the camera during data acquisition is fixed, but will be split in more poses during data processing (fig. 19). Good results were reached taking a picture each 10 degrees, 36 photos for a complete revolution of the object. It is possible to use macros to obtain model of a small artefact. 5.4. 3D-data recovering from old or historical photo sets One the most interesting approaches of SfM is the ability to extract three-dimensional information from old or even historical photographs taken by amateurs for other purposes. The critical point of this application is to reach the minimal number of images needed to start the reconstruction process (3). It is much easier to find an appropriate photographic documentation since digital cameras have become a widespread phenomenon 166 18. 3D model of a loom weight documented in laboratory. 19. Dense point clouds of a human skull (left) extracted from pictures taken by a fix camera and “false” viewpoints (right). The object was rotating using a turntable. 167 20. Sparse point clouds of a ancient vase obtained from pictures taken by amateurs for other purposes. (figg. 20-21). If a monument in the present is not longer in his original conservation status or even completely destroyed (e.g. the Banyan Buddhas), Computer Vision is a valid method to recover the original morphology. 6. Conclusion Python Photogrammetry Toolbox (PPT) is an user-friendly application to perform 3D digital copies of pictured scenes. It provides a low-cost, portable solution that opens a direct access to Structure from Motion (SfM) and Image-Based Modelling (IBM) to every owner of a consumer camera. It opens particularly interesting perspective in the field of archaeological documentation due to the fact that a reflex camera is much cheaper than a laser scanner. A possible drawback of the current solution is that it uses a feature detector/descriptor for image matching (SIFT algorithm) that is under Patent in the USA. A rewritten and optimized version of SIFT is included inside VLFeat (an Open and Portable Library of Computer Vision Algorithms, released under GPL v. 2). This can’t completely solve the license problem but most of the users are aware of those constraints. A direct comparison between SfM/IBM and hardware technology (laser scan) or other photogrammetric applications is certainly possible, but it is not the objective of this 168 article. All these techniques are different in their approach, but they lead to similar results. The choice of one of these methods depends on various factors: environmental characteristics of the site, economic budget of the project and technical skills of the staff. Anyway SfM/IBM is able to satisfy some of the basic needs of a typical archaeological project: the reduction of costs related to equipment, a fast and simple data collection process and a low-interactive and easy data processing. For these reasons SfM/IBM is a viable alternative to more expensive (laserscan) or more technically complex (stereo-photogrammetric restitution) methods. From an archaeological point of view, the final intent is to acquire three-dimensional morphology of the layers that the excavation irreparably destroyed and to create a virtual copy of the archaeological record to allow continuous monitoring and further analysis. The good results achieved in a such fast way can be used to extract 3D volume (voxel) of each stratigraphic level, applying free software like GRASS, Blender and ParaView28. PPT is an open source solution, that make 3D reconstruction from images easier, in which user contribution will produce benefit for all the community. It is an example of how the combination of FLOSS projects can contribute to scientific and methodological progress. The future implementation will consider multi-thread computation, performance improvement and functionality addition. 28 21. Morphology of a wall surface extracted from photos taken in 2005, three years before the release of Bundler 0.1. BEZZI 2006. 169 Abbreviazioni bibliografiche http://imagine.enpc.fr http://mikrosimage.eu [email protected] AGARWAL et alii 2009 S. Agarwal - N. Snavely - I. Simon - S. M. Seitz - R. Szeliski, Building Rome in a day, in ICCV, 2009, 7279. Alessandro Bezzi Arc-Team s.n.c. http://www.arc-team.com/ [email protected] BAY et alii 2008 H. Bay - A. Ess - T. Tuytelaars - L. Van Gool, SURF: Speeded Up Robust Features, in CVIU, 2008, 346359. BEZZI 2006 A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, L’utilizzo di voxel in campo archeologico, in Geomatic Workbooks, 6, 2006. FRAHM et alii 2010 J. M. Frahm - P. Georgel - D. Gallup - T. Johnson - R. Raguram - C. Wu - Y. H. Jen - E. Dunn - B. Clipp S. Lazebnik, Building Rome on a Cloudless Day, in ECCV, 2010, 368-381. FURUKAWA 2010 Y. Furukawa - B. Curless - S. M. Seitz - R. Szeliski, Towards Internet-scale multi-view stereo, in CVPR, 2010, 1434-1441. LOWE 2004 D. G. Lowe, Distinctive image features from scaleinvariant keypoints, in IJCV, 2004, 91-110. NISTER 2004 D. Nister, An Efficient Solution to the Five-Point Relative Pose Problem, in IEEE Trans. Pattern Anal. Mach. Intell., 2004, 756-777. SNAVELY et alii 2008 N. Snavely - S. M. Seitz - R. Szeliski, Modeling the World from Internet Photo Collections, in IJCV, 2008, 189-210. Referenze iconografiche Autori: figg. 1-12. Institut fuer Alte Geschichte und Altorientalistik. University of Innsbruck (S. Heinsch, W. Kuntner): figg. 13, 20. Soprintendenza per i beni archeologici del Friuli Venezia Giulia (M. Frassine): figg. 14, 17. Soprintendenza per i beni librari, archivistici e archeologici della Provincia Autonoma di Trento (N. Pisu): figg. 18-19, 21. University of Udine (S. Marchi): figg. 15-16. Pierre Moulon IMAGINE/LIGM, University Paris Est & Mikros Image. 170 Micaela Spigarolo Antonella Guidazzoli Open Source e ricostruzione archeologica: l’esperienza del Cineca per il progetto Museo della Città Abstract This paper presents the almost entirely Open Source pipeline developed at Cineca in order to address the challenge of employing three-dimensional philologically accurate reconstructions (in part coming from previous projects made by Cineca with the University, CNR ITABC, the cultural department of Bologna City Council and civic museums) as sets in a 3D stereoscopic film whose aim is relating the history of Bologna. In 2009 Cineca was involved in the Genus Bononiae (www.genusbononiae.it) Musei nella Città cultural project, which has restored and opened to public several historical buildings in the centre of Bologna in order to define an integrated walk among these sites. The Cineca MDC Project developed a film whose concept is the big Bang of the history of Bologna and which is now part of the museum itinerary in Palazzo Pepoli, i.e. the ancient building dedicated to the history of the city, and displayed in the immersion room especially designed for it by Cineca. The aim is to take advantage of computer-based visualization methods to deliver information (culture) minimizing cognitive overload («visual is explained by visual», i.e. visual entities can be better explained by visual tools). This aim of the film actually raised a twofold challenge concerning both communicational and implementation issues. From a communicational point of view, the film enables a philological approach within an emotional/narrative process. The implementation challenge was not only related to finding the most suitable software for a traditional 3D film pipeline production, but had to face also the specific requirements of the project, such as integrating the traditional pipeline production with philological constraints. Open Source provided the most suitable tools to manage such a complex project, first of all Blender. The Open Source peculiar capability of exporting their output into a wide range of different file format made possible the interchange with the only proprietary software adopted (i.e. City Engine) in our Open pipeline. Furthermore, the Open Source model as «a set of heuristics about how to encourage participation and innovation» (O’Reilly, www.oreillynet.com/lpt/wlg/3017), enhanced a community actively engaged in the process (Cineca’s partners for this work are Spark Digital - www.sparkde.com, which has already produced short movies with the software Blender, and Lilliwood - www.lilliwood.eu, as the 3D stereography supervisor). As a result, this real production pipeline has been considered as a Blender Open Project, i.e. as a chance to study, in a real workflow production, requirements interesting for virtual heritage projects in general terms. For instance, a modeling approach which enhances reusability for 3D reconstructions. This made, as well, the MDC project a case-study for V-MusT.Net, the European Network of Excellence dedicated to Virtual Museums (www.V-MusT.net)1. 1. Introduzione Le possibilità offerte dall’ICT e il diffondersi di tecnologia COTS (Commodity Off the Shelf) aprono oggi nuove opportunità per la divulgazione e la fruizione di Cultural 1 Si ringrazia il dott. D. De Luca per il contributo alla stesura dei paragrafi 4 e 5 a partire dal suo impegno nel progetto MDC che si è formalizzato nella tesi di Laurea Magistrale in Scienze di Internet discussa nel 2011 presso l’Ateneo di Bologna. 171 Heritage (CH). Se da una parte l’interattività, come peculiarità del mezzo, determina per l’utente la possibilità di essere reso protagonista di una personale esperienza, lo strumento digitale ha introdotto una nuova logica del database2 nell’accesso all’informazione. Si aprono così nuove vie di condivisione del sapere secondo un modello sempre più affine a quello di produzione e distribuzione del software open source: creazione di community di sviluppo e libera partecipazione da parte dei singoli, diminuzione dei tempi di accesso ai risultati, condivisione in forma di oggetti del sapere, sviluppo del software cablato sulle reali esigenze determinate da una community. In questo processo di passaggio dal filologico all’emozionale e al tempo stesso di democratizzazione dell’opera d’arte, la modellazione 3D funge da ponte tra divulgazione e studio. Essa agevola la comprensione del messaggio collegato a ciascuna opera d’arte in quanto segno3 e al tempo stesso si rende oggetto di scambio per gli addetti ai lavori, avvalendosi del principio per cui «il visivo si spiega da solo» (ovvero, tutto ciò che è visivo può essere meglio spiegato da qualcosa che a sua volta sia visivo). In questo contesto si inserisce il progetto Cineca (www.cineca.it) MDC, acronimo per Museo della Città. Esso fa capo all’iniziativa Genus Bononiae (www.genusbononiae.it) Musei nella Città, patrocinata dalla Fondazione Cassa di Risparmio di Bologna, il cui intento è riunire in un percorso interculturale comune (artistico e museale) alcuni edifici del centro storico di Bologna, recentemente restaurati e recuperati all’uso pubblico. Il progetto ha impegnato un team eterogeneo (collaboratori esterni per l’animazione e la direzione della stereoscopia, nonché numerosi consulenti scientifici per la validazione dei contenuti e delle fonti storiche) nella sfida di realizzare un cortometraggio 3D stereo che raccontasse la storia della città di Bologna a partire da modelli filologicamente corretti, impiegati come set cinematografici in una narrazione. L’esperienza del Cineca nella ricostruzione archeologica ha consentito di selezionare gli strumenti più adatti per affrontare quella che si è ben presto rivelata una duplice sfida: da una parte, trasmettere correttamente il messaggio culturale intrinseco alla narrazione, dall’altra, affrontare le problematiche implementative tradizionali e insieme specifiche del progetto. Numerose le esperienze di virtual heritage che oggi si avvalgono della modellazione 3D per determinare nuove vie di accesso e studio all’opera d’arte e di cui si è fatto portavoce il progetto europeo V-MusT.Net (www.V-MusT.net). Quello che ha reso il progetto Cineca sui generis nel suo campo è stata l’idea di tessere intorno a queste ricostruzioni una narrazione che fungesse da espediente per trasmettere allo spettatore il contenuto culturale, con il minimo sforzo cognitivo ma il massimo risultato in termini di apprendimento “significativo”, nell’accezione costruttivista del termine4. Le ambientazioni assumono, dunque, importanza pari al personaggio protagonista, l’etrusco Apa, che funge da filo conduttore del racconto e che possiede anch’esso radici filologiche. Esso è stato, infatti, desunto dai rilievi su un’antica situla etrusca conservata presso il museo archeologico della città (fig. 1). Dal punto di vista implementativo, l’impegno si è principalmente declinato in due forme: da una parte, la realizzazione della pipeline tradizionale per un cortometraggio 3D stereoscopico, dall’altra, la gestione delle esigenze specifiche del progetto, prima tra tutte la gestione dei vincoli introdotti dall’approccio filologico alla ricostruzione dei set. Non si è trattato, pertanto, solo di selezionare il software più adatto per la ricostruzione delle ambientazioni e per la loro composizione all’interno della scena (nonché integrazione con modelli già esistenti, eredità del Cineca a partire dai numerosi progetti di virtual heritage sviluppati nel passato), ma anche di individuare gli strumenti migliori per la cooperazione e il dialogo tra i partner di progetto e per la conseguente integrazione di strumenti software eterogenei e talvolta vincolati dalle specifiche IT di appartenenza. 2 MANOVICH 2001. ANTINUCCI 2010. 4 JONASSEN et alii 2003. 3 172 In questo ambito, la scelta open source si è rivelata particolarmente adatta ad affrontare entrambi i contesti, introducendo, come valore aggiunto, gli strumenti per massimizzare lo sforzo del singolo a supporto del gruppo in termini di costruzione di quella architettura della partecipazione che O’Reilly individua oggi come peculiarità dell’approccio open source, più significativa della condivisione stessa del codice (www.oreillynet.com/lpt/wlg/3017). Per tale ragione, parallelamente al processo di produzione, sono stati sviluppati strumenti di collaborazione quali, per esempio, un blog. Il presente articolo illustra i software più significativi che sono entrati a far parte della filiera impiegata nel progetto MDC, evidenziando le caratteristiche che rendono ciascuno di essi idoneo a essere impiegato in una simile formula di produzione. Si tratta, dunque, di software open source, fatta eccezione per il solo caso di City Engine, software proprietario di modellazione procedurale del quale non si è potuto fare a meno poiché non esiste, al momento, alternativa open altrettanto valida. Un piccolo excursus verrà fatto a tal proposito per mostrare come in realtà la scelta open si sia rivelata appropriata anche all’ integrazione del software proprietario all’interno di una pipeline open. Il resto dell’articolo è strutturato come segue. Il paragrafo 2 introduce il progetto Cineca MDC. Il paragrafo 3 fornirà le motivazioni alla scelta open source in termini generali mentre il paragrafo 4 scenderà nei particolari dell’implementazione, suddividendo la presentazione del software in due categorie: implementazione della pipeline di produzione tradizionale di un filmato 3D (paragrafo 4.1) e gestione delle particolarità introdotte dal progetto (paragrafo 4.2). Infine, il paragrafo 5 fornirà alcune osservazioni sul valore aggiunto dall’impiego di software open source in termini di supporto al lavoro di gruppo. Conclusioni e previsioni di lavoro futuro sono fornite nel paragrafo 6. 1. Concept 2D e realizzazione 3D del personaggio protagonista, l’etrusco Apa, fuoriuscito da una situla in una notte di temporale. 2. Studio per la realizzazione della sala immersiva per Palazzo Pepoli, Museo della Città. 2. Cineca MDC Project Il progetto Cineca MDC (Museo della Città) fa capo all’iniziativa Genus Bononiae, Musei nella Città, patrocinata dalla Fondazione Cassa di Risparmio di Bologna, che nasce con l’intento di restituire all’uso pubblico e riunire in un percorso interculturale comune (artistico e museale) alcuni edifici del centro storico di Bologna recentemente restaurati o nelle fasi finali di restauro. In questo contesto viene chiesto al Cineca di realizzare un filmato 3D stereoscopico che racconti la storia di Bologna nelle sue tappe fondamentali; fin da subito si decide di porlo al centro del percorso museale del palazzo che sarà dedicato appunto alla storia della città, Palazzo Pepoli Vecchio. Il tema del filmato viene fissato nella frase «Il big bang della storia di Bologna» e l’importanza comunicativa attribuitagli è rinforzata dalla concomitante richiesta di progettare la sala immersiva (di cui mostriamo in fig. 2 uno degli studi 3D di realizzazione) dedicata alla sua proiezione. L’esperienza ha coinvolto per circa due anni (2009-11) un team di venti persone appartenenti a gruppi eterogenei (lo staff del Cineca si è avvalso della collaborazione di Spark DE, www.sparkde.com/intro.html per l’animazione e di Lilliwood, www.lilliwood.eu, per la stereoscopia), impegnati nella realizzazione di un cortometraggio 3D stereo che raccontasse la storia della città di Bologna a partire da modelli filologicamente corretti. Il filmato mostra, pertanto, Bologna attraverso i secoli in base alle ipotesi prevalenti di storici e archeologi. Si è trattato della sfida, peraltro già altre volte raccolta dal Cineca, di ricostruire ambientazioni 3D filologicamente corrette e impiegarle come interfaccia di accesso all’informazione correlata5. In questo caso, però, il contesto applicativo si sposta da quello tradizionale (di studio) a uno intermedio tra entertainment ed edutaiment. 5 ViSMan: DIAMANTI et alii 2010. 173 3. La scelta open source La scelta di privilegiare software open source (per quanto sia stato possibile) è frutto dell’esperienza Cineca nel campo delle ricostruzioni archeologiche. Precedenti collaborazioni con l’università6, ma anche con il CNR Itabc, il settore Cultura del comune e i musei civici, avevano già dato modo di sperimentare i vantaggi offerti da questa tipologia di software, tra cui ricordiamo: - la possibilità di far fronte alle difficoltà aggiungendo le nuove funzionalità necessarie; - l’ottima reperibilità e la buona compatibilità; - la possibilità di fare affidamento su di una ricca community di sviluppatori. A queste peculiarità di carattere generale, si sono aggiunte le funzionalità specifiche per affrontare le sfide del progetto. La possibilità di esportare in numerosi formati, per esempio, unita a una buona compatibilità mantenuta dall’open source, ha consentito di affrontare il problema della comunicazione tra software diversi. Questa possibilità ha, infatti, permesso di integrare nella catena di produzione open anche un software proprietario come City Engine, di cui non si è potuto fare a meno poiché non esiste ancora un’alternativa open altrettanto valida. L’impiego di formati aperti garantisce, inoltre, il riutilizzo del modello nel tempo, in sintonia con le esigenze di digital preservation. Non si dimentichino, infine, le possibilità offerte dalla virtualizzazione (appliance di macchine virtuali) contro l’aging del software, per esempio, o in termini di digital preservation di progetti di virtual heritage. La scelta open si è, inoltre, rivelata valido supporto alla collaborazione nel processo produttivo. Tramite Google Docs è stato possibile utilizzare la formula del Cloud computing per gestire il ciclo di vita degli asset (ovvero, qualsiasi elemento costituente uno scenario 3D) indipendentemente dai singoli strumenti di produzione. Infine, come valore aggiunto, l’open source ha incentivato l’implementazione di strumenti per la cooperazione che consentissero di valorizzare e massimizzare lo sforzo del singolo a supporto del gruppo. Per tale ragione, parallelamente al processo di produzione, sono stati sviluppati strumenti di collaborazione quali un blog e, ancora, la condivisione di documenti in formato Google Docs. Nei prossimi paragrafi, saranno approfonditi i software più significativi entrati a far parte della filiera open del progetto MDC, suddividendoli nei termini dei differenti ambiti di impiego in cui sono stati introdotti: gestione della pipeline (tradizionale e specifica) e sostegno al lavoro di gruppo. 4. Open source per la gestione della pipeline L’adozione di software open source è risultata particolarmente favorevole sia per gestire le problematiche inerenti la realizzazione di una pipeline di produzione di un filmato 3D stereo, sia per affrontare le problematiche specifiche di progetto. Nel primo caso, infatti, si è trattato non soltanto di selezionare il software più adatto, ma di farlo anche dialogare nei vari formati in uscita. Per esempio, programmi per la modellazione del terreno (Grass) e della città (City Engine) nelle varie epoche storiche così come i dati provenienti da sistemi informativi o acquisiti tramite scansione laser (per esempio, il Nettuno) dovevano essere integrati nei set (file .blend di Blender) insieme ai numerosi modelli di cui era già in possesso il Cineca, provenienti dai precedenti progetti di virtual heritage. Strumenti di dialogo e collaborazione sono stati, inoltre, necessari per i partner di progetto (Spark D.E. e Lilliwood). Si voleva, cioè consentire a ciascun gruppo di produrre internamente gli asset con il software più consono alle esigenze della spe6 174 Per esempio, BOCCHI-SMURRA 2010. cifica IT interna, astraendo, invece, a un più alto livello, le fasi della pipeline di produzione. Parallelamente, è stato necessario selezionare gli strumenti migliori per affrontare le sfide specifiche di progetto: a) integrare la gestione dei vincoli filologici nel processo di produzione della pipeline tradizionale di un filmato 3D; b) determinare una modalità di produzione dei modelli volta al riutilizzo. Come già accennato, infatti, le ambientazioni sono ricostruzioni filologiche supportate dalle fonti e realizzate insieme agli storici con un continuo feedback degli esperti e del regista, cercando di coniugare il rigore scientifico e le esigenze della storia. In prima istanza, l’inserimento dei vincoli filologici all’interno della pipeline di produzione ha causato l’integrazione di un nuovo sotto-albero inerente le fonti storiche nell’albero di repository (deposito centralizzato dei file) per la gestione degli asset. In secondo luogo, particolare attenzione è stata posta sul processo di produzione dei set. Esperienze come quelle realizzate dal progetto (ovvero l’impiego del visivo per trasmettere il messaggio connesso all’oggetto d’arte in quanto segno, riducendo lo sforzo cognitivo e, al tempo stesso, determinando apprendimento “significativo”) sono fortemente meaning-driven. Uno stesso modello, cioè, può dar luogo a numerose differenti esperienze di un oggetto d’arte a seconda dello specifico messaggio che si voglia privilegiare e quindi trasmettere per esso. A seguire una breve panoramica sul software open source impiegato, con particolare attenzione sugli elementi che si sono rivelati maggiormente significativi per la gestione di entrambi gli aspetti: realizzazione della pipeline tradizionale per un filmato 3D e gestione delle specificità del progetto (integrazione con i vincoli filologici e insieme riusabilità dei modelli). 4.1. Pipeline tradizionale I software impiegati nella pipeline tradizionale di produzione del progetto MDC sono prevalentemente Ubuntu Linux, come piattaforma, Blender e The GIMP come applicativi. Intorno ad essi gravitano strumenti specifici come Grass e Qgis per la ricostruzione dei terreni a partire dalle georeferenziazioni; MeshLab e Arch 3D per la gestione dei dati acquisiti tramite scanner (ad esempio Il Nettuno e la situla etrusca già citata). Approfondiamo qui di seguito l’impiego e gli specifici contributi nella pipeline di produzione solo per i primi tre. 4.1.1. Linux Ubuntu Ubuntu è una distribuzione Linux nata nel 2004, basata su Debian, che si focalizza sull’utente e sulla facilità di utilizzo. È corredata da un’ampia gamma di applicazioni “libere”, scaricabili e installabili gratuitamente, senza alcuna procedura di configurazione: sono presenti oltre trentamila pacchetti software free appartenenti all’universo Linux, tra cui programmi come Inkscape (grafica vettoriale), GIMP (fotoritocco), Blender (grafica 3D) e molti altri. Per tale motivo, Ubuntu è la piattaforma principale su cui è stato sviluppato il progetto. Il sistema operativo Ubuntu Linux, inoltre, con le sue derivate Xubuntu e Lubuntu, preferibili per via dell’impiego di gestori desktop più performanti e leggeri, ha consentito di far fronte all’aging rendendo nuovamente utilizzabili macchine con sistemi hardware datati. È stato possibile, per esempio, creare network-renderfarm per Blender per i test di rendering parziali e in alternativa alla renderfarm di progetto. Una tale architettura (fig. 3) è stata impiegata, per esempio, per le fasi di prova del rendering di una scena complessa: il volo verso Roma che Apa compie a metà del filmato per mostrare la Mappa Vaticana, splendido oggetto d’arte conservato in Vaticano, raffigurante l’intera città di Bologna nel 175 Cinquecento con un mirabile connubio di precisione urbanistica e accuratezza iconografica e resa pittorica. Ricordiamo, infine, le funzionalità, integrate nella piattaforma, offerte da strumenti come Ubuntu One per la memorizzazione di file ovunque accessibili sulla rete e Remote desktop che ha consentito di utilizzare, attraverso un’interfaccia unificata, più macchine fisiche come se si trattasse di un’unica risorsa. 3. Esempio di renderfarm creata tramite Bender +Ubuntu con hardware COTS. Potenza di calcolo raggiunta 16.8 GHz con 7 core a disposizione. 4.1.2. Blender Blender è il software maggiormente impiegato nel progetto MDC non solo per la creazione delle scenografie e dei personaggi ma anche per l’animazione, l’illuminazione, il rendering e il compositing (fig. 4). Tutte queste operazioni possono essere performate all’interno di questo potente tool. Blender, infatti, non è soltanto un programma di modellazione 3D dotato di un robusto insieme di funzionalità paragonabili, per caratteristiche e complessità, ad altri noti programmi proprietari come Softimage XSI, Cinema 4D, 3D Studio Max, LightWave 3D e Maya. Esso consente anche rigging, animazione, compositing e rendering di immagini tridimensionali tutto all’interno di un unico prodotto. Dispone, inoltre, di funzionalità per mappature UV, simulazioni di fluidi, di rivestimenti, di particelle, altre simulazioni non lineari e creazione di applicazioni/giochi 3D. È disponibile per vari sistemi operativi, tra cui: Microsoft Windows, Mac OS X, Linux. Tra le funzionalità offerte da Blender vi è anche l’utilizzo di raytracing e la possibilità di customizzarne il comportamento tramite script (in linguaggio Python). E proprio avvalendosi di questa capacità è stato possibile implementare una versione del programma che comprendesse le funzionalità della camera stereo (stereo target e stereo distance) per le riprese in stereoscopia. La peculiarità di accesso al codice ha inoltre consentito di ricompilare il programma per poterlo integrare nel cluster di super calcolatori del Cineca al fine di realizzare la renderfarm che ha renderizzato appunto l’intero filmato. 4.1.3. The Gimp The GIMP (GNU Image Manipulator Program) è un software professionale di fotoritocco ed elaborazione di immagini 2D. Esso supporta gli addons e i plugin, così da estendere in modo teoricamente illimitato le proprie potenzialità e funzioni. All’interno del progetto MDC è stato utilizzato al fine di elaborare le texture per renderle adattabili alle mesh 3D e credibili in termini di ripetibilità. Tale potente strumento è stato, inoltre, proficuamente impiegato dall’Art Director del progetto (E. Valenza) per effettuare alcuni studi in termini di mockup (fig. 5). Ancor prima di avere la scena 3D finale, completa di colori e texture definitive, effetti grafici sono stati applicati con strumenti tecnologici (tavoletta grafica) congiuntamente a quelli tradizionali (colori e pennelli) direttamente sulla trasposizione in immagine jpg dei rendering grezzi (soltanto le geometrie) dei modelli, al fine di visualizzare il risultato che si intendeva raggiungere in termini di resa, atmosfera, impatto e cromia. Grazie ai giochi di colore, infatti, è stato possibile ottenere un layout per le location maggiormente significative che potesse essere non solo validato dal committente ma anche condiviso (e assaporato) dai partecipanti al progetto come obiettivo a cui mirare per la resa finale. Attualmente The GIMP è distribuito in una versione stabile (la 2.6.x) e in una di sviluppo (la 2.7.x, che convoglierà il suo development nella futura 2.8). Quest’ultima intro176 duce notevoli miglioramenti e funzionalità, in modo tale da uniformarsi a software professionali come Photoshop e Paint Shop Pro. Oltre ad ampliare il comparto funzionale, vengono implementate capacità studiate per la UserExperience, che quindi abbracciano tutta l’interfaccia grafica (UI): dalla presentazione dei comandi all’immediatezza di alcune funzioni. Il software, pur soffrendo qualche lacuna in termini di supporto e controlli della cromia avanzata per la stampa digitale o la tipo/seri-grafia, può considerarsi professionale nell’implementazione delle sue altre peculiarità. Ultimo aspetto, da non sottovalutare, è la customizzazione del prodotto (grazie al libero accesso al codice) in termini di modifiche ed estensioni che possono essere apportate a piacimento, in ogni sua forma e non solo mediante l’aggiunta degli addon o plugin. In mancanza di una funzione sentita come necessaria, tale possibilità consente l’implementazione, da parte del comparto informatico, di qualsivoglia modifica o miglioramento. Per quanto riguarda il progetto MDC, il programma non ha presentato lacune e/o necessità di ampliamenti e ha corrisposto alle esigenze di progetto senza problemi di sorta. 4. Differenti impieghi di Blender 2.49 nella pipeline di produzione del progetto MDC. 5. Bologna. Visuale diurna utilizzata per uno studio sulla colorazione ambientale (elab. di E. Valenza). 4.1.4. City Engine City Engine è l’unico strumento proprietario inserito nella pipeline di produzione open voluta dal Cineca. Faremo un breve accenno alle sue funzionalità per illustrarne l’importanza ai fini del progetto ma non ci dilungheremo a descrivere il prodotto. Troviamo, invece, interessante spiegare come sia stato possibile comprenderlo nella pipeline open del progetto. City Engine è un software di modellazione procedurale che consente, attraverso l’elaborazione di mappe reali e dati GIS, di ricostruire interi spazi urbani in pochi semplici passi. Questo ha permesso di realizzare ricostruzioni della città di Bologna attuale, nonché di quella medievale e di alcune evoluzioni tra le varie epoche che si sono potute così mantenere fedeli a un modello o a studi effettuati a monte. La peculiarità del software in questione, infatti, è quella di permettere una malleabilità totale del modello procedurale, anche a partire da dati GIS. Il programma si avvale, cioè, di un sistema che consente l’acquisizione, la registrazione, l’analisi, la visualizzazione e la restituzione di informazioni derivanti da dati geografici (georiferiti). Ottenuti i dati georeferenziati storici e quelli attuali, riguardanti le principali strade, gli edifici chiave del complesso urbano e, se disponibile, anche la vegetazione presente, il software si occupa semi-automaticamente, guidato da un semplice linguaggio di programmazione interno, della creazione delle costruzioni, delle strade storicamente fedeli e di tutto ciò che caratterizzava effettivamente la città. Successive manipolazioni dei dati GIS possono portare a un ulteriore aggiornamento da parte del programma delle zone interessate da modifiche, riprocessando e ricalcolando i parametri per adattare le costruzioni all’informazione aggiunta. Per il progetto MDC è stato talvolta necessario aggiungere costruzioni chiave in zone ben definite a seguito delle segnalazioni fornite da storici e archeologi che hanno validato i modelli. In tal caso City Engine lascia ampio raggio di azione per le personalizzazioni, adattandosi a qualunque tipo di modifica. Attualmente non 177 esiste alternativa open altrettanto potente. Il problema principale nell’impiego di questo programma, come dei molti altri all’interno della pipeline, è stato quello di trovare una modalità di “dialogo”. Ciascuna scena, infatti, è passata attraverso molteplici fasi di realizzazione a partire da programmi differenti. I software open source, per merito attribuibile a Internet, sono molto diffusi anche a livello non professionale e vengono rilasciati con supporto e compatibilità verso una grande quantità di sistemi e configurazioni. Questo ha reso possibile individuare un formato di scambio (obj) tra le ricostruzioni realizzate con City Engine e la composizione della scena in Blender che consentisse di comporre il prodotto finale. 4.2. Pipeline integrata Sull’esempio degli open project per Blender, anche il progetto MDC è stato affrontato come l’occasione per studiare sul campo, ovvero all’interno di una pipeline di produzione reale, gli strumenti e le funzionalità interessanti in termini generali: a) studio di una modalità per l’integrazione dei vincoli filologici all’interno di una pipeline di produzione di un cortometraggio 3D stereoscopico; b) individuazione di una forma di implementazione dei modelli che ne favorisca il riutilizzo. Come conseguenza diretta, sono stati evidenziati ambiti di ricerca di carattere generale per progetti di virtual heritage che hanno reso il progetto MDC un caso di studio anche nell’ambito di V-MusT.Net. 4.2.1. Integrazione dei vincoli filologici Una conseguenza diretta della gestione dei vincoli filologici si ripercuote sull’implementazione (e gestione) del repository tradizionale per la lavorazione e il mantenimento degli asset. L’intento filologico delle ricostruzioni, infatti, implica una modellazione basata su materiale di riferimento accurato che, tradizionalmente, si fonda sulla conoscenza diretta dell’oggetto e/o sulla conoscenza (indiretta) acquisita tramite il confronto diretto con esperti del settore o di testi di riferimento. Sottolineiamo, a tale proposito, come l’open source espanda l’approccio tradizionale alle fonti (de visu, documentale, incontro con esperti) con gli strumenti messi a disposizione dalla tecnologia, prima fra tutte Internet, che fornisce possibilità di indagine storica alla portata di tutti. Servizi come i motori di ricerca, le mappe online e tutte le fonti digitalizzate rappresentano solo una minima parte delle possibilità offerte. I maggiori servizi utilizzati ai fini del corto sono stati: - Reperimento di fonti con motori di ricerca, in primis Google e Bing; - Reperimento di immagini e foto mediante Google Immagini; - Confronto di mappe e location grazie a Google Maps e Bing Maps; - Interrogazione di Wiki e altre enciclopedie online; - Uso di Wikimapia per effettuare match tra le location e le relative fonti storiche. Tutto questo materiale deve essere mantenuto nel repository di progetto a cui si aggiunge un sotto-albero di filesystem inerente le fonti. Per il progetto MDC, il repository è organizzato come mostrato in fig. 6. La sua gestione (e modalità di accesso) in termini di Cloud computing si è resa oggetto di studio in termini generali. 4.2.2. Cloud computing per astrarre il ciclo di vita degli asset L’approccio al progetto MDC come open project ha evidenziato la necessità di implementare servizi di supporto alla collaborazione. Come già evidenziato, infatti, il pro178 getto MDC è frutto di un lavoro di équipe. Questo ha posto il problema di supportare la collaborazione tra team non solo eterogenei e talvolta geograficamente distribuiti (per esempio, Spark D.E. ha sede a Roma), ma anche vincolati a strumenti di produzione appartenenti alle specifiche IT a disposizione dei singoli gruppi. Spark impiega un software implementato internamente (SPAM) per la gestione del ciclo di produzione (ciclo di vita) degli asset che non è stato possibile portare in Cineca. Esso, infatti, avrebbe richiesto l’impiego di tecnologia NFS che in Cineca (per l’architettura intrinseca della IT - macchine di super calcolo) non avrebbe determinato le medesime performance. Al Cineca si è pertanto implementata un’architettura basata su rapid SVN (un software di versionamento generalmente impiegato dai programmatori per mantenere le varie release di implementazione del codice) e un repository centralizzato su un cluster di supercalcolo interno (plx). Al fine di consentire una gestione unificata del ciclo di vita degli asset, indipendentemente dalle specifiche tecnologie di produzione, si è pensato di astrarlo impiegando il paradigma di Cloud computing implementato dai Goolge Docs (fig. 7). La possibilità di consentire a ciascun team di implementare asset con le tecnologie interne più consone, mantenendo a più alto livello la gestione del ciclo di vita degli asset stessi, è una caratteristica interessante in termini generali che ci si prefigge di meglio automatizzare come lavoro futuro. 6. Architettura di base per il repository MDC. 7. Porzione di un documento sulla organizzazione delle scene in sviluppo per il cortometraggio. 5. Open Source e Community Il lavoro di équipe è una metodologia che il Cineca ha standardizzato nel tempo e dalla quale non è più pensabile prescindere oggi, a meno di rischiare di perdere in significatività della proposta. Le opportunità offerte dalla tecnologia, infatti, sono molteplici e abbracciano ormai tutto l’ambito del sapere. Ma per essere significativi e proporre soluzioni che durino nel tempo occorre avvalersi del contributo di professionalità specifiche che trovano nel gruppo il supporto e la comunità di intenti tali da convogliare lo sforzo di ciascuno nel raggiungimento del risultato comune. L’attitudine al lavoro di gruppo non solo è supportata dall’istinto insito nell’uomo a costituirsi in comunità (di cui oggi sono un esempio lampante il proliferare dei social network) ma anche, e soprattutto, trova riscontro nelle nuove teorie sull’apprendimento, che vedono la costruzione della conoscenza principalmente come un atto sociale7. Questo atteggiamento sta sorprendentemente accomunando i vari tipi di sapere in una modalità di creazione e divulgazione affine a quella che caratterizza la distribuzione del software open source: sviluppo del sapere «cooperativo, decentralizzato e fondato sul libero accesso alle risorse comuni a tutti»8. 7 8 Costruttivismo: VON GLASERSFELD 1999. LATRIVE 2004. 179 L’approccio open di base del progetto non solo ha implicitamente condiviso questa attitudine, ma ha anche fornito gli strumenti più adatti alla creazione di una community di supporto al processo di sviluppo. Per tale ragione, parallelamente alle fasi di realizzazione delle scene, sono stati curati un blog (https://rvn05.plx.cineca.it:12001/php/MDC/portal/wordpress) e numerosi documenti Google Docs. L’impiego del Cloud computing, implementato dai Documenti di Google, infatti, è stato proficuo anche per il supporto al lavoro collaborativo. Uno stesso documento può essere condiviso da più utenti; i Docs si aggiornano in tempo reale e qualunque modifica da parte di un partecipante risulta immediatamente visibile anche sul documento contemporaneamente aperto da altri. 5.1. Community di supporto È opinione ormai condivisa che la concezione del sapere in termini di scatole indipendenti da consegnare come competenza professionale una volta e per tutte sia il retaggio della società industriale del secolo scorso, ormai superata oggi dall’avvento delle nuove tecnologie9. Il paradigma di apprendimento che si viene a delineare oggi è quello del life long learning, ovvero dell’apprendimento delle capacità necessarie per continuare ad apprendere per il resto della propria vita. Nell’ambito informatico, l’enorme velocità con cui evolvono gli ambiti del sapere ha reso necessario un supporto continuo e decentralizzato. Nasce in ambito open source, e si allarga a macchia d’olio a qualsiasi altra forma di produzione del software, il concetto di comunità online a supporto di specifici e capillari argomenti e/o software. Tali comunità online, nell’accezione comune del termine, sono composte da un insieme di persone interessate a un determinato argomento che corrispondono tra loro attraverso una rete telematica, oggigiorno in prevalenza Internet e le reti di telefonia, costituendo una rete sociale con caratteristiche peculiari. Questa diffusione capillare ha portato alla necessità di documentazione e di servizi di agglomerazione della conoscenza, che hanno mosso i singoli utenti all’auto-organizzazione in comunità internet specifiche. Sistemi open source come Ubuntu Linux, ad esempio, hanno documentazioni globali attribuibili alla ditta distributrice del sistema, la Canonical, e comunità che forniscono documentazioni locali, sparse in tutto il mondo, come la prolifica comunità italiana, rintracciabile all’indirizzo www.ubuntu-it.org, che ha tradotto e prodotto un grosso comparto documentaristico online, sotto forma di wiki. Questa mobilitazione ha creato, nel corso degli anni, notevoli risorse online per software utilizzati anche in questo progetto, quali Blender e The GIMP. 5.2. Il blog MDC Il progetto MDC ha impiegato il blog (fig. 8) come strumento di aggregazione e community: uno spazio Internet pubblico dove i partecipanti al progetto hanno autorità di editing al fine di poter condividere idee, comunicare e creare materiale di pubblica utilità. Il blog è stato realizzato tramite l’open source Wordpress, una piattaforma di CMS (Content Management System) per la gestione decentralizzata dei contenuti attraverso un’interfaccia che consente la creazione di “siti internet” e WebLog senza necessariamente possedere conoscenze tecniche avanzate. L’adozione di un diario di bordo web per il progetto MDC ha avuto una duplice funzione: da un lato, è servito a dare visibilità online al progetto stesso mediante la pubblica9 180 MANOVICH 2001. zione di news, locandine ed eventi importanti; dall’altro, ha consentito a stagisti, laureandi e chiunque orbitasse intorno al progetto di contribuire mediante la pubblicazione di tutorial, guide e tricks di interesse generale. In tal modo, il blog stesso si aggiunge al materiale gratuito composto da risorse e strumenti, creato da comunità grafiche online. 8. Screenshot di una delle pagine del blog per il progetto MDC. 9. Logo del progetto V—MusT.net. 6. Conclusioni e sviluppi futuri Il presente lavoro ha illustrato l’implementazione di una pipeline di produzione quasi interamente open source per il progetto Cineca MDC, scendendo nello specifico di problematiche e peculiarità di impiego tra le più significative della pipeline di produzione. In particolare, sono state messe in evidenza problematiche come l’implementazione della pipeline tradizionale per la realizzazione di un filmato 3D stereoscopico che raccontasse la storia di Bologna e la gestione delle peculiarità di progetto (gli scenari che fanno da set al filmato sono filologicamente corretti e frutto di un lavoro di équipe). Quest’ultimo aspetto, in particolare, ha sollevato problematiche di interesse generale, tuttora ambito di studio presso il Cineca come contributo al progetto V—MusT.net (fig. 9): l’inserimento dei vincoli filologici nel processo di produzione e l’impiego di una modalità di realizzazione delle ricostruzioni 3D volta al riutilizzo. Il presente lavoro non solo ha mostrato come l’approccio open si sia rivelato il più adatto ad affrontare le problematiche di produzione (in particolare, ha consentito di comprendere all’interno della pipeline il software proprietario City Engine), ma ha anche sottolineato le capacità di supporto alla collaborazione intrinseche all’approccio e da cui non è possibile prescindere oggi senza mancare in significatività di una proposta. Tra gli sviluppi futuri, internamente al progetto V—MusT.net, ci si propone di raffinare il meccanismo di astrazione del ciclo di vita degli asset. Si intende automatizzare il paradigma di Cloud implementato da Gooogle Docs in uno strato di servizi sulla rete. Allo stesso modo, si intende implementare una forma di accesso virtualizzato al sotto-albero di repository per la gestione delle fonti. Si sta studiando, cioè, una forma di Cloud customizzata con opportuni meccanismi di virtualizzazione apportati ad hoc sullo specifico livello di astrazione (virtualizzazione a granularità più fine rispetto a quella appena descritta) che consenta l’accesso al sotto-albero del repository in una duplice maniera: secondo il modello breadcrumb (discesa in directory e sottodirectory nella metafora dell’albero) e attraverso una interfaccia che consenta all’utente di riorganizzare le informazioni in termini delle singole esigenze senza andare a modificare la gerarchia del repository, che deve rimanere adatta a un approccio breadcrumb conveniente. 181 Abbreviazioni bibliografiche ANTINUCCI 2010 F. Antinucci, Comunicare nel museo, Roma-Bari 2010. BOCCHI-SMURRA 2010 La storia della città per il Museo Virtuale di Bologna. F. Bocchi, R. Smurra (edd.), Bologna 2010. DIAMANTI et alii 2010 T. Diamanti - P. Diarte Blasco - A. Guidazzoli - M. Sebastjian Lopez - E. Toffalori, ViSMan: an OpenSource Visualization Framework for Virtual Reconstructions and Data Management in Archaeology, in VAST 2010. The 11th International Symposium on Virtual Reality, Archaeology and Cultural Heritage, A. Artusi (ed.), Paris 2010, Goslar 2010, 47-53. JONASSEN et alii 2003 D. H. Jonassen - J. Howland - J. Moore e R. M. Marra, Learning to solve problems with technology: a constructivist perspective. Columbus 2003. LATRIVE 2004 F. Latrive, Du bon usage de la piraterie: culture libre, sciences ouvertes, Paris 2004. MANOVICH 2001 L. Manovich, The language of new media, Cambridge (Massachusetts) 2001. VON GLASERSFELD 1999 E. von Glasersfeld, Social constructivism as a philosophy of mathematics, in Zentralblatt für Didaktik der Mathematik, 99, 1999, 71-73. Referenze iconografiche Cineca MDC Project: figg. 1, 4-5, 8. Cineca, studio di realizzazione della sala immersiva (2009): fig. 2. Logo progetto V—Must.net: fig. 9. Tesi di Laurea Dott. D. De Luca (2011): figg. 3, 7. Micaela Spigarolo Università degli Studi Bologna. [email protected] Antonella Guidazzoli CINECA, [email protected] 182 La conoscenza archeologica: approcci aperti alla gestione ed analisi D. Leone N. M. Mangialardi M. G. Sibilano D. Balzano La Storia emersa e sommersa: un database per l’archeologia dei paesaggi subacquei Abstract The Project Liburna Archeologia Subacquea in Albania, created in 2006 by a synergy between Italian and Albanian institutions, has developed over the 2007-2010 period through the scientific coordination between the Department of Human Sciences of University of Foggia and the National Institute of Albanian Archaeology Research Centre. The project has set as its main goal the preparation of an archaeological map of the Albanian coast based on the research data from surveys and excavations. It will provide a Geographic Information System able to manage different investigation areas, through a complex activity of data “systematization”, directing the analysis of the spatial location of the underwater evidences through the review of the published and unpublished literature. In this first phase the investigations were concentrated in four main areas spread from N to S along the western coast: Durres Bay, the area of Butrint, the Valona Bay and the Porto Palermo Bay. The realization of an analytical and queried archaeological map, that could provide a storage and allow the search and the rapid contextualization of the scientific data in the territory under investigation, has facilitated the creation and strengthening of analytical tools and data storage in use. The first part of the IT project ended with the implementation of a relational database based on PostgreSQL and a web-based application developed on PHP platform.The need of a unified approach in the research activities carried out by the archaeological team of the University of Foggia was reflected in a strategy aimed not at implementing a duplication of the resources and tools available. It is therefore currently a restructuring of the repository IREMAS for a regional scale data management. Based on proven methodology used in the landscape archaeology the underwater topographic units (UTS) is the minimum element of the grid for the information standardization, the data collection and their projection in the space. The UTS sheet was divided into generic and descriptiveinterpretative sections. It has been related to the tables realized for the storage of the graphic and photographic documentation, underwater finds and literature and historical sources. 1. I dati: il progetto LIBURNA Nel corso del quadriennio 2007-2010 si è svolta operativamente una prima fase del progetto Liburna. Archeologia Subacquea in Albania (fig. 1), così intitolato dal nome della tipica imbarcazione illirica nota dalle raffigurazioni monetali antiche e moderne. Le ricerche sono state condotte con il coordinamento scientifico del Dipartimento di Scienze Umane dell’Università degli Studi di Foggia (DISCUM), in collaborazione con l’Istituto Nazionale di Archeologia del Centro Studi Albanologici e il supporto tecnico dell’Associazione A.S.S.O. (Archeologia Subacquea Speleologia Organizzazione) Onlus di Roma1. 1 Le attività del Progetto Liburna svoltesi dal 2007 al 2010 sono state coordinate dal Dipartimento di Scienze Umane 185 1. Posizionamento delle UTS lungo la costa del promontorio di Karaburun. Il progetto, connotato da una prospettiva spiccatamente “globale” dell’archeologia tesa a coniugare ricerca, formazione, tutela e valorizzazione del patrimonio culturale sommerso2, si è posto come obiettivo principale la redazione di una carta archeologica del litorale albanese attraverso la realizzazione di un Sistema Informativo Geografico in grado di gestire, mediante una complessa attività di “sistematizzazione”, i dati prodotti in questi anni orientando l’analisi all’effettiva articolazione spaziale delle evidenze subacquee, edite ed inedite, censite. A tal fine sul campo sono state condotte ricognizioni mirate, scavi, classificazioni dei materiali archeologici, prospezioni e rilievi diretti subacquei, rilievi topografici strumentali; si è proceduto in contemporanea alla raccolta dei dati noti da bibliografia, da archivio, da tradizione locale e da segnalazioni orali, e alla lettura della cartografia storica e/o tematica reperita3. In previsione di un’indagine che allargherà il proprio orizzonte all’intero litorale albanese sono state privilegiate in questa prima fase del progetto, in base alle attuali informazioni disponibili e a una serie di considerazioni di carattere tecnico-scientifico, quattro aree dislocate da N a S lungo il litorale occidentale: la Baia di Dürres, l’area di Butrinto, la Baia di Valona, in particolare Orikum, e la Baia di Porto Palermo. Nel 2009 è stato sistematicamente indagato il litorale del promontorio di Karaburun, costellato da cave antiche dell’Università degli Studi di Foggia (G. Volpe, D. Leone, M. Turchiano) e dall’Istituto Nazionale di Archeologia del Centro Studi Albanologici (A. Anastasi, A. Hoti), con il supporto tecnico-scientifico dell’Associazione A.S.S.O. di Roma (M. Mazzoli, B. Rocchi, M. Vitelli), le attività sono state svolte grazie all’impegno e alla partecipazione dei dottori di ricerca (A. De Stefano, G. Disantarosa, N. Mangialardi) e studenti (C. Donnanno, A. Pastorino, R. Corvino, M. Lo Muzio) dell’Università di Foggia. Il progetto è l’esito della convergenza delle volontà di numerosi istituzioni italiane e albanesi tra cui la Regione Puglia-Assessorato al Mediterraneo, il Ministero per gli Affari Esteri e il Ministero della Cultura Albanese, l’Agenzia per il Patrimonio Culturale Euro Mediterraneo di Lecce e la Guardia di Finanza-Nucleo Frontiera Marittima di Durazzo. 2 Tra gli obiettivi principali del progetto: la formazione professionale di archeologi, tecnici subacquei, personale militare albanese; lo sviluppo delle relazioni di cooperazione scientifica e culturale tra Italia e Albania e, in generale tra tutti i paesi adriatici e dell’area balcanica; lo sviluppo della ricerca, della tutela e della valorizzazione del patrimonio archeologico subacqueo albanese; il potenziamento e lo sviluppo del settore di archeologia subacquea dell’Istituto Nazionale di Archeologia, con dotazioni strumentali e trasferimento di conoscenze e competenze e la divulgazione dei risultati mediante vari strumenti. 3 Per un quadro più dettagliato del progetto: ANASTASI-VOLPE 2006, 1-3; VOLPE et alii 2008-09; VOLPE et alii, c.s. 186 per l’estrazione di materiale da costruzione e da baie che costituivano approdi naturali lungo la navigazione, come la Baia di Dafine o la Baia dell’Orso e la Baia di Grama, sede di un santuario marittimo sulle cui pareti rocciose si conservano centinaia d’iscrizioni in greco, latino e albanese databili tra antichità ed età moderna. Lungo tutto il litorale di Karaburun sono stati inoltre individuati, a partire dalla costa fino a una profondità di 40 m, numerosi siti di interesse archeologico che coprono un ampio ventaglio cronologico dall’età arcaica fino al Medioevo4. Ricerca e formazione hanno costituito finora due aspetti centrali e qualificanti del progetto Liburna, che si propone quale obiettivo principale la creazione di un sistema territoriale integrato di tutela e di valorizzazione dei beni sommersi al fine di costruire una prima carta del potenziale archeologico subacqueo che partendo dal litorale albanese si estenda all’intero Adriatico meridionale5. 2. Nuovi strumenti per lo studio del paesaggio subacqueo Il 2 novembre 2001 la Conferenza Generale dell’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (l’UNESCO) ha approvato la Convenzione sulla Protezione del Patrimonio Culturale Subacqueo6, dichiarando i beni culturali sommersi quale parte integrante del Patrimonio Culturale dell’Umanità, elemento fondamentale della storia dei popoli e delle nazioni e attribuendone ai singoli Stati la tutela e la salvaguardia7. Tale trattato internazionale (ratificato dall’Italia solo nel gennaio 2010) guarda, infatti, ai beni culturali subacquei nella stessa ottica della «contemporanea archeologia»: incentivandone la ricerca e la conoscenza, favorendone la tutela, garantendone la conservazione in situ, promuovendone la valorizzazione e invitando gli Stati firmatari a investire e a cooperare ai fini della formazione e del trasferimento di tecnologie e di competenze in materia di «giacimenti culturali subacquei»8. L’esperienza pluriennale del gruppo di lavoro del DISCUM nello studio delle evidenze archeologiche sommerse e la mole di dati raccolta, in particolare durante lo svolgimento del progetto Liburna, hanno fatto emergere in modo sempre più evidente l’esigenza di allargare la “sistematizzazione” delle procedure e delle informazioni, ormai ampiamente adottata per l’analisi archeologica dei paesaggi terrestri9, alle ricerche in ambiente subacqueo. A partire dagli anni Ottanta, la diffusione di un approccio teorico non di tipo gerarchico, ma inclusivo in relazione allo studio del paesaggio, ha comportato progressivamente l’adozione di una prospettiva archeologica “globale” e “complessa”10 attenta a 4 I materiali recuperati sono prevalentemente anfore commerciali. Il rinvenimento di maggior pregio riguarda una statuina di bronzo raffigurante Atena, databile al I-II sec. d.C., in ottimo stato di conservazione, forse parte di una stadera, oltre a un elemento in bronzo della nave e a una moneta bronzea dell’imperatore Gallieno (253-268 d.C.), recuperati in una baia intensamente frequentata dalle imbarcazioni antiche: VOLPE et alii 2008-09, 2-16. 5 VOLPE et alii 2008-09, 3. 6 http://portal.unesco.org/en/ev.php-URL_ID=13520&URL_DO=DO_TOPIC&URL_SECTION=201.html 7 http://portal.unesco.org/en/ev.php-URL_ID=13520&URL_DO=DO_TOPIC&URL_SECTION=201.html La Convenzione definisce patrimonio culturale subacqueo «tutte le tracce dell’esistenza umana di carattere culturale, storico o archeologico che sono state parzialmente o completamente sott’acqua, periodicamente o continuamente, per almeno 100 anni, quali siti, strutture, edifici, manufatti e resti umani. Insieme con il loro contesto archeologico e naturale» (art. 1). 8 http://portal.unesco.org/en/ev.php-URL_ID=13520&URL_DO=DO_TOPIC&URL_SECTION=201.html. Convenzione sulla Protezione del Patrimonio Culturale Subacqueo - articolo 21. 9 VOLPE 2005, 299-314; VOLPE 2006, 13-36. 10 S’intende fare riferimento alla prospettiva avviata negli anni Ottanta dalle ricerche di archeologia globale di Tiziano Mannoni (MANNONI 1985), approccio epistemologico che di recente ha visto ulteriori sviluppi nella teorizzazione dell’archeologia globale dei paesaggi globali (VOLPE 2007; VOLPE 2008) e dell’archeologia della complessità (BROGIOLO 2007). 187 cogliere e documentare nel paesaggio tutte le tracce espressione delle comunità umane. Il superamento della visione isolata del bene e dell’«incultura dell’areale»11 ha allargato il concetto di contesto e di paesaggio come spazio geografico, abitativo, lavorativo e ideologico determinato e prodotto da una lunga serie di esperienze storiche12, oggi inteso come palinsesto stratificato scevro da limiti cronologici e tematici aprioristici13. Secondo tale ottica e all’indomani della strutturazione della Carta dei Beni Culturali della Puglia (CBC)14 si è, pertanto, dato avvio a un progetto di espansione concettuale della CBC, comprendendo anche il patrimonio culturale sommerso, a oggi escluso dal sistema di gestione dati messo a punto per la Regione Puglia, tra i beni da censire e da archiviare in un unico contenitore, che è così chiamato ad avere per oggetto l’intero paesaggio. La sistemazione e la gestione delle informazioni accumulate durante il progetto Liburna e la loro modellazione in forma di catasto territoriale interrogabile ha così incentivato il potenziamento degli strumenti di analisi, di archiviazione e di consultazione dati attualmente in uso nell’ambito delle ricerche subacquee da parte del gruppo di lavoro di archeologi del DISCUM. L’elaborazione di un modello di archiviazione su base digitale ha perciò comportato, in primo luogo, la creazione di un database relazionale. La progettazione concettuale del sistema ha, pertanto, richiesto come primo passo l’individuazione di un “elemento comune” tra i dati archeologici capace di determinarne l’aggregazione e guidare sia la normalizzazione delle informazioni sia una loro adeguata proiezione nello spazio. Il Patrimonio Culturale Subacqueo, come indicato anche nell’art. 1 della Convenzione UNESCO, è piuttosto multiforme per genere; a esso appartengono tutti i tipi d’insediamenti o documenti materiali individuati sott’acqua, dai relitti (i più comuni) a singoli elementi strutturali o dispersioni di reperti, ma anche i porti, gli ormeggi, gli impianti per l’allevamento del pesce e in generale tutti i siti sommersi o perché tali già in antico o perché coperti successivamente dall’acqua in seguito a modificazioni morfologiche15. Le diverse tipologie di giacimento, inoltre, possono differenziarsi per la loro distribuzione nel tempo e nello spazio. La variabilità degli oggetti che caratterizza l’archeologia dei paesaggi rende più complessa l’elaborazione e l’archiviazione dei dati e improduttiva l’adozione di metodi troppo rigidi (come sottolineato di recente da F. Cambi, la produzione scientifica nell’ambito dell’archeologia dei paesaggi manca di un «minimo comune denominatore paragonabile a quello raggiunto con successo nel campo dello scavo stratigrafico»16). Per questi motivi, in base alla consolidata metodologia impiegata nelle indagini sul campo17, è stata identificata come elemento minimo comune su cui definire la griglia di raccolta dei dati l’Unità Topografica (UT), quale unità minima documentabile a livello topografico18, in questo caso denominata Unità Topografica Subacquea (UTS). L’UTS è stata intesa, pertanto, come singola cellula topografica collegabile al territorio tramite una coppia di coordinate, caratterizzate da una continuità fisica dell’eviden- 11 CAMBI 2011, 15. BROGIOLO 2009, 3-4; CAMBI 2011, 15. 13 BROGIOLO 2009, 3-4. 14 Per un quadro complessivo sulla strutturazione della Carta dei Beni Culturali della Regione Puglia si veda il contributo di A. De Stefano, M.G. Sibilano, G. Volpe presente in questo volume e la bibliografia ivi citata. 15 Per una descrizione esauriente delle diverse tipologie di giacimento archeologico sommerso: GIANFROTTAPOMEY 1981; BELTRAME 1998; VOLPE 2000; FELICI 2002. 16 CAMBI 2011, 36. 17 Rispetto alle diverse opinioni in relazione al rapporto fra Sito e Unità Topografica (Non Sito), nell’ambito dell’archeologia dei paesaggi è ormai consolidata la ricognizione quale metodologia di operazione sul campo: CAMBI 2011, 157-188. 18 Per una recente sintesi sulle diverse definizioni di Unità Topografica: CAMBI 2011, 171-173. 12 188 za archeologica19. Una singola UT può, come è noto, rappresentare più insediamenti, diversi per funzione e per cronologia e viceversa più UT possono definire un unico complesso (sito). Premesso ciò, si è preferito mantenere l’UT quale unità minima a livello topografico, rispettando la scomposizione di tipo gerarchico esistente fra Sito e UT così da non sovrapporre la fase descrittiva (individuazione - registrazione delle UT) con quella interpretativa (definizione - riconoscimento del sito), evitando anche il rischio, ben evidenziato da D. Manacorda, della moltiplicazione dei siti derivante dall’attribuzione del rango di sito a qualunque tipo di evidenza archeologica20. Tale scomposizione di tipo gerarchico rispecchia la strutturazione teorica e operativa della Carta del patrimonio culturale pugliese che su ampia scala dispone l’UT, il Sito e il Sito pluristratificato21, dall’entità più semplice alla più complessa a livello stratigrafico e topografico. 2.1. Un DBMS per l’archeologia dei paesaggi subacquei: la progettazione concettuale L’obiettivo è, dunque, quello di creare archivi digitali che caratterizzati dallo stesso modello concettuale e formale siano in grado di interfacciarsi al fine di costituire un’efficace e incrementabile banca dati di verifica dell’esistente, un inventario di supporto alla ricerca, alla tutela e alla pianificazione territoriale. A tal fine la scheda di UTS è stata formulata in connessione con quella di UT terrestre: sono stati strutturati in comune i campi preposti all’identificazione geografica/anagrafica e potenziate le voci specifiche di descrizione e connotazione delle evidenze archeologiche sommerse. All’UTS sono state, inoltre, correlate apposite tabelle deputate all’archiviazione della documentazione grafica e fotografica, della bibliografia, delle fonti e delle informazioni sui materiali associati. La natura dialettica delle informazioni ha trovato, pertanto, aderente strutturazione in un archivio relazionale attraverso una serie di tabelle poste in collegamento reciproco: ciascuna di queste gestisce, infatti, dati di natura testuale, numerica, digitale (grafica e fotografica) propri dell’entità in esame e li mette in relazione con i dati delle altre entità, così da ottimizzare tempi e modalità di gestione della documentazione e da garantire una comunicazione integrata tra informazioni eterogenee. La scheda di UTS nel dettaglio, è suddivisa in due registri: il primo (Dati anagrafici) raccoglie le informazioni note relative alla collocazione geografica e topografica, che permettono di identificare e localizzare l’unità in esame in maniera assoluta, tramite l’impiego di lemmi in parte omologhi alle altre tabelle: Nazione - Comune - Provincia di appartenenza dell’UT; Toponimo utilizzato dalla cartografia IGM o dalla consuetudine locale; Genere, terrestre o subacqueo; Coordinate, indicazione delle coordinate assolute dell’UT; il campo prevede l’eventuale immissione di più punti per la determinazione topografica di un solo nucleo edilizio da visualizzare sulla pianta relazionata; IGM, per indicare il riferimento dell’UT nella cartografia geografica militare; 19 Si è preferito adottare l’Unità topografica come elemento minimo topografico, non volendo inserire altre entità teoriche, ma rispettando piuttosto la strutturazione gerarchica che attribuisce al rango del sito il momento dell’interpretazione storica e che è solitamente adottata in ambito terrestre. A differenza di tale impostazione nel progetto di realizzazione del Sistema Informativo Territoriale Alto Adriatico si è optato per l’adozione dell’entità Evidenza Archeologica (EA) per definire e descrivere una o più UT di cui si è riconosciuta funzione e cronologia. Sul concetto di Evidenza Archeologica: RICCOBONO 2008. Sul progetto Alto Adriatico: AURIEMMA-KARINJA 2008. 20 MANACORDA 2007, 12-17. 21 Sul concetto di Sito Pluristratificato: MANACORDA 2007, 12-17; VOLPE 2008; CAMBI 2011, 82-87. 189 Anno, cronologia della ricerca; Modalità d’individuazione, in cui è possibile selezionare da un dizionario terminologico (ulteriormente incrementabile) il metodo con il quale si sia identificata l’UTS; Modalità di posizionamento; Metodi di ricognizione visiva; Metodi di prospezione strumentali: campi comuni anche alla scheda di UT terrestre nei quali vengono indicate in base a menu a scelta le procedure adottate per l’individuazione dell’unità; Visibilità, in cui indicare secondo un grado numerico la visibilità delle acque e della vegetazione. La seconda sezione della scheda (Dati descrittivi), anch’essa caratterizzata dalla presenza di molte voci in comune con l’ambito terrestre, raccoglie i dati connotativi dell’evidenza archeologica, descrivendone la morfologia attraverso diversi campi testo o con eventuali vocabolari a scelta: Orientamento; Viabilità; Descrizione del luogo; Contesto, se marino-fluviale-lacustre-palustre-ipogeo; Morfologia del fondale, campo con la stessa finalità di descrizione dell’andamento del terreno; Descrizione UT; Stato di conservazione in cui poter effettuare una stima delle condizioni di conservazione e di giacitura rispetto al fondale; Rapporti con altre UT; Reperti lasciati sul luogo; Notizie orali; Extra-sito; Una serie di voci, impostate in maniera analoga a quelle della Carta dei Beni Culturali della Puglia, per dettagliare la cronologia dell’evidenza archeologica. Appositi tracciati, richiamabili all’interno della scheda di UTS e strutturati come archivi separati e correlabili, sono stati predisposti per acquisizione dei dati editi: Archivio Bibliografico, delle fonti documentarie; Archivio Documentaristico, delle fonti grafiche/fotografiche; Archivio Grafico. Organizzate per campi descrittivi le schede distinguono e dettagliano per tipologia le diverse fonti, cercando di trarre da queste informazioni difficilmente reperibili dai dati materiali. I prototipi presentati seguono l’impostazione argomentativa presente nella scheda di unità topografica subacquea e si articolano in alcuni campi che definiscono i dati di provenienza e in altri che raccolgono il contenuto delle informazioni. Nel dettaglio la scheda Archivio Bibliografico è finalizzata alla catalogazione dell’edito, posto in relazione all’UT, in base alle seguenti voci: Anno edizione; Luogo edizione; Autore; Titolo; Tipologia, dove è possibile distinguere fra categorie pre-impostate ma ulteriormente incrementabili; N. pagine; Argomento; Informazioni topografiche e Informazioni cronologiche, due campi testo nei quali definire sinteticamente quelle informazioni che possono fornire con immediatezza all’utente la pertinenza o meno del testo citato alla propria ricerca. Le fonti relative all’UT registrate nell’Archivio documentaristico vengono distinte e archiviate in base a: 190 Luogo e data di redazione; Tipologia se fonte pubblica; fonte privata; documenti di archivio (una sintetica serie anche per facilitarne la ricerca in fase d’interrogazione); Collocazione; Riferimento; Soggetto promotore; Redattore del documento; Destinatario; Oggetto in cui illustrare sinteticamente l’argomento; Contesto istituzionale-amministrativo; Testo in cui effettuare la trascrizione dell’intero documento; Toponimi e informazioni topografiche, in cui isolare già le informazioni di maggiore rilevanza. L’apparato grafico riferibile alle UT individuate viene, infine, anch’esso indicizzato in base a: Data di esecuzione; Oggetto, in cui è possibile fare riferimento a un dizionario terminologico aperto; Supporto, dove indicare la tipologia del supporto secondo i termini di un vocabolario interno, incrementabile; Esecutore; Denominazione; Dimensioni; Informazioni topografiche e cronologiche. Alla base della progettazione concettuale vi è, dunque, una pluralità tipologica di dati complementari e riconducibili essenzialmente a due macro-categorie, l’una dei dati spaziali (topografici o geometrici), presenti in forma numerica o grafica e relazionati alle tabelle, e l’altra di quelli alfanumerici, strutturati in specifiche schede di registrazione. Tale scansione argomentativa è strutturata in lemmi a cui corrispondono campi descrittivi o, nella maggior parte dei casi, una casistica di risposte predefinite22, ma ulteriormente incrementabili23, utili ai fini di una prima validazione esplicita dei dati: le voci elencate all’interno di vocabolari controllati servono, infatti, a descrivere concetti chiave bilanciando risposte generiche e risultati puntuali24. 2.2. Un DBMS per l’archeologia dei paesaggi subacquei: la progettazione logica e fisica All’avvio della progettazione del repository destinato alla gestione dei dati provenienti dallo studio dei paesaggi subacquei la scelta degli strumenti da utilizzare ha inevitabilmente previsto l’impiego di tecnologia FOSS. All’origine di questa decisione hanno contribuito diversi fattori: primo fra questi 22 L’impiego dei vocabolari controllati ha diversi vantaggi (come più banalmente eliminare i problemi derivanti dalle varianti ortografiche), ma gli svantaggi principali consistono nel fatto che i nuovi argomenti possono non essere ben rappresentati, mentre, analogamente, se il vocabolario definisce i soggetti troppo generici non sarà possibile eseguire ricerche mirate e ben definite. 23 Sono stati impostati, infatti, per la maggior parte dizionari editabili con l’aggiunta di nuovi termini. I termini dei vocabolari sono stati impostati in base alla consolidata metodologia di ricerca: GIANFROTTA-POMEY 1981; BELTRAME 1998; FELICI 2002; VOLPE 2000; PIETRAGGI-DAVIDDE 2007. 24 Per distinzione tra thesauri, vocabolari controllati, dizionari: D’ANDREA 2006, 101-104. 191 l’esigenza di fornire strumenti di condivisione della conoscenza acquisita liberamente fruibili ed editabili, tali da garantire agli enti pubblici coinvolti nell’attività progettuale un sistema di gestione e fruizione dei beni sottoposti a indagine priva di vincoli applicativi e una politica di formazione del personale addetto all’archiviazione e consultazione dei dati basata su strumenti a costo zero. L’aspetto economico, pur marginale in un movimento da anni intento a evidenziare la natura libera e gratuita del software in uso, riveste indubbiamente un ruolo essenziale per quei paesi, oggi sempre più numerosi, caratterizzati da una difficile condizione economico-finanziaria. Una simile decisione aderisce, d’altra parte, alle scelte ormai da tempo maturate all’interno del Laboratorio di Archeologia Digitale25 dell’Università degli Studi di Foggia, dal 2008 impegnato a sostenere forme sempre più concrete di “democratizzazione” dei processi di ricerca archeologica, promuovendo diverse iniziative di confronto accademico-professionale e investendo tempo e risorse a favore di un percorso di crescita intellettuale basato anche sull’attività di formazione della comunità studentesca più giovane (tirocinanti, laureandi, ecc.). Il database per l’archeologia dei paesaggi subacquei si inserisce in questo filone di ricerca, fornendo un’ulteriore conferma all’idea che la filosofia open source possa trarre maggior beneficio non dalla mera raccolta di soluzioni applicative, frutto di isolate esperienze individuali, quanto piuttosto da una rete sociale, su base digitale, costruita sul collaborazionismo tra persone, metodologie e tecnologie condivise. Da qui la scelta di evitare un’ulteriore duplicazione delle risorse e degli strumenti a disposizione, registrando l’ennesimo episodio di frammentazione conoscitiva ancor prima che applicativa che da lungo tempo si osserva nel campo dell’informatica applicata ai Beni Culturali. Ovvia è apparsa, al contrario, la volontà di procedere a un progressivo ampliamento di uno strumento di indagine già attualmente impiegato nella gestione della documentazione stratigrafica terrestre, integrando l’ambito di analisi con il settore dell’archeologia dei paesaggi subacquei. A tal fine si è scelto di operare, nell’ambito di una tesi di laurea triennale in Metodologia della Ricerca Archeologica, con il chiaro intento di favorire l’apprendimento e permettere una progressiva diffusione dei principi basilari e degli strumenti applicativi propri dell’open source anche nell’ambito della catalogazione e dell’archiviazione digitale, articolando ulteriormente il processo didattico già da alcuni anni in atto all’interno del LAD sinora rivolto al solo settore della grafica tridimensionale. Si è, pertanto, operata una ristrutturazione del repository IREMAS finalizzata a una gestione dei dati su scala territoriale26. Sono state, a tale scopo, modellate 10 nuove entità tabellari deputate all’archiviazione dei dati inerenti l’Unità Topografia Subacquea, la sua documentazione grafica e fotografica, le informazioni sui materiali associati, la bibliografia esistente e le fonti (fig. 2). Nella tabella UT_GENERALE sono contemplate tutte le informazioni anagrafiche 25 Con il coordinamento del dott. G. De Felice. Come si è avuto modo di descrivere in altra sede IREMAS è realizzato in PostgreSQL, il sistema open source di gestione di database relazionale a oggetti (ORDBMS), mentre per lo sviluppo di un’interfaccia grafica sono state impiegate le tecnologie del Web 2.0 (PHP, XHTML, CSS, AJAX, JAVASCRIPT, ecc.): DE FELICE et alii 2009, 251-257; DE STEFANO-SIBILANO 2009, 95-114; BUGLIONE et alii 2012;. È importante sottolineare come attualmente l’accesso on line al DBMS avvenga in maniera circoscritta alla fruizione della banca dati da parte dell’équipe archeologica del DISCUM. Accedendo all’home del sistema è possibile eseguire la procedura di preliminare identificazione dell’utente. Gli estremi necessari (username e password) vengono forniti all’utente dall’amministratore di sistema in fase di registrazione al Db. È plausibile ipotizzare che, una volta stabilite le credenziali di accesso al web Db, tuttora in via di definizione con i diversi responsabili scientifici delle attività oggetto di indagine, l’accesso al repository divenga pubblico. Si può, infatti, immaginare che la fruizione di ciascun archivio dati, derivato dal modello IREMAS, avverrà direttamente dalle pagine del sito www.archeologia.unifg.it, contestualmente alla descrizione delle diverse attività di ricerca svolte dall’Area di Archeologia del DISCUM. 26 192 dell’Unità Topografica utili per una descrizione generica dell’UT all’interno del territorio di riferimento. La tabella UTS raccoglie, al contrario, al suo interno i dati descrittivi peculiari dell’Unità Topografica Subacquea. Per quanto attiene alla documentazione cartacea e digitale è stato necessario creare una serie di archivi che comprendessero tutte le informazioni essenziali per documentare in maniera completa l’UT di riferimento. Nell’entità ARCHIVIO GRAFICO/FOTOGRAFICO sono presenti tutti i dati riguardanti il materiale grafico/fotografico (planimetrie, modelli grafici 3D, fotografie, stampe, ecc.) di pertinenza dell’UT e a esso sono associate anche alcune informazioni dimensionali, topografiche e cronologiche. Le fonti bibliografiche sono inserite nella tabella ARCHIVIO BIBLIOGRAFICO, un’entità che fornisce indicazioni dettagliate circa l’anno e il luogo di edizione, l’autore, il titolo oltre anche alle varie informazioni topografiche e cronologiche di tutte le fonti quali saggi, monografie, articoli, riviste, consultate nel prosieguo dell’indagine dell’unità topografica. L’ultimo archivio a tal fine considerato è quello riferito alla tabella ARCHIVIO DOCUMENTARISTICO, esso consente di registrare una serie di informazioni riguardanti il tipo di fonte documentaristica consultata, con l’opportunità di indicarne la data e il luogo di edizione, la collocazione, i riferimenti, il contesto istituzionale/amministrativo e altro ancora, fornendo una scheda completa a livello di reperimento futuro della fonte medesima. Per quanto concerne la gestione dei reperti si è scelto di limitare in questa fase l’analisi ai reperti ceramici e ai cd. rinvenimenti particolari altrimenti noti come Small Finds. Entrambe queste entità, in associazione alla tabella destinata al computo quantitativo complessivo dei reperti rinvenuti, derivano dalla sezione stratigrafica di IREMAS e sono state adattate aggiungendo la dicitura “topografica” alla loro denominazione tabellare, al fine di distinguerle da quelle finalizzate all’archiviazione dei dati delle unità stratigrafiche. Progressivamente si cercherà di rendere compatibili con questa sezione anche le restanti categorie di reperti già implementate nel database stratigrafico, tra cui i reperti lapidei, i reperti faunistici e i materiali fittili. Per la realizzazione dei vocabolari funzionali alla schedatura delle UTS sono state, inoltre, progettate 21 tabelle destinate a fornire all’utente elenchi terminologici a risposta singola, definendo relazioni uno-a-molti, o a risposta multipla, definendo relazioni moltia-molti. 2. Schema Entità-Relazioni della tabella Ut_generale. 193 3. IREMAS_Sezione Topografica: Dati generali e Dati descrittivi dell’UTS. 4. IREMAS_Sezione Topografica: gli Archivi (Grafico/Fotografi co; Bibliografico; Documentaristico) dell’UTS. 194 Lo sviluppo del sistema web-based della sezione topografica condivide chiaramente l’area destinata all’accesso al DBMS e alla gestione degli utenti già sviluppata per la sezione stratigrafica. Essa è costituita da una preliminare fase di login, superata la quale l’utente visualizza un ulteriore pannello in cui scegliere se procedere nell’analisi dell’Indagine Stratigrafica o dell’Indagine Topografica (fig. 3). Eseguita la scelta l’utente entra nel pannello principale. L’applicativo dispone di un’unica videata utilizzabile per le varie fasi di inserimento, modifica, visualizzazione e ricerca a seconda delle autorizzazioni fornite all’utente in fase di login. Più specificatamente, l’interfaccia grafica si compone di pannelli a scomparsa che sono richiamati in base alle esigenze dell’utente. Nel caso di selezione dell’area topografica l’utente visualizza sul lato sinistro, in maniera permanente, le informazioni cd. anagrafiche di ciascuna Unità Topografica, raccolte nella denominazione “Descrizione generale”. In fase di data entry l’utente stabilisce la natura dell’Unità Topografica, se terrestre o subacquea, determinando l’attivazione dei campi di pertinenza dell’UTS e, di conseguenza, la disattivazione dei campi propri dell’Unità Topografica di natura terrestre. La compilazione dei campi obbligatori all’interno della sezione “Descrizione generale” permette all’utente di abilitare l’accesso ai pannelli secondari: una serie di pulsanti opportunamente etichettati e ubicati nella porzione superiore dello schermo guida, infatti, l’utente alla fruizione dei dati descrittivi dell’UT, finalizzati a un’analisi più miratamente descrittivo-interpretativa dell’UTS sottoposta a indagine; della sezione “Reperti”, distinta in reperti ceramici e Small Finds; della sezione “Archivi”, a sua volta distinta in GraficoFotografico, Bibliografico e Documentaristico per la gestione dell’intero apparato grafico associato all’Unità Topografica indagata e per l’analisi delle fonti e della bibliografia disponibili per il territorio oggetto di studio. 3. Conclusioni Pur rispettando lo schema teorico alla base della Carta dei Beni Culturali, ritenuta un prezioso modello a cui rifarsi sul piano dell’impostazione concettuale questa banca dati non soltanto riempie quel vuoto informativo lasciato dalla CBC circa i paesaggi subacquei, ma ne supera, d’altra parte, l’approccio meramente catalogativo, cercando di rendere il database uno strumento rispondente sul piano strettamente metodologico e, pertanto, funzionale anche alle esigenze di un’attività che si svolge principalmente sul campo. Ne consegue la strutturazione di un archivio multimediale capace di raccogliere e ordinare grandi masse di dati secondo uno schema specifico e formalizzato, al fine di agevolare una rapida ed efficace integrazione fra documenti archeologici e parametri geografici all’interno di un Sistema Informativo Territoriale: in questo modo s’intende creare sia un supporto indispensabile a un’analisi complessiva e sistematica che intenda descrivere le trasformazioni del paesaggio, sia un valido strumento di tutela. I beni culturali subacquei, anche se “meno visibili”, sono parte integrante di quel contesto storico al quale ormai l’archeologia dei paesaggi si propone di restituire «una tangibilità nelle sue tre dimensioni»27 e in quanto tali devono essere chiamati a partecipare alla costruzione di nuove e più complete narrazioni. Se la mancata considerazione della “cultura del contesto” ha causato molti dei problemi attualmente incontrati nella conservazione e nella gestione dei beni culturali, il “sommerso” ha anche pagato gli svantaggi di una minore evidenza28. L’esperienza progettuale maturata in seno al progetto Liburna conferma ancora una volta l’esigenza di una gestione il più possibile sistematizzata della conoscenza prodotta dalla ricerca archeologica, pur con le ovvie eccezioni e remore di cui si è più volte scritto29 e di cui si è già avuto modo di discutere anche nel corso nel corso degli appuntamenti annuali di ArcheoFOSS. Al momento attuale risulta, infatti, fondamentale sistematizzare il censimento dei giacimenti archeologici subacquei sia per contribuire a una più complessa ricostruzione storica del paesaggio sia per fornire agli enti presenti sul territorio un archivio, condiviso e partecipato, in continuo aggiornamento utile alla pianificazione territoriale e alla prevenzione30, come in Italia sta già dimostrando il progetto Alto Adriatico. 27 CAMBI 2011, 51. Sull’accezione plurisemantica del termine “sommerso” si veda quanto espresso nel contributo di A. De Stefano, M. G. Sibilano, G. Volpe in questo stesso volume. 29 Sebbene originariamente indirizzata al settore meramente storico la prima puntuale disamina sull’inadeguatezza dei database relazionali alla pratica delle discipline umanistiche è in THALLER 1993, 51-86. La rivista Archeologia e Calcolatori ha saputo brillantemente illustrare, dal 1990 a oggi, le diverse posizioni e opinioni maturate nel progressivo passaggio dalla fase dei “grandi entusiasmi” alla fase dei ripensamenti e delle critiche verso l’uso delle banche dati in archeologia: fra tutti, GUERMANDI 1999, 89-99. Per una recente analisi sui caratteri, i limiti e i vantaggi impliciti nell’uso dei DBMS nella pratica archeologica: D’ANDREA 2006, 47-52. 30 In riferimento all’evoluzione del dibattito sul ruolo e la gestione della pianificazione territoriale e della tutela, e sul rapporto tra archeologia preventiva e archeologia d’emergenza cfr. per gli esordi della discussione Archeologia Medievale 1979; allo stato attuale per una sintesi VOLPE 2007; CARANDINI 2008; BROGIOLO 2009. 28 195 In questa prospettiva il sostegno delle tecnologie informatiche FOSS, sempre più democratiche sul piano delle competenze eterogenee coinvolte, delle soluzioni applicative impiegate e della libera fruizione che ne consegue, rivela un ruolo ormai nodale rispetto alle diverse esigenze di ricerca, didattica, tutela o comunicazione del nostro patrimonio archeologico emerso e sommerso. 196 Abbreviazioni bibliografiche ANASTASI-VOLPE 2006 A. Anastasi - G. Volpe, L’archeologia subacquea in Albania, in L’Archeologo subacqueo, 12, 2006, 1-3. Archeologia Medievale 1979 Archeologia Medievale VI. Archeologia e Pianificazione dei centri abitati, Seminario Interdisciplinare, Rapallo 1978, Firenze 1979. AURIEMMA-KARINJA 2008 Terre di mare. L’archeologia dei paesaggi costieri e le variazioni climatiche, Atti del Convegno Internazionale di Studi, R. Auriemma, S. Karinja (edd.),Trieste 2008. BELTRAME 1998 C. Beltrame, Processi formativi del relitto in ambiente marino mediterraneo, in Archeologia subacquea. Come opera l’archeologo sott’acqua. Storie dalle acque, G. Volpe (ed.), Firenze 1998, 141-166. BROGIOLO 2007 G. Brogiolo, Dall’Archeologia dell’architettura all’Archeologia della complessità, in Pyrenae, 38, 738. BROGIOLO 2009 G. Brogiolo, La tutela dei paesaggi storici tra archeologia preventiva e archeologia d’emergenza, in V Congresso Nazionale di Archeologia Medievale, G. Volpe, P. Favia (edd.), Firenze 2009, 3-6. BUGLIONE et alii 2012 A. Buglione - G. De Venuto - M. G. Sibilano, Strumenti open source per la gestione dei reperti faunistici: l’Itinera Repository Management System (IREMAS), in Atti del 6° Convegno Nazionale di Archeozoologia, J. De Grossi Mazzorin, D. Saccà, C. Tozzi (edd.), Orecchiella 2009, San Romano in Garfagnana-Lucca 2012, 3-6. CAMBI 2011 F. Cambi, Manuale di archeologia dei paesaggi. Metodologie, fonti, contesti, Roma 2011. CARANDINI 2008 A.Carandini, Archeologia classica. Vedere il tempo antico con gli occhi del 2000, Torino 2008. D’ANDREA 2006 A. D’Andrea, Documentazione archeologica, standard e trattamento informatico, Budapest 2006. DE FELICE et alii 2009 G. De Felice - E. Di Sciascio - R. Mirizzi - G. Piscitelli - M. G. Sibilano - E. Tinelli - M. Trizio - G. Volpe, Un sistema web-based per la gestione, la classificazione e il recupero efficiente della documentazione di scavo, in ARCHEOFOSS. Open Source, Free Software e Open Format nei processi di ricerca archeologica, Atti del Workshop, P. Cignoni, A. Palombini, S. Pescarin (edd.), Roma 2009, in ACalc, suppl. 2, 2009, 251-257. DE STEFANO-SIBILANO 2009 A. De Stefano - M. G. Sibilano, Un modello per la catalogazione digitale dei reperti lapidei: l’Itinera Repository Management System (IREMAS), in Marmora. An International Journal for Archaeology, History and Archaeometry of Marbles and Stones, 5, 2009, 95-114. FELICI 2002 E. Felici, Metodi e tecniche del lavoro archeologico subacqueo, Roma 2002. GIANFROTTA-POMEY 1981 P. A. Gianfrotta - P. Pomey, Archeologia subacquea. Storia, tecniche, scoperte e relitti, Milano 1981. GUERMANDI 1999 M. P. Guermandi, Dalla base dati alla rete: l’evoluzione del trattamento dei dati archeologici, in ACalc, 10, 1999, 89-99. MANACORDA 2007 D. Manacorda, Il sito archeologico: fra ricerca e valorizzazione, Roma 2007. MANNONI 1985 T. Mannoni Archeologia globale a Genova, in Restauro & Città, 2, 1985, 33-47. PIETRAGGI-DAVIDDE 2007 R. Pietraggi - B. Davidde, Archeologia sott’acqua. Teoria e pratica, Roma 2007. RICCOBONO 2008 D. Riccobono, Il GIS, in R. Auriemma, V. Degrassi, P. Donat, D. Gaddi, S. Mauro, F. Oriolo, D. Riccobono, Terre di mare: paesaggi costieri dal Timavo alla penisola muggesana, in AURIEMMAKARINJA 2008, 181-186. THALLER 1993 M. Thaller, Historical Information Science: Is There Such a Thing? New Comments on an Old Idea, in Discipline Umanistiche e Informatica, Orlandi T. (ed.) Roma 1993, 51-86. VOLPE 2000 G. Volpe, s.v. Archeologia Subacquea, in Dizionario di archeologia, R. Francovich, D. Manacorda (edd.), Roma 2000, 319-327. 197 VOLPE 2005 G. Volpe, Paesaggi e insediamenti rurali dell’Apulia tardoantica e altomedievale, in Paesaggi e insediamenti rurali in Italia meridionale fra Tardoantico e Altomedioevo, Atti del I Seminario sul Tardoantico Altomedioevo in Italia meridionale, G. Volpe, M. Turchiano (edd.), Foggia 2004, Bari 2005, 299-314. Scienze Umane. [email protected] VOLPE 2006 G. Volpe, Archeologia aerea, archeologia dei paesaggi e archeologia globale della Daunia (Aerial Archaeology, landscape archaeology and ‘total’ arcaheaology in Daunia), in Paesaggi sepolti in Daunia. John Bradford e la ricerca archeologia dal cielo (1945-1957), F. Franchin Radcliffe (ed.), Foggia 2006, 13-36. D. Balzano [email protected] VOLPE 2007 G. Volpe, L’archeologia “globale” per ascoltare la “storia totale” del paesaggio, in SudEst, 20, 20-32. VOLPE 2008 G. Volpe, Per una “archeologia globale dei paesaggi” della Daunia. Tra archeologia, metodologia e politica dei beni culturali, in Storia e Archeologia della Daunia. In ricordo di Marina Mazzei, Atti delle Giornate di Studio, G. Volpe, M. J. Strazzulla, D. Leone (edd.), Foggia 2005, Bari 2008, 447-462. VOLPE et alii 2008-09 G. Volpe - A. Anastasi - D. Leone - M. Turchiano - G. Disantarosa, Il progetto Liburna: due anni di ricerche in Albania, in L’Archeologo subacqueo, 15, 2008-09, 2-16. VOLPE et alii c.s. G. Volpe - A. Anastasi - G. Disantarosa - D. Leone M. Mazzoli - M. Turchiano, Progetto Liburna. Archeologia subacquea in Albania, in III Convegno Nazionale di Archeologia Subacquea, Manfredonia 2007, c.s. Referenze iconografiche Autori (M. Lomuzio): fig. 1. Autori (D. Balzano): figg. 2-4. Danilo Leone Università degli Studi di Foggia. Dipartimento di Scienze Umane. [email protected] Nunzia Maria Mangialardi Università degli Studi di Foggia. Dipartimento di 198 Maria Giuseppina Sibilano Università degli Studi di Foggia. Dipartimento di Scienze Umane. [email protected] Alessandra De Stefano Maria Giuseppina Sibilano Giuliano Volpe La città nascosta: un DBMS per il censimento e l’analisi delle strutture ipogee del centro storico di Foggia Abstract The agreement signed in 2010 between the University of Foggia - Department of Human Sciences and the Municipality of Foggia was born in implementing the Accordo di Programma Quadro of the Basin Authority of Puglia, the Municipality and the Province of Foggia. The aim of the agreement was to monitor needs and safety of the urban areas at risk of static stability and structural vulnerability. The research, still ongoing, involves the census, surveying and cataloging of underground and man-made cavities located in the town of Foggia for the creation of a database implemented also on thematic and geo-referenced maps. The main objective is the recovery of the cultural identity of the historic city of Foggia through his historical reevaluation, based on the necessary redevelopment of the historical, archaeological and artistic heritage here represented. The DBMS for the census of underground cavities is an attempt in this direction. It is placed, on the theoretical setting, in continuity with the Charter of Cultural Heritage of Puglia, a project started in September 2007 on the initiative of the Assessorato all’Assetto del Territorio of Puglia, in collaboration with the Assessorato al Diritto allo Studio e Beni Culturali, and the participation of four universities from Puglia (Foggia, Bari, Salento and Politecnico of Bari) and the Regional Department for Cultural and Landscape Heritage of Puglia. Unlike the Charter of Cultural Heritage of Puglia the database of underground cavities of Foggia is characterized by a choice application not only directed to the use of commercial products, but more appropriately geared to the vast potential offered by the world of free software and open source. For the implementation and management of the repository is used PostgreSQL, the most advanced open-source object-relational database (ORDBMS) in the open source community; GUI development technologies have been used Web 2.0 (PHP, AJAX, XHTML, etc.). The database, then, is the result of the analysis and survey of a sample of urban underground represented by man-made environments of the late medieval and modern age. It is designed to collect basic descriptive information of each cavity (description, analysis, general technical info on the owners), starting from a generic level of description (the ipogeo) to reach the minimum unit of analysis (individual rooms), It provides general guidance of scientific and chronological data (technical description, history, archaeological risk index, published and unpublished documents), aimed at the protection, enhancement and enjoyment of each evidences analyzed. 1. La Carta degli Ipogei del comune di Foggia Nell’immaginario collettivo passato e moderno discutere di archeologia significa naturalmente parlare di “evidenze sommerse”. L’espressione “sommerso”, non casualmente utilizzata di rado da addetti e non addetti al lavoro, pur essendo emblematicamente rappresentativa del carattere proprio di questa disciplina, ha però acquisito nel tempo un significato complesso, a tratti spinoso, perché di frequente associato a una rappresentazione semantica a prevalente accezione negativa. Parallelamente a un’attribuzione di natura topografica il termine “sommerso” 199 può, infatti, richiamare alla mente un’immagine dai tratti sfocati, di origine incerta, per lo più oscillante tra una necessaria legittimazione di esistenza, spesso negata, e un rifiuto cronico all’attuazione della sfera normativa da parte di un’ampia fetta della società civile. La crescente assenza di una manifestazione oggettiva, dal valore storico unanimemente condiviso e, laddove possibile, opportunamente tutelato, di ogni forma di “espressione archeologica” distribuita intorno a noi, si è tradotto in questi ultimi decenni in un’ininterrotta attività di denuncia verso le profonde trasformazioni dell’attuale paesaggio urbano e rurale, esito della realizzazione di grandi infrastrutture, di opere di natura pubblica e privata, di un’incontrollata meccanizzazione dell’agricoltura e della sempre presente “piaga” dello scavo clandestino e del traffico illegale di opere e beni che ne consegue1. Ciascuno di questi interventi costituisce un’allarmante spia di un patrimonio “sommerso”, costantemente minacciato e incapace di opporsi alla totale scomparsa e all’incessante degrado di numerosi siti ed evidenze archeologiche a cui ogni anno noi tutti assistiamo. Un patrimonio per il quale si riconosce ormai l’impossibilità di un’attività di conservazione a tappeto che non sia frutto di opportuni criteri selettivi2. Da qui l’esigenza di una più mirata ed efficace opera di indagine, associata all’urgenza di immediati interventi di tutela a carattere “inclusivo”: interventi, cioè, basati sul coinvolgimento pieno delle università (non soltanto destinatarie passive della pratica della concessione di scavo) e degli enti locali, attribuendo alle soprintendenze un ruolo di coordinamento e un’attività di tutela non circoscritta al mero aspetto vincolistico (L. 1089 del 1939), ma opportunamente preventiva (L. 109 del 2005)3. L’introduzione di recenti, ma a oggi circoscritte, forme di cooperazione, su nuove basi legislative, tra enti preposti alla tutela, alla ricerca, alla pianificazione territoriale e soggetti privati, per una diversa gestione del patrimonio culturale e territoriale e per nuove forme di integrazione politica e sociale della ricerca scientifica, ha progressivamente prodotto, nella cerchia degli addetti ai lavori, l’esigenza di restituire all’opinione pubblica la giusta consapevolezza dell’agire umano in senso storico e diacronico, “risvegliando”, e in tal modo tutelando, la memoria collettiva insita nel concetto stesso di bene culturale4. In quest’ottica si è giunti all’ideazione della Carta degli Ipogei del comune di Foggia, un progetto finalizzato alla catalogazione delle cavità ipogee distribuite nel sottosuolo del centro storico foggiano, frutto di un modello positivo di cooperazione tra enti differenti e con funzioni distinte. La Carta degli Ipogei nasce nell’ambito dell’Accordo di Programma Quadro Difesa del Suolo - Delibera CIPE 20/2004. Studio di fattibilità per il monitoraggio e la messa in sicurezza delle aree urbane a rischio di stabilità statica e vulnerabilità strutturale nella città di Foggia - Convenzione Autorità di Bacino della Puglia - Comune di Foggia e Provincia di Foggia n. 0004819 del 20.05.20085, finalizzato al monitoraggio del rischio sismico in alcune aree della città di Foggia. La Carta degli Ipogei intende porsi quale naturale prosecuzione6 di quanto realizzato con la redazione della Carta dei Beni Culturali (CBC) della Regione Puglia recepita dal nuovo Piano Paesaggistico Territoriale Regionale (PPTR)7. La CBC regionale, nata dalla collaborazione tra le quattro università pugliesi e la 1 GRAEPLER-MAZZEI 1996. RICCI 1996. 3 VOLPE 2007, 20-32. 4 RICCI 1999, 97-127. 5 Il progetto, promosso dal Comune di Foggia (nelle persone di. Ing. Francesco Paolo Affatato - Responsabile Unico del Procedimento, Ing. Alfredo Ferrandino - Coordinatore di Progetto) e dall’Autorità di Bacino della Regione Puglia, ha visto la collaborazione, per affidamento, del Dipartimento di Scienze Umane dell’Università di Foggia. 6 Si è ritenuto opportuno intitolarla Carta degli Ipogei per ribadire il legame concettuale con la Carta Regionale dei Beni Culturali. 7 VOLPE et alii 2008, 75-90; VOLPE 2009, 264-269; VOLPE et alii 2009, 1887-1894; VOLPE 2010, 7-19; VOLPE 2011, 21-28. 2 200 direzione regionale per i Beni Culturali e Paesaggistici della Puglia con il supporto tecnico della società InnovaPuglia s.p.a., ha, infatti, previsto il censimento sistematico di tutti i beni immobili di interesse culturale (archeologici e architettonici) presenti sul suolo regionale, al di fuori delle città. Per quanto concerne i centri urbani, con la CBC regionale si è esclusivamente provveduto, in ambiente GIS, all’individuazione e alla definizione dei limiti esistenti tra “città storica” e “città moderna”, ovvero tra un organismo urbano complesso prodotto da particolari processi storici e la sua espansione moderna. Nel caso della città di Foggia, la “città storica” è visualizzabile all’interno della Carta come un poligono irregolare esteso a comprendere il settore che gravita nell’area della Cattedrale, i quartieri settecenteschi, la stazione e l’area della “villa comunale”. La Carta degli ipogei va a riempire parte di questo poligono, per quanto concerne la zona ritenuta di popolamento più antico, che gravita nell’area della Cattedrale e dei quartieri settecenteschi, limitando l’oggetto di censimento alle evidenze ipogee (grandi vani sotterranei di età moderna, in taluni casi comunicanti fra loro, caratterizzati da soffitti voltati, destinati verosimilmente allo stoccaggio delle derrate), che costituiscono un carattere peculiare e ancora poco conosciuto e valorizzato della città di Foggia8 (fig. 1). 1. Foggia. Gli ipogei della Chiesa di San Tommaso, della Chiesa di San Giuseppe, di Piazza De Sanctis, di Palazzo Antonelli. 2. Un modello per il censimento degli ipogei Le cavità ipogee distribuite nel sottosuolo del centro storico di Foggia rappresentano un caso emblematico di evidenze sommerse e non soltanto per la pur ovvia collocazione al di sotto dell’attuale piano di calpestio: si tratta di beni scarsamente noti o completamente ignoti alla maggior parte dei cittadini foggiani. Al di là delle fonti storiche, “patrimonio” documentale dei soli addetti ai lavori, la conoscenza di questi vani risiede, infatti, in forme più o meno evidenti di tradizione orale in dote alla sola componente più anziana della cittadinanza foggiana nei cui racconti torna ripetutamente il ricordo di “grotte” distribuite al di sotto del centro storico, preziosi luoghi di rifugio dai numerosi bombardamenti a cui la città fu sottoposta nel corso della seconda guerra mondiale. 8 BECCIA 1939; RUSSO 1992; ARBORE 1995; DE LEO 1997, 171-175; SALVATO 2005. 201 Sul piano della gestione della conoscenza archeologica il tema del sommerso legato alle evidenze ipogee distribuite nel sottosuolo foggiano assume, pertanto, un ruolo prioritario, espresso però in termini di negazione, cioè di assenza conoscitiva. Un’insufficiente consapevolezza circa l’esistenza di questi vani comporta, infatti, una più complessa reperibilità di informazioni e dunque una minore capacità di individuazione degli stessi, direttamente proporzionale a una maggiore difficoltà economica, amministrativa e operativa dal punto di vista della tutela, della valorizzazione archeologica e delle necessarie opere di riqualificazione del contesto urbano in cui questi beni insistono: un centro storico ormai da anni riaperto alla pubblica fruizione ma con un cammino ancora lungo da percorrere in termini di riappropriazione etica della memoria storica custodita in questi luoghi. Simili considerazioni ci hanno spinto inevitabilmente a riflettere su più opportune forme di comunicazione del patrimonio informativo racchiuso in questi beni, giudicando prioritaria, su qualunque altra forma di intervento, un’opera di catastazione destinata in primo luogo a fornire un utile strumento di prevenzione e tutela degli ipogei e dello spazio urbano immediatamente limitrofo, ma soprattutto in grado di produrre un incremento di conoscenza e notizie circa le evidenze sottoposte a indagine da erogare all’intera comunità foggiana. Si è, pertanto, avviata un’attività di censimento in grado di operare nel solco dell’esperienza rappresentata dalla Carta dei Beni Culturali della Regione Puglia, forse l’esempio di catalogazione meglio conosciuto nel nostro panorama regionale. La Carta ha, infatti, rappresentato un ineludibile punto di partenza a cui rifarsi sul piano dell’articolazione concettuale, specializzando in maniera puntuale il patrimonio informativo in essa racchiuso, ma allo stesso tempo è apparsa un modello da cui discostarsi, almeno in parte, sul piano delle scelte tecnologiche ivi adottate. Il database degli ipogei del comune di Foggia risulta, infatti, l’unica componente dell’intera filiera progettuale9 realizzata in duplice versione, commerciale e open source. Per l’implementazione e la gestione del repository si è utilizzato parallelamente alla ben nota applicazione Access della Microsoft, PostgreSQL, il sistema open source di gestione di database relazionale a oggetti (ORDBMS) più avanzato nella comunità open source10. Si è, dunque, optato per una scelta applicativa non indirizzata al solo impiego di prodotti commerciali, ma più opportunamente consapevole delle vaste potenzialità offerte dal mondo del free software e dell’open source. A motivare ulteriormente questa decisione ha contribuito indubbiamente il coinvolgimento di enti pubblici interessati a sostenere una politica di tutela e valorizzazione basata su strumenti gestionali a costo zero e su una divulgazione di informazioni liberamente fruibile senza alcuna compromissione sul piano della sicurezza e dell’integrità dei dati. Questo approccio trova ulteriore conferma sul piano normativo, a livello nazionale e internazionale, in diversi strumenti legislativi finalizzati ormai da qualche anno a sostenere l’utilizzo di software open source nell’ambito della pubblica amministrazione11. 9 Il progetto si è strutturato in diversi step al termine dei quali si è giunti all’analisi, al censimento e alla localizzazione georeferenziata di 643 ipogei. Dell’intera totalità degli ipogei censiti tuttavia solo un campione più ridotto pari a 30 ipogei è stato sottoposto ad analisi più accurata di tipo tecnico-strutturale e a un rilievo planimetrico bidimensionale. Due ipogei sono inoltre stati sottoposti a un rilievo tridimensionale, uno mediante 3D Laser scanner, uno mediante restituzione fotogrammetrica. 10 Attualmente si stanno ultimando le ultime correzioni e modifiche dei file .php e .jscript funzionali al funzionamento dell’interfaccia utente, basata su tecnologia 2.0. Superata questa fase si procederà al testing del repository, necessario per un accesso al sistema da parte di un’utenza più ampia, per poter, quindi, giungere, in ultima istanza, alla definizione da parte dei coordinatori progettuali delle modalità di accesso e fruizione del DBMS. 11 Decreto del Ministro per l’innovazione e le tecnologie 31 ottobre 2002 - “Istituzione della Commissione per il software a codice sorgente aperto - “open source” - nella Pubblica Amministrazione”; Direttiva del Ministro per l’innovazione e le tecnologie 19 dicembre 2003 - “Sviluppo ed utilizzazione dei programmi informatici da parte delle 202 Anche a livello regionale si registra la conferma di una simile tendenza come dimostra l’approvazione nella Giunta Regionale del 15 giugno 2011 del Disegno di Legge denominato “Norme su software libero, accessibilità di dati e documenti e hardware documentato” che nei suoi 19 articoli prevede «l’elaborazione di un piano triennale finalizzato alla promozione di progetti di ricerca, sviluppo e produzione sul software libero e l’hardware documentato, che si realizzerà con il coinvolgimento delle imprese, dei distretti produttivi, del sistema universitario e della ricerca. Allo stesso modo si lavorerà sulla formazione: la Regione, infatti, incentiva l’utilizzo del software libero anche a scuola, promuovendo l’inserimento, nei programmi didattici, della formazione all’uso del software libero e della diffusione dei valori etici e culturali a esso connessi. È chiaro che la Regione per prima sostituirà i propri apparati e, nel momento in cui bandirà una gara per l’acquisto di software, privilegerà (a parità di prestazioni) il software libero con specifiche premialità per le imprese che ne propongono l’utilizzo. In questo modo potrà mettere a disposizione degli utenti e delle altre amministrazioni il software e i codici per gestirlo, in modo che ciascuno sia libero di usare il programma e anche di migliorarlo, adattandolo alle proprie esigenze»12, oltre che di fruirne in maniera più immediata e trasparente. Un simile approccio, dal valore etico ancor prima che economico, verso la diffusione del software libero nella pubblica amministrazione rappresenta indiscutibilmente un importante passo in avanti in grado di favorire, prime fra tutte, realtà territoriali più fragili, a livello sociale ed economico, come nel caso del comune di Foggia e del più ampio contesto meridionale. 2.1. La progettazione concettuale del DBMS L’attività di censimento sinora svolta ha portato all’individuazione di 643 ipogei, definibili come grandi ambienti sotterranei di età tardo medievale e moderna. Questi vani si presentano caratterizzati da soffitti voltati e da un’architettura realizzata essenzialmente in laterizio e blocchi di calcarenite (quest’ultima approvvigionata direttamente nel territorio di Foggia), destinati verosimilmente alle attività produttive di stoccaggio o conservazione delle derrate e dei beni primari (neve, lana, carbone, grano) e appartenenti, nella maggior parte dei casi, alle ricche famiglie aristocratiche vissute a Foggia in età moderna. Di tutti gli ipogei rilevati topograficamente è stata effettuata una schedatura, descrizione preliminare e documentazione fotografica che popola il database a tal fine realizzato. Gli ipogei censiti e rilevati presentano alcuni elementi costruttivi e funzionali comuni, che possono fungere da linea guida per la comprensione e l’interpretazione degli stessi. Il riferimento alla presenza di ambienti sotterranei nella città di Foggia è presente in un documento di età medievale e in numerosi documenti d’archivio, databili fra il Settecento e l’Ottocento. Per quel che riguarda l’età medievale, nel Quadernus excaden- pubbliche amministrazioni” G.U. 7 febbraio 2004, n. 31; Decreto legislativo 7 marzo 2005, n. 82, art. 68, comma 1, lettera d) - “Codice dell’amministrazione digitale” G.U. 16 maggio 2005, n. 112 - Supplemento Ordinario n. 93; Decreto legislativo 4 aprile 2006, n.159 - “Disposizioni integrative e correttive al decreto legislativo 7 marzo 2005, n. 82, recante codice dell’amministrazione digitale” G.U. 29 aprile 2006, n. 99 - Supplemento Ordinario n. 105. Il Ministro per le Riforme e le Innovazioni nella P.A., presso la Presidenza del Consiglio dei Ministri, ha pubblicato, nel mese di marzo 2007, un documento denominato “Verso il Sistema Nazionale di e-Government - Linee strategiche” in cui viene ampiamente ribadito l’atteggiamento nei confronti delle risorse open source. Si vedano anche le Linee guida allo sviluppo di software riusabile multiuso nella Pubblica Amministrazione (i Quaderni n.38), pubblicate dal CNIPA (Commissione Nazionale per il software Open Source nella Pubblica Amministrazione, commissione istituita nel maggio del 2007 dal Ministro per le Riforme e le Innovazioni nella Pubblica Amministrazione, On.le L. Nicolais) nel gennaio 2009. 12 Newsletter del “Sistema Puglia” n. 197 (Luglio 2011). Disponibile all’indirizzo: http://www.sistema.puglia.it/portal/page/portal/SistemaPuglia/DettaglioNews?id_news=2194&id=18711. 203 ciarum, uno dei pochi documenti superstiti dell’intera cancelleria sveva, redatto non prima del 1248-49, si fa riferimento a una non meglio specificata domum unam cripta, cioè a una casa con cripta, utilizzata come carcere nella città di Foggia13. Tuttavia, non sono emerse tracce significative che documentino l’occupazione dell’area indagata in età medievale. Le uniche evidenze che potrebbero essere riconducibili a una frequentazione di età tardo medievale sono rappresentate dalle fosse granarie rinvenute in alcuni ipogei del centro storico, come in Piazza De Sanctis (fig. 1) e Palazzo Tortorelli. Fra tutte le evidenze analizzate, alcune appaiono estremamente accurate da un punto di vista costruttivo: il discreto livello di finitura della tecnica edilizia, la presenza di archi in blocchi squadrati di calcarenite, terminanti in lesene, l’articolazione complessa di alcune planimetrie, sembra una caratteristica costruttiva del periodo, riconducibile, verosimilmente, a una committenza medio-alta, di tipo religioso o privato. Non è un caso che gli ipogei architettonicamente più monumentali o con planimetrie particolarmente complesse, insistano al di sotto dei palazzi delle famiglie aristocratiche attive a Foggia fra il Seicento e l’Ottocento. Gli ipogei sembrano concepiti nel progetto costruttivo del palazzo storico di riferimento, pur non potendo escludere la possibilità di livelli di frequentazione precedente, come nel caso, ad esempio, di Palazzo Tortorelli. Direttamente derivata dall’analisi di tali evidenze archeologiche risulta la progettazione concettuale del database concepito per la raccolta delle informazioni descrittive di base di ciascun ipogeo (descrizione, analisi tecnica generale, informazioni logistiche), finalizzata al censimento, studio, monitoraggio ed eventuale futura valorizzazione del bene. In tal senso, la raccolta delle informazioni si è articolata partendo da un livello di descrizione generica fino all’unità minima (ipogeo, livello, vano). Vengono, innanzitutto, fornite alcune indicazioni generali: definizione (nome) e localizzazione del bene (via, coordinate); cronologia (se è antico o moderno e di quale periodo storico); proprietà (pubblica o privata); eventuale presenza di un palazzo storico (indicando quale) e quale attività sia associata a esso (commerciale, culturale: quest’ultimo dato risulta utile ai fini della definizione di un’eventuale attività di fruizione, coinvolgendo, ad esempio, in un evento o manifestazione, un’associazione o attività culturale); l’accessibilità e fruibilità. Vengono, inoltre, fornite indicazioni finalizzate a una pianificazione futura di studio e conservazione del bene: stato di conservazione (se originario o ristrutturato); rischio archeologico (alto-medio-basso); possibilità e/o utilità di studio-scavo-restauro archeologico. Vengono, infine, inseriti alcuni elementi descrittivi dell’ipogeo (sono state inserite voci inerenti agli elementi realmente riscontrati all’interno degli ipogei): l’eventuale presenza di collegamenti con altri ipogei, di fosse granarie, pozzi, aperture; numero di vani e livelli in cui si articola l’ipogeo. Segue, infine, il riferimento alla documentazione grafica, fotografica e bibliografica esistente. Di ciascun livello individuato, è indicato il numero dei vani, la profondità dal piano stradale e la modalità di collegamento fra un livello e l’altro; di ciascun vano individuato, viene indicata la localizzazione (es. a N di vano); la pianta (quadrata, rettangolare, ecc.); la funzione (fossa, pozzo, deposito, ecc.); il tipo di copertura (solaio/volta); il tipo di pavimentazione (lastricato lapideo; terra battuta, mattoni); la tecnica muraria utilizzata; i materiali utilizzati (calcarenite, laterizio, ciottoli, ecc.); la descrizione generale di ciascuna parete (N-S-E-O). Il database degli ipogei è stato ideato considerando la specifica situazione della città di Foggia; i vocabolari realizzati sono il frutto del riscontro di un campione significativo di ipogei e fanno riferimento alle condizioni o materiali specifici individuati; tuttavia, il modello realizzato potrebbe essere applicato ad altri ipogei urbani, incrementando ulteriormente le liste di vocabolari proposti. 13 204 DE TROIA 1994. 2.2. La progettazione logica e fisica del DBMS Il database della Carta degli Ipogei di Foggia è, dunque, concepito per la raccolta delle informazioni descrittive di base di ciascun ipogeo. Sono state a tal fine modellate 26 entità tabellari partendo da un livello di descrizione generica (l’ipogeo) sino a raggiungere l’unità minima di analisi (i singoli vani): più specificatamente si tratta di 8 tabelle principali destinate: a) alla gestione dell’accesso alla banca dati; b) alla descrizione della struttura ipogea nella sua articolazione interna (ipogeo-livello-vano); c) alla gestione dell’apparato grafico e fotografico associato a ciascun ipogeo. Per la realizzazione dei vocabolari richiesti in fase di analisi e studio degli ipogei sono state, inoltre, modellate 18 tabelle destinate a fornire all’utente menu a risposta singola, definendo relazioni uno-a-molti, o multipla, definendo relazioni molti-a-molti (fig. 2). Per quanto concerne l’interfaccia di popolamento, ottimizzata per una fruizione mediante il browser Mozilla Firefox, essa è costituita da una preliminare fase di login mediante la quale l’utente accede al pannello principale al cui interno, a seconda delle autorizzazioni fornitegli, è in grado di visualizzare, inserire, modificare, eliminare o ricercare dati pertinenti alla macro entità Ipogeo (fig. 3). La scheda Ipogeo, come è stato già sottolineato precedentemente, è in grado di fornire indicazioni generali sia di carattere scientifico e cronologico (descrizione tecnica, cronologia, indice del rischio archeologico, documentazione edita e inedita), sia finalizzate a attività di tutela, fruizione e valorizzazione del bene. Al suo interno sono, infatti, presenti campi in cui è possibile descrivere e/o visualizzare elementi legati agli aspetti subdiali dell’ipogeo indagato: se il palazzo che insiste sulla struttura ipogea è uno stabile moderno o 2. Schema EntitàRelazioni delle tabelle Ipogeo e Vano. 205 3. Il DMBS degli Ipogei: l’interfaccia grafica. un palazzo storico, se al suo interno si svolgono attività culturali, se vi sono margini per una futura opera di fruizione, restauro, studio o scavo archeologico dell’evidenza sottoposta a indagine, ecc.14 È quindi possibile procedere successivamente all’analisi dei livelli e dei rispettivi vani in cui si articola ciascun ipogeo. Durante la fase di popolamento della banca dati l’accesso ai pannelli di dettaglio Livello e Vano15 non è tuttavia progettato per una fruizione diretta: una volta selezionata l’opzione “Inserimento” dal menu Modalità, e completata la fase di compilazione di alcuni campi obbligatori presenti nella macro sezione Ipogeo (“N. Ipogeo” e “Nome dell’ipogeo”), è, infatti, necessario definire esplicitamente, in un ulteriore campo obbligatorio a tal fine ideato, la presenza di un approfondimento descrittivo associato alla singola struttura sottoposta ad analisi. Automaticamente il sistema imposta il valore di default “1livello”16 al campo “N. Livelli” consentendo all’utente di accedere alle schede Livello e Vano. In caso contrario esprimendo l’assenza di un approfondimento, il sistema imposta il valore di default “ignoto” al campo “N. Livelli”, disattivando l’accesso alle schede di dettaglio17. 14 Per la descrizione di dettaglio delle voci che compongono la scheda Ipogeo si rimanda al paragrafo sulla progettazione concettuale: cfr. supra. È importante ricordare che dei 30 ipogei sottoposti ad analisi più approfondita soltanto due sono stati sottoposti a indagine stratigrafica sebbene non nell’ambito del progetto della Carta degli Ipogei ma in circostanze comunque attinenti a questa attività progettuale. 15 Per la descrizione di dettaglio delle voci che compongono le schede Livello e Vano si rimanda al paragrafo sulla progettazione concettuale: cfr. supra. 16 Si tratta di un valore chiaramente modificabile selezionando una delle restanti istanze previste nel corrispondente menu a tendina. 17 Questa azione viene comunicata all’utente mediante il messaggio “il pannello selezionato non esiste per il tipo di approfondimento attestato”. 206 La sezione “Ricerca”, analogamente fruibile selezionando l’omonima opzione dal menu Modalità, è attualmente strutturata per permettere all’utente di visualizzare l’elenco degli ipogei presenti nel banca dati: vengono distinti i 30 ipogei dotati di approfondimento dai restanti 613 privi di approfondimento. Cliccando su ciascun record attestato nella colonna Ipogeo è possibile essere reindirizzati alla scheda di pertinenza dell’ipogeo selezionato. Il risultato della ricerca può, inoltre, essere salvato e stampato in formato cartaceo e digitale (fig. 4). La fase di fruizione o di popolamento del database si conclude selezionando il pulsante Archivio ubicato nella barra dei menu posta nella porzione superiore dell’interfaccia grafica principale. Si accede in questo modo alla sezione dedicata all’apparato grafico e fotografico pertinente a ciascun ipogeo indagato (fig. 3). 4. Il DMBS degli Ipogei: la sezione Ricerca. 3. Conclusioni L’urgenza di una più opportuna modalità di comunicazione e, dunque, di fruizione di beni a oggi scarsamente conosciuti, pur essendo parte integrante e imprescindibile della memoria collettiva locale, l’esigenza di una continuità progettuale con l’esperienza della Carta dei Beni Culturali, a patto di una graduale inversione di tendenza sul piano applicativo, e il rinnovato, e da tempo auspicato, scenario legislativo nazionale e, in particolar modo, regionale sono, dunque, all’origine di questa preziosa esperienza progettuale. Il principale risultato è la sistematizzazione della conoscenza del patrimonio culturale di Foggia attraverso la catalogazione e la localizzazione dei beni culturali presenti all’interno del centro urbano su cartografia dettagliata e aggiornata mediante un sistema informativo “modello”, possibile prototipo indispensabile per la programmazione delle adeguate azioni di monitoraggio e tutela dei beni culturali immobili “sotterranei” inseriti nella trama delle attuali maglie urbane. 207 La Carta degli Ipogei garantisce un monitoraggio costante e integrato degli ipogei della città di Foggia, in progressivo aggiornamento in rapporto all’avanzamento delle conoscenze; favorisce un’attività di conoscenza, valorizzazione e tutela del patrimonio culturale degli ipogei di età storica presenti al di sotto dell’attuale piano della città moderna; infine, contribuisce alla risemantizzazione del patrimonio urbano e al recupero dell’identità storica e culturale della città, attività che implicherà inevitabilmente interventi di riqualificazione del patrimonio storico-archeologico o storico-artistico rappresentato dal centro storico nella sua globalità e unità culturale. Quest’ultimo appare, dunque, un territorio di sperimentazione in grado di produrre un modello di catalogazione prototipale applicabile anche ad altre realtà urbane della Puglia e della penisola italiana, perché fondato sul principio della massima condivisione della struttura concettuale, logica e fisica a tal fine realizzata. La sua implementazione è certamente l’esito dell’analisi autoptica di un campione significativo di ipogei che fa riferimento alle condizioni e ai materiali specifici individuati in situ, ma con l’importante differenza di basarsi su di un’architettura aperta in grado di agevolare possibili ampliamenti e modifiche del modello al fine di risultare applicabile anche ad altre realtà urbane con analoghe esigenze di conoscenza e tutela del proprio patrimonio storico-culturale. 208 Abbreviazioni bibliografiche ARBORE 1995 G. Arbore, Famiglie e dimore gentilizie di Foggia, Fasano 1995. BECCIA 1939 N. Beccia, L’origine di Foggia, Foggia 1939. DE LEO 1997 C. De Leo, Foggia sotterranea. Appunti sulla esplorazione condotta nell’area presumibilmente occupata dal palazzo imperiale, in Foggia medievale, M.S. Calò Mariani (ed.), Foggia 1997, 171-175. DE TROIA 1994 G. De Troia, Foggia e la Capitanata nel quaternus excadenciarum di Federico II di Svevia, Fasano 1994. GRAEPLER-MAZZEI 1996 D. Graepler - M. Mazzei, Provenienza sconosciuta! Tombaroli, mercanti e collezionisti. L’Italia archeologica allo sbaraglio, Bari 1996. RICCI 1996 A. Ricci, I mali dell’abbondanza. Considerazioni impolitiche sui beni culturali, Roma 1996. RICCI 1999 A. Ricci, Luoghi estremi della città. Il progetto archeologico tra “memoria” e “uso pubblico della storia”, in Topos e Progetto. Il topos come meta, Roma 1999, 97-127. RUSSO 1992 S. Russo, Storia di Foggia in età moderna, Bari 1992. SALVATO 2005 V. Salvato, Foggia. Città, territorio, genti, Foggia 2005. VOLPE 2011 G. Volpe, Rediscovering the Heel. Archaeology and History in Northern Apulia, in Expedition, 53, 2011, 21-28. VOLPE et alii 2008 G. Volpe - A. Di Zanni - S. Laurenza, La Carta dei Beni Culturali della Regione Puglia: dalla lettura del paesaggio alla progettazione dell’infrastruttura informatica, in L’informatica e il metodo della stratigrafia, Atti del Workshop, G. De Felice, M. G. Sibilano, G. Volpe (edd.), Foggia 2008, Bari 2008, 75-90. VOLPE et alii 2009 G. Volpe - R. Martines - A. Vella - T. Caroppo - R. Cassano - L. Ficarelli - G. Semeraro, La Carta dei Beni Culturali della Puglia, in Atti della 13a Conferenza Nazionale ASITA, Bari 2009, 18871894. Referenze iconografiche Autori (A. De Stefano): figg. 1. Autori (M. G. Sibilano): figg. 2-4. Alessandra De Stefano Università degli Studi di Foggia. Dipartimento di Scienze Umane. [email protected] Maria Giuseppina Sibilano Università degli Studi di Foggia. Dipartimento di Scienze Umane. [email protected] Giuliano Volpe Università degli Studi di Foggia. Dipartimento di Scienze. [email protected] VOLPE 2007 G. Volpe, L’ “archeologia globale” per ascoltare la “storia totale” del territorio, in SudEst, 20, 2007, 20-32. VOLPE 2009 G. Volpe, La Carta dei Beni Culturali. Intervento alla Tavola Rotonda, in Quale futuro per l’archeologia?, Atti del Workshop Internazionale, A. L. D’Agata, S. Alaura (edd.), Roma 2008, Roma 2009, 264-269. VOLPE 2010 G. Volpe, Un nuovo strumento di pianificazione territoriale. La Carta dei Beni Culturali della Puglia, in Il paesaggio nell’analisi e pianificazione del territorio rurale, P. Dal Sasso (ed.), Foggia 2010, 7-19. 209 Stefano Costa Luca Bianconi Elisabetta Starnini TIPOM 2011: l’archeologia del software in archeologia «Hoc illud est praecipue in cognitione rerum salubre ac frugiferum, omnis te exempli documenta in inlustri posita monumento intueri; inde tibi tuaeque rei publicae quod imitere capias, inde foedum inceptu foedum exitu quod vites.» Liv., Praefatio Abstract Typometry is a methodology for the dimensional analysis of chipped stone artefacts (blanks), that was developed in the 1960s by B. Bagolini. The basic assumption behind typometry is that physical dimensions like length, width and thickness of such artefacts can give us an insight of their technology, chronology and the culture that produced them; moreover, by processing large amounts of such measurements the researcher will be able to group finds in discrete categories. Typometry was done by hand on paper until the 1980s, when a software program called TIPOM was written to automate the plotting and reporting in DOS environment. This software was written in BASIC and it is now very difficult to use it with the most common operative systems, nevertheless it’s still popular among specialists. We present here a clone of the original program, written in the GNU R programming environment and available under the GNU GPLv3. During the process of studying this “archaeological” piece of software, we realised how poor is the knowledge we have about the history of archaeological computing, and the opportunities that could arise from collecting obsolete pieces of software, for both teaching purposes and the ability to analyse data that was collected twenty or thirty years ago. We argue that the most significant change in how archaeologists deal with making software has not been a technical change, but rather a move from a “small world” where lots of researchers were crafting their own home-made tools, towards a global world where everybody should be using the same tools. The net result is a huge loss in the number of people who are still able to craft programs that do exactly what is needed. Finally, we propose the creation of an open archive where such programs can be shared publicly, both as source code and original research data. 1. La tipometria La tipometria è una metodologia per l’analisi dimensionale delle industrie litiche preistoriche, proposta e formulata negli anni Sessanta da B. Bagolini1, da applicare non agli strumenti ritoccati, ma alla massa di manufatti scheggiati prodotti dal débitage, purché interi. Il metodo si proponeva, infatti, di «verificare, tramite l’indagine metrico-statistica dei materiali litici non ritoccati [...] se la suddivisione in micro-lamelle, lamelle, lame, grandi lame, schegge laminari e schegge, adottata correntemente per definire i manufatti litici sotto il profilo dimensionale, abbia una corrispondenza oggettiva e verificabile nella tecnica di estrazione dei manufatti dai nuclei»2. Dobbiamo ricordare che in quel periodo si stavano facendo strada anche in Italia le istanze processualiste e, soprat1 2 BAGOLINI 1968. BAGOLINI 1968, 195. 211 tutto in ambito preistorico, si iniziavano a utilizzare metodi statistico-matematici per ricercare nei complessi dei manufatti della cultura materiale regolarità o anomalie che fossero portatrici di significati utili alla corretta e più oggettiva interpretazione dei contesti archeologici3. Il concetto fondamentale alla base dell’analisi tipometrica consiste nel presupposto che le dimensioni dei manufatti (lunghezza, larghezza, spessore) e in particolare le proporzioni tra le diverse dimensioni, siano indicative della tecnologia di produzione dei manufatti stessi, della loro cronologia e della cultura che li ha prodotti. Tramite l’analisi comparata di numerosi manufatti è pertanto possibile suddividerli in categorie discrete e ricavare informazioni sulla tecnologia di scheggiatura utilizzata in un sito archeologico. Oggi, sessant’anni dopo la proposta di Bagolini e passata anche la “moda” processualista, l’analisi tipometrica resta ancora valida e si continua a eseguire, sia come step importante per comprendere e quantificare i moduli del débitage, sia per operare confronti dei risultati tra complessi studiati col medesimo metodo. Bagolini stesso aveva intuito, infatti, che tramite questo tipo di analisi si potevano ottenere indicazioni utili per inquadrare sia cronologicamente, sia culturalmente le industrie litiche scheggiate4. Inoltre, i diagrammi tipometrici vengono utilizzati spesso dagli archeologi anche per analizzare la dispersione dimensionale di particolari strumenti (armature, grattatoi) o residui di scheggiatura come i microbulini5. Fino agli anni Ottanta, la realizzazione dei grafici tipometrici e il conteggio dei relativi valori che cadevano nei diversi intervalli venivano eseguiti unicamente a mano. Il quantitativo ottimale di manufatti da cui ricavare dati statisticamente attendibili era stato stabilito in 500 unità. Tuttavia, è stato verificato successivamente, con la pratica, che anche in presenza di un numero inferiore di pezzi da misurare, i grafici ottenuti rispecchiano con buona approssimazione il trend di aspettativa caratteristico del periodo e della cultura6. Comunque rimaneva assai faticoso e macchinoso eseguire i conteggi e realizzare a mano i grafici. La rappresentazione grafica delle misure è data, infatti, mediante punti individuati da coordinate cartesiane, ponendo sul semiasse delle ordinate la lunghezza massima del manufatto e su quello delle ascisse la larghezza (fig. 1). In tal modo, come rilevava giustamente Bagolini, «si ottiene una chiara immagine dell’andamento [...] con una visualizzazione immediata di eventuali addensamenti o soluzioni di continuità nella distribuzione dei punti»7. Un istogramma ricavato dal diagramma cartesiano suddividendo quest’ultimo in vari settori in base ai rapporti lunghezza/larghezza completa la rappresentazione e fornisce i dati quantitativi della distribuzione areale dell’industria (fig. 2). Si può dunque comprendere come l’intervento di un programma informatico dedicato per l’elaborazione dell’analisi tipometrica fosse auspicato e utile non solo a sollevare l’archeologo dal lavoro manuale e sveltire i tempi dell’elaborazione, ma anche per abbattere le possibilità di errore materiale nella realizzazione dei grafici e dei conteggi per realizzare gli istogrammi. 2. TIPOM Alla fine degli anni Ottanta, fu sviluppata presso l’Università di Milano da L. Fasani una versione informatizzata della procedura di analisi, in linguaggio BASIC. Il software fu chiamato TIPOM ed era scritto con una singola procedura, a cui si aggiungeva un secondo programma dedicato alla realizzazione dei grafici associati all’analisi; il programma funzionava allora in ambiente DOS. I dati su cui TIPOM operava erano semplici 3 CLARKE 1998. BAGOLINI 1968, 195. 5 CERMESONI et alii 1999. 6 STARNINI 1999. 7 BAGOLINI 1968, 198. 4 212 1. Diagramma cartesiano lunghezzalarghezza per la tipometria delle industrie litiche. file ASCII in formato CSV, contenenti le misure dei singoli reperti (lunghezza, altezza, spessore). Lo scopo di TIPOM è quello di agevolare l’archeologo creando in modalità automatica grafici e tabelle riassuntive da cui ricavare considerazioni di carattere generale sull’insieme degli strumenti litici analizzati. Dopo oltre vent’anni, questo programma non è più in grado di funzionare senza accorgimenti relativamente complessi sugli attuali sistemi operativi, e tuttavia circola tra gli addetti ai lavori su un floppy disk, che contiene sia il listato sorgente sia il programma eseguibile da linea di comando. 3. TIPOM 2011 Per ovviare all’obsolescenza di TIPOM il progetto IOSA ha intrapreso una riscrittura del programma secondo le proprie consolidate metodologie di sviluppo già note alla comunità archeologica8. La nuova versione di TIPOM è basata sull’ambiente di programmazione GNU R9 ed è rilasciata sotto una licenza GNU GPLv3. La scelta di R è stata dettata da vari fattori, ma ci soffermeremo qui sulla sua crescente adozione nel campo del8 9 COSTA et alii 2009. R Development Core Team 2010. 213 2. Istogramma quantitativo per la tipometria delle industrie litiche scheggiate. l’analisi quantitativa in archeologia10. Pur essendo a tutti gli effetti una libreria per l’ambiente R, essa presenta una interfaccia dedicata, in cui sono disponibili le funzioni di base richieste per lo svolgimento dell’analisi tipometrica e la produzione dei grafici annessi. Le procedure di analisi sono state tratte direttamente dal vecchio programma, andando a riprodurne in parte la resa grafica per ragioni di omogeneità e comparabilità. La versione 0.1 di TIPOM è una libreria R installabile tramite gli archivi CRAN, con il comando install.packages(“tipom”) che rende i comandi accessibili nello spazio utente. Una volta caricata la libreria nella sessione con il comando library(tipom), le operazioni a disposizione sono l’importazione dei dati e la definizione di metadati, l’analisi preliminare e la produzione di grafici. L’importazione di dati in formato CSV o analogo avviene tramite il comando tipom.import che crea un oggetto di tipo data.frame corredato da alcuni metadati quali la descrizione del dataset e l’unità di misura in cui essi sono espressi. L’operazione di data entry è pertanto al di fuori della funzionalità di TIPOM e può essere svolta con qualunque tipo di software (foglio di calcolo, editor testuale). L’analisi preliminare avviene tramite la creazione di grafici preimpostati con le funzioni tipom.lw e tipom.car, rispettivamente destinate al confronto tramite scatterplot di lunghezza e larghezza (allungamento) e dello spessore rispetto alla dimensione maggiore (carenatura). Diverse opzioni permettono l’inclusione nel grafico di classificazioni funzionali e dimensionali riprese dal precedente TIPOM e dagli studi di Bagolini. La funzione tipom.heat crea una griglia in cui le celle sono colorate in base alla quantità di occorrenze di un determinato valore (heatmap) e va ritenuta come una moda10 214 BAXTER et alii 2008; BAXTER-COOL 2010; BAXTER et alii 2010. lità di visualizzazione sperimentale adatta a insiemi di dati particolarmente numerosi. Sulla base dei dati importati ed elaborati sono possibili tutte le analisi che l’ambiente R mette a disposizione. A titolo di esempio, citiamo il coefficiente di correlazione ρ di Pearson ottenibile con il comando with(TIPOMDATA, cor(Length, Thickness)) e la classificazione in insiemi discreti multidimensionali tramite algoritmi di clustering. Anche alla luce di queste ultime indicazioni, è certamente opportuno non limitare la possibilità di analisi a una serie predefinita di indici, ma creare, al contrario, strumenti per giungere più rapidamente all’inizio dell’analisi statistica vera e propria, costituita da ipotesi e test11. Se con il progredire delle tecniche di analisi si renderà certamente necessaria l’integrazione di altri indici tipometrici, l’estrema modularità del nuovo software TIPOM rende molto semplice uno sviluppo in questo senso senza problemi di scalabilità. In questo modo, la possibilità di utilizzare le funzionalità di TIPOM all’interno dell’ambiente R è un grande valore aggiunto rispetto a un programma autonomo. È importante sottolineare come il lavoro presentato sia stato focalizzato non sul codice sorgente in quanto tale ma piuttosto sul recupero delle logiche di analisi e ricerca che lo strumento TIPOM era chiamato ad assolvere e facilitare, nell’ottica del recupero, della salvaguardia e della divulgazione dei metodi di analisi, anche di quelli talvolta desueti, e non degli strumenti di analisi dal punto di vista aridamente tecnico, che peraltro sono spinti per stessa natura dell’informatica a subire processi di obsolescenza alquanto rapidi. 4. TIPOM in the cloud A integrazione di questo lavoro è stata realizzata un’interfaccia accessibile tramite browser e di semplice utilizzo che, così come TIPOM, permette di caricare ed elaborare dati in formato CSV, consentendo di eseguire un sottoinsieme dell’analisi tipometrica senza necessità di installare alcun programma aggiuntivo. Questa estensione, denominata TIPOM Cloud, si propone di rendere ancora più immediato l’accesso e l’utilizzo del programma ed è realizzata in linguaggio PHP con il supporto della libreria JQuery. TIPOM Cloud mette a disposizione una parte delle funzionalità già disponibili tramite la libreria R, in particolare la produzione di istogrammi basati sugli indici di carenatura (IC) e allungamento (IA), insieme alla classificazione in moduli di scheggiatura (MS). TIPOM Cloud è disponibile alla URL http://tipom.iosa.it/. 5. Oltre TIPOM: per non perdere la memoria Oltre le specifiche funzionalità analitiche di TIPOM ci è apparsa significativa la possibilità di recuperare un episodio della storia del software in archeologia, ancora peraltro utile nell’analisi delle industrie litiche preistoriche, ripercorrendo una parte dell’evoluzione avvenuta negli ultimi vent’anni. A livello tecnico, è evidente la differenza che separa i due programmi funzionalmente equivalenti: da un lato abbiamo una procedura composta da un singolo listato, mentre dall’altro, abbiamo realizzato una “interfaccia leggera” a un sistema molto complesso. Il programma originale era estremamente portabile nel contesto dell’informatica dei primi anni Novanta; al contrario la portabilità è oggi garantita dall’utilizzo di piattaforme relativamente complesse e linguaggi di programmazione liberi di medio e alto livello (Java, Python e lo stesso R sono alcuni tra gli esempi più significativi), in grado di funzionare su tutti i sistemi operativi. Lo “sforzo aggiunti11 Ringraziamo la dott.ssa G. Corrente che ha evidenziato questo particolare aspetto nel corso della discussione seguita all’intervento durante il workshop. 215 vo” (rispetto alla logica di base) del programma scritto in BASIC era la creazione delle primitive grafiche e la gestione dell’output, sia grafico sia testuale. Al contrario, la pratica contemporanea dello sviluppo di librerie software richiede procedure di integrazione con il sistema, che nel caso di R consistono in: documentazione estensiva di tutte le funzioni tramite linguaggio di marcatura LaTeX, strutturazione del codice in file e directory standard, controlli di coerenza interna sulle chiamate tra funzioni, condivisione della libreria tramite l’archivio CRAN. Il risultato di questa catena operativa da parte degli sviluppatori è la grande facilità con cui il software può essere installato direttamente all’interno dell’ambiente di programmazione, tramite la connessione alla rete. È altrettanto importante notare come l’evoluzione tecnica abbia anche comportato un cambiamento sociale nella disciplina archeologica: di fatto il numero di persone in grado di scrivere programmi informatici per l’analisi dei dati si è ridotto, anche nel caso di procedure lineari come la tipometria, non solo in proporzione rispetto agli utenti ma forse anche in termini assoluti (mancano purtroppo in Italia studi al riguardo). Questo fenomeno è avvenuto nonostante sia divenuta nel complesso più semplice la scrittura di programmi elementari, proprio in virtù dell’esistenza di linguaggi di alto livello e dotati di interpreti interattivi. Le cause alla base di questi cambiamenti sono naturalmente complesse e sono uno dei modi in cui si manifesta il cambiamento della concezione stessa di informatica nella società contemporanea (ben oltre i limitati confini dell’informatica in archeologia), con il passaggio da un calcolatore che deve essere programmato a un elettrodomestico che va semplicemente usato nell’unico modo possibile. 6. Un Antiquarium A seguito delle interessanti riflessioni scaturite dalla disponibilità di questo software “archeologico” a livello anagrafico, ma ancora utile agli archeologi, IOSA propone alla comunità ArcheoFOSS e più in generale agli autori di software dedicato all’archeologia la creazione di un Antiquarium (http://antiquarium.iosa.it/) in cui rendere disponibili con licenza libera i listati sorgente di programmi obsoleti realizzati per l’analisi e l’archiviazione di dati archeologici, allo scopo di costituire una risorsa per la storia della nostra disciplina e per la didattica. Alla luce della normativa vigente sul diritto d’autore lo status di abandonware non corrisponde alla cessazione dei diritti d’autore, pertanto l’unica modalità per la pubblicazione in rete di questi programmi è l’adozione di una licenza adatta da parte dell’autore originale. Sono, invece, consentiti la correzione degli errori, lo studio e la modifica per conseguire l’interoperabilità con altri programmi (art. 64-ter L. 633/41, art. 64-ter.3 L. 633/41, art. 64-quater.1 lett. A L. 633/41). L’esperienza dei workshop ArcheoFOSS costituisce, in questo ambito, un esempio particolarmente importante di discussione degli aspetti legali connessi alla condivisione di software e dati, a cui fare riferimento per favorire una maggiore diffusione di pratiche collettive di riuso. 216 3. Diagramma cartesiano (scatterplot) realizzato con la libreria tipom nell’ambiente R. I diversi simboli indicano concentrazioni maggiori in funzione della loro dimensione. Le linee oblique indicano le classi discrete e sono modificabili per ogni analisi. 4. TIPOM Cloud (http://tipom.iosa.i t/). 217 Abbreviazioni bibliografiche BAGOLINI 1968 B. Bagolini, Ricerche sulle dimensioni dei manufatti litici preistorici non ritoccati, in Annali dell’Università di Ferrara, 1, 1968, 195-220. BAXTER et alii 2008 M. J. Baxter - C. C. Beardah - I. Papageorgiou - M. A. Cau - P. M. Day - V. Kilikoglou, On statistical approaches to the study of ceramic artifacts using geochemical and petrographic data, in Archaeometry, 50, 2008, 142-157. BAXTER et alii 2010 M. J. Baxter - H. E. M. Cool - M. A. Anderson, Statistical analysis of some loomweights from Pompeii: a postscript, in ACalc, 21, 2010, 185-200. BAXTER-COOL 2010 M. J. Baxter - H. E. M. Cool, Correspondence analysis in R for archaeologists: an educational account, in ACalc, 21, 2010, 211-228. CERMESONI et alii 1999 B. Cermesoni - A. Ferrari - P. Mazzieri - A. Pessina, Considerazioni sui materiali ceramici e litici, in Sammardenchia-Cûeis. Contributi per la conoscenza di una comunità del primo Neolitico, A. Ferrari e A. Pessina (edd.), Museo Friulano di Storia Naturale, 41, 1999, 231-258. CLARKE 1998 D. L. Clarke, Archeologia analitica, Milano, 1998. COSTA et alii 2009 S. Costa - G. L. A. Pesce - L. Bianconi, Il progetto IOSA cinque anni dopo: cambiamenti di prospettiva e indirizzi per il futuro, in ArcheoFOSS. Open Source, Free Software e Open Format nei processi di ricerca archeologica, Atti del IV Workshop, P. Cignoni, S. Pescarin, A. Palombini (edd.), Roma 2009, in ACalc, 20, 2009, 71-76. R Development Core Team 2010 R Development Core Team, R: a language and environment for statistical computing, R Foundation for Statistical Computing, Vienna2010 (http://www.rproject.org/). STARNINI 1999 E. Starnini, Industria litica scheggiata, in Il Neolitico nella Caverna delle Arene Candide (scavi 19721977), S. Tinè (ed.), Collezione di Monografie Preistoriche ed Archeologiche, 10, 1999, 219-236, 450-471. Referenze iconografiche Autori: figg. 3-4; BAGOLINI 1968: figg. 1-2. 218 Stefano Costa. Progetto IOSA (http://www.iosa.it/). [email protected] Luca Bianconi Progetto IOSA (http://www.iosa.it/). [email protected] Elisabetta Starnini Soprintendenza per i Beni Archeologici della Liguria. [email protected] Luca Bianconi Davide Debernardi Paolo Montalto Archidroide. Gestione bibliotecaria informatizzata tramite tecnologie mobile open source Abstract The impressive spread of mobile platforms, as well as open source ones, like Android, has caught attention from operators and researchers versed in cultural assets who tried to maximize the good opportunities offered by the new media in several areas, e.g. Street Museum app from Museum of London, UK, or Mobile GIS - and many others. Through this precise context we carried out our research devoted to programming and realizing a system intended to automatize typical methodological efforts in classifying books or preserve book assets in general. The system we realized, as described below, is organized in several components deployed on the web - not only virtually but also geographically. The main actors in our architecture are: a repository hosting digitalized files data; a pool of services providing information about books; a REST PHP based service on a lightweight and portable application server, for populating and querying the files; a user friendly interface, based on Android mobile devices, for indexing and querying bibliographical data. The most innovatory practical aspects we have conceived are directly based on mobile skills, e.g. semi-automatic ISBD indexing thanks to Optical Character Recognition, Barcode scanning and libraries, like the ones provided by the Google Books service (http://code.google.com/intl/itIT/apis/books/), for matching ISBN’s and bibliographical data. Bibliographical data of books are also delivered with its actual call numbers, strictly relating to its actual position on the shelves of a library. A system for localizing and showing the position of volumes on a map has also been foreseen. The whole system, we are still developing, is released from the start under GNU GPL (General Public License), in respectful accordance with open source initiative, and freely provided to the community at the address https://bitbucket.org/iosa/archidroide/overview. Oggi il mestiere del bibliotecario deve fare tesoro delle esperienze biblioteconomiche che negli ultimi anni si sono sviluppate, con diverso successo e alterne fortune, nel più duttile strumento culturale che l’uomo abbia mai avuto a disposizione, dalla scoperta della comodità della scrittura fino all’invenzione della Stampa - la Rete. Questo oceano profondissimo, che pure si lascia ammirare in superficie da chiunque si accoccoli sulla sua riva e addirittura solcare anche dall’ultimo mozzo della nave della civiltà, sa però restituire i propri tesori solo ai subacquei più esperti e rispettosi del suo fondale, capaci di scegliere e distinguere il relitto prezioso dall’abbaglio dei fari. Tra questi relitti preziosi si devono annoverare le biblioteche digitali, perché espressione della volontà umana di preservare le fonti della propria cultura con oggettività, esattamente come si fa da millenni nelle biblioteche tradizionali, limitandosi rispettosamente ad accumulare miriadi di pagine accompagnate dalla descrizione di tutti i dati editoriali possibili per individuarle nel mondo, citarle con puntualità, sottoporle agli altri in modo chiaro ed evidente. L’ansia che la cultura veicolata dai libri possa un giorno scomparire, come pure è capitato nonostante gli sforzi profusi nelle biblioteche, ha portato appunto alle migliori 219 esperienze biblioteconomiche fruibili in rete. Tra queste spiccano esperienze come quella di Google che col suo servizio Books ha creato la più vasta biblioteca virtuale in grado non solo di permettere al lettore la visione di titoli appena immessi sul mercato editoriale, esattamente come accadrebbe in una tradizionale libreria, ma addirittura di distribuire anastatiche digitali gratuite di titoli non più disponibili sul mercato editoriale perché non più soggetti o mai stati soggetti, ai diritti d’autore. Un servizio del genere lede forse l’importanza delle biblioteche tradizionali e gli interessi dei librai antiquari, perché allontana i lettori dalla consultazione diretta dei libri e sconsiglia loro onerosi acquisti? Oppure favorisce la conservazione e la circolazione dei libri, e della conoscenza in loro riposta, anche per quelle persone che vanno controvoglia o, peggio, non vanno in biblioteca per risolvere un dubbio, o ancora non possono o, ancor peggio, non vogliono spendere per l’acquisto di un volume? Riteniamo che una risorsa del genere non solo non leda gli interessi di qualcuno, ma addirittura susciti nelle persone più curiose quegli interessi che, in meno tempo di quanto si immagini, andranno a favorire proprio le biblioteche tradizionali e i librai antiquari: la digitalizzazione, in questo senso, non escluderà mai la consultazione diretta o la compravendita di un testo, ma le stimolerà più velocemente in quelle persone che naturalmente, anche inconsciamente, vi sarebbero state predisposte. È con questo spirito di servizio che abbiamo pensato a un’applicazione che sfruttasse le potenzialità della rete intesa come una smisurata biblioteca ordinata per ordinarne un’altra, catalogarne i volumi, partendo dalle schede, naturalmente sempre perfettibili, messe a disposizione da Google e da altri fornitori di servizi, e gestire, sulla stessa piattaforma, il prestito e la restituzione dei volumi stessi. Tutto questo è reso più facile dall’introduzione, ormai universalmente accettata, del codice univoco internazionale di identificazione libraria (ISBN), per cui si raccomanda la buona voce correlata disponibile su Wikipedia all’indirizzo http://it.wikipedia.org/wiki/ISBN (10/7/2011). In questo contesto si inserisce la ricerca che ci ha visti impegnati nella progettazione e realizzazione di un sistema che consentisse di automatizzare una serie di operazioni e metodologie tipiche dell’attività bibliotecaria e della catalogazione e conservazione del patrimonio librario in genere. Per quanto riguarda le tecnologie implementative la nostra scelta non poteva che cadere su strumenti open source, come Google Android, PHP, MySQL o ZXing, proprio per l’intrinseca vocazione divulgativa del progetto in sé e per il pubblico al quale è diretto e dal quale intende trarre contributo - la comunità scientifica. I principali attori che compongono l’architettura realizzata (fig. 1) sono: un repository che ospita i dati relativi allo schedario informatizzato, un pool di servizi che forniscono informazioni sui libri, un servizio REST per il popolamento e l’interrogazione dello schedario informatizzato dei libri, una interfaccia user friendly, basata su dispositivi mobile Android, per l’inserimento e la ricerca delle informazioni. Come già accennato, il backend del sistema è costituito da un servizio REST (o RESTful da Representational State Transfer) basato sulle primitive del protocollo HTTP, che scambia dati con i client nel formato JSON (JavaScript Object Notation), ideale per i trasferimenti di dati sulla rete e supportato da un’ampia varietà di linguaggi (in primis JavaScript). Per l’implementazione del servizio sono state prese al vaglio sostanzialmente due ipotesi: implementare il servizio REST in Java su application server leggero e portabile (JETTY), realizzare il servizio in tecnologia PHP. Sebbene entrambe le alternative presentino pregi e difetti si è deciso, infine, di svolgere l’implementazione nel linguaggio PHP, principalmente per due motivi: la maggior diffusione su hosting commerciale di PHP rispetto a Java e la presenza di primitive del linguaggio per la lettura/generazione di contenuti JSON. Il servizio REST poggia su un database MySQL (tra i più diffusi per l’archiviazio220 ne di dati in ambito open source) ed è progettato per interfacciarsi a una serie di repository web (cfr. Google Books) dai quali ottiene le informazioni sulle schede catalografiche dei volumi. L’entry point al sistema è un’applicazione mobile basata su dispisitivi Android. La scelta è ricaduta sul sistema operativo di Google in quanto si tratta di una piattaforma open source che dispone di un’ampia comunità di sviluppatori, consente un buon grado di personalizzazione delle applicazioni e, non ultimo, volendo rilasciare sotto licenza libera il codice sorgente del nostro progetto l’uso di Android fornisce all’utente finale la possibilità di accedere liberamente non solo al nostro codice ma a quello dell’intera piattaforma sulla quale esso si basa. Abbiamo cercato di riservare un minimo di attenzione all’usabilità dell’applicazione e coscientemente abbiamo deciso di riprendere i motivi propri della grafica Android, rispettandone i canoni e le consuetudini, senza indulgere in eccessive personalizzazioni grafiche, per evitare di appesantire lo sforzo cognitivo dell’utente che si trovi a utilizzarla. La schermata principale dell’applicazione presenta all’utente bibliotecario le quattro funzionalità imprescindibili di una biblioteca pubblica, ovvero l’inserimento dei dati bibliografici, la ricerca bibliografica, la gestione del prestito e della restituzione dei volumi. La compilazione della scheda catalografica di ciascun volume parte, dunque, direttamente dal suo ISBN, che può essere inserito, a seconda delle esigenze e delle disponibilità del catalogatore, a mano o tramite OCR, ossia riconoscimento ottico, del codice a barre stampigliato sulla copertina del volume in oggetto. Effettuato il riconoscimento del volume a partire dal suo ISBN, l’applicazione 1. Diagramma a blocchi del sistema. 221 incrocia questo dato, tramite una chiamata al web service REST, con la scheda catalografica corrispondente presente su Google Books (è predisposto l’utilizzo anche di altri servizi), acquisendola in bell’ordine nella maschera di compilazione della scheda. Tutti i dati così acquisiti costituiranno l’ossatura vera e propria della scheda, su cui il catalogatore potrà intervenire in qualsiasi momento con le migliorie che riterrà opportune per descrivere esattamente il volume che ha davvero sott’occhio e renderlo quindi perfettamente rintracciabili per sé e per gli utenti della sua biblioteca. Ogni operazione di registrazione rimane naturalmente reversibile ed è compilata in previsione di qualsiasi altra operazione necessaria nella vita di una biblioteca, quali ad esempio lo scarico di volumi dismessi e destinati ad altre biblioteche o addirittura alienati, la segnalazione di furto, smarrimento o di successivo ritrovamento, l’eliminazione di schede erroneamente inserite. La banca-dati così compilata può essere indagata, secondo le più diverse opzioni di ricerca, che di fatto considerano qualsiasi dato catalografico disponibile, proprio attraverso un’interfaccia mobile che prevede un servizio di ricerca, molto snello ed intuitivo, quale intermediario tra la postazione locale e il web service remoto, su cui appunto si registrano via via le schede catalografiche. Una volta rintracciato il volume desiderato è poi possibile rilevarne l’esatta posizione fisica all’interno della biblioteca, rispetto all’ubicazione del dispositivo utilizzato in quel momento per effettuarne la ricerca, direttamente visualizzata sulla mappa topografica della biblioteca in questione, sfruttando la tecnologia GPS e la triangolazione 3G, disponibili come funzionalità di sistema nei dispositivi Android. A differenza di quando accade oggi nelle più progredite biblioteche del mondo, in cui ogni volume viene contraddistinto da un codice a barre progressivo, assegnato e applicato dal catalogatore, a mo’ di numero di richiamo, il nostro sistema assume lo stesso ISBN quale numero identificativo del volume per richiamarne la scheda nel momento del prestito o della restituzione. Le spese di gestione del materiale librario, per quanto riguardasse la confezione dei codici di richiamo, oggi assegnati indistintamente a qualsiasi volume, si ridurrebbero notevolmente perché diverrebbero necessarie soltanto per i volumi più antichi, necessariamente sprovvisti di ISBN. La sola lettura dell’ISBN, o comunque del codice di richiamo, per quei volumi che ne fossero sprovvisti per via dell’età, nonché del QRCode associato a ciascun lettore, impresso su ciascuna tessera personale, permetterà dunque al bibliotecario di disporre il prestito del volume in oggetto o di accoglierne la restituzione, in pochi passaggi. La presente fase di sviluppo della nostra applicazione lascia spazio a nuove interpretazioni delle potenzialità mobile open source. Si è pensato ad esempio di potenziare la localizzazione dei volumi, rendendola più immediatamente fruibile attraverso sistemi di realtà aumentata (AR), e di migliorare le operazioni di ricollocazione dei volumi, associando a ogni scaffale un QRCode da abbinare alla sua posizione GPS che permetta di identificare, secondo il topografico effettivo di ciascuna biblioteca, la posizione dei volumi in modo più tradizionale. Il progetto è rilasciato sotto licenza open source (GPL3) ed è liberamente accessibile all’indirizzo https://bitbucket.org/iosa/archidroide/overview. 222 Referenze iconografiche Autori: fig. 1. Luca Bianconi IOSA.it [email protected] Davide Debernardi Società Ligure di Storia Patria [email protected] Paolo Montalto Libero Ricercatore [email protected] http://www.xabaras.it http://www.iosa.it 223 Augusto Palombini r.finder: uno script per GRASSGIS finalizzato alla ricognizione intelligente Abstract This paper explains the purposes and the use of r.finder, a GRASS-GIS script created in order to perform selective surveys on targeted areas, on the basis of known data. r.finder outs a map containing all cells matching the same combination of thematic maps parameters of the non-null/non-zero cells in the input map. It may out as well statistical reports and graphs of the cell values distribution. The purpose is to check for the features of the cells where input map items are located, and to produce a map whose cells represent the increasing analogy with them according to the thematic maps parameters. The program distinguishes “qualitative” thematic maps (single values in presence are considered) and “quantitative” ones (the whole data range between min and max - or the standard deviation if flag - d is active - is considered). In addition, r.finder can out an editable text “rules” file containing informations on the parameter combination, to be used as well for further analysis also in different areas. Born in an archaeological perspective, the script is nevertheless a useful tool for every kind of study dealing with geographical data. At the moment, an experimental, but fully working, version of r.finder is available under the GPL, contacting the author. 1. Il progetto L’idea di r.finder nasce dalla constatazione della mancanza di strumenti che sintetizzino in un unico processo le fasi di un’operazione fondamentale nell’uso analitico dei sistemi informativi geografici: lo studio delle combinazioni di caratteristiche di specifiche aree per evidenziarne la natura più o meno significativa e utilizzare tale dato in un’ottica predittiva. Tale operazione è possibile, manualmente, su singoli tematismi, ma richiede passaggi multipli e complessi per essere applicata su diverse mappe tematiche, e questo sia in un approccio induttivo (risalire dalle mappe alla combinazione di ricorrenze che caratterizza le aree di interesse), sia in termini deduttivi (data la combinazione - evidenziata o ipotizzata - di caratteristiche, visualizzare le aree che la soddisfano in modo più o meno completo). In questo senso, pur nascendo in un’ottica archeologica, r.finder è uno script di utilità generalizzata nell’ambito dell’uso analitico dei GIS. Questa trattazione cercherà di chiarire scopi e funzionamento dello script. La prima parte (“Il progetto”) è pensata per spiegare l’uso del software e i suoi presupposti analitici, con un esempio apposito, a tutti i lettori; mentre la seconda (“Caratteristiche tecniche”) descrive nel dettaglio gli aspetti dell’interfaccia utente e alcuni vantaggi e limiti di funzionamento e, pur essendo fruibile da tutti, presenta riferimenti tecnici più apprezzabili per l’utente che conosca le basi di funzionamento di GRASS-GIS, cui si rimanda per una completa comprensione1. 1 Per un approccio all’uso di GRASS si veda NETELER-MITASOVA 2008. 225 1.1. Il punto di partenza Supponiamo di avere a che fare con un’area molto vasta su cui cerchiamo di localizzare la presenza di determinati elementi (siti archeologici, nel nostro caso). Alcune presenze sono già note, in quanto esito di ritrovamenti precedenti, e la nostra ricerca parte da una delle domande che sono alla base dell’indagine tramite sistemi informativi territoriali: esistono dei criteri che rendano conto della presenza dei nostri siti? Ci sono dei tematismi che possono spiegare tale presenza in virtù di valori specifici a essa associati? Se, ad esempio, ci accorgessimo che tutti i siti ricadono in un preciso intervallo di altitudine e/o di distanza dai corsi d’acqua e/o su specifiche tipologie geologiche, potremmo impostare una ricognizione mirata sulle parti di territorio con quelle stesse caratteristiche. Come fare per esplorare tutte queste possibilità, analizzare i valori di occorrenza delle presenze per ciascun tematismo, studiarne l’eventuale significatività ed evidenziare tutte le aree che presentano simili caratteristiche? r.finder è un modulo per il software GRASS-GIS che compie questa serie di analisi in una singola operazione e grazie a un’unica interfaccia. Diciamo anzitutto che nella maggior parte dei software GIS un’analisi del genere comporta più passaggi dovuti alla necessità di interagire con diversi tipi di dati: raster e vettoriali. In GRASS, la natura raster-based del software consente di rappresentare ogni tematismo in forma di raster e quindi di effettuare analisi complessive simultanee attraverso gli strumenti di algebra delle mappe. Questo approccio non intende prendere posizione nell’annosa discussione sui limiti e i vantaggi dei diversi approcci raster/vettoriale: come si vedrà oltre, lavorare sui raster comporta in questo caso maggiori potenzialità di analisi ma anche maggiori rischi se non si è consapevoli di cosa si sta facendo, in particolare in relazione alla risoluzione dei dati di partenza, ma le implicazioni più profonde delle due impostazioni esulano dagli scopi di questa trattazione2. È però fuori di dubbio che la possibilità di riduzione dei dati a una sola tipologia per la quale il software possiede potenti strumenti di calcolo, consente un’operazione di analisi simultanea altrimenti difficilmente realizzabile. 1.2. Il software r.finder è uno script che tramite un’interfaccia grafica consente all’utente di inserire la mappa relativa alle presenze di partenza (i siti, nel nostro caso) e un numero potenzialmente illimitato di mappe tematiche relative alla stessa area, per le quali si intende analizzare i valori associati alle presenze di siti nella mappa di input, tralasciando le celle caratterizzate dai valori rimanenti. r.finder evidenzia quindi tutte le celle dell’area in oggetto che presentano le stesse combinazioni di caratteristiche delle mappe tematiche in corrispondenza delle presenze nella mappa di input. Per fare ciò, distingue due categorie di tematismi: qualitativi (sono considerate solo le singole categorie), e quantitativi (è considerato l’intero intervallo di valori fra il minimo e il massimo). Inoltre, r.finder dispone di funzioni supplementari che consentono di ottenere report statistici e istogrammi sulla distribuzione dei valori, nonché file di “regole” con i criteri utilizzati per i filtri, in modo da poterli applicare ad altre aree, su tematismi analoghi. Nelle righe che seguono si tratterà un esempio puramente teorico, costruito per esemplificare le potenzialità del software. Supponiamo di avere a che fare con una serie di insediamenti situati nel contesto di 2 Si tratta di un dualismo di approccio ai dati che può avere implicazioni metodologiche profonde e che di fatto differenzia in modo significativo i diversi pacchetti software GIS. Per un’idea generale è tuttora valida la descrizione in JOHNSON 1996. 226 una valle fluviale (fig. 1). Abbiamo a disposizione per questo territorio il modello digitale del terreno (dem), quindi la mappa delle pendenze, quella della tipologia litostratigrafica e quella dell’idrografia. Attraverso GRASS è possibile riportare tutti i dati alla dimensione raster. Siamo così in condizione di realizzare anche una mappa di buffering che caratterizzi le celle del territorio per la loro distanza dai corsi d’acqua. Questi tematismi a disposizione si possono raggruppare in due grandi categorie: quantitativi e qualitativi. I secondi sono quelli per cui i valori delle celle rappresentano categorie non associate a una scala (le tipologie litostratigrafiche, ad esempio); mentre i primi, quantitativi, si riferiscono ai raster le cui celle rappresentano valori collocabili in una sequenza, sia essa continua o discreta (ad esempio, i valori di elevazione di un dem). Lo script tratta in modo diverso le due tipologie. Mentre, infatti, per i dati qualitativi si considerano valide solo le categorie che caratterizzano zone di presenza di siti, per quelli di tipo quantitativo si prendono in considerazione tutti i valori contenuti fra il minimo e massimo valore relativo ad aree con presenza di siti. In altre parole, con siti posti su celle caratterizzate in una delle mappe tematiche dai valori 2, 7, 34 e 101, se trattiamo tale mappa con la modalità relativa al tipo qualitativo saranno considerati validi solo quei valori, mentre se la indichiamo come di tipo quantitativo saranno considerati validi tutti i valori compresi fra 2 e 101. Questa operazione viene compiuta per tutte le mappe tematiche, e per ciascuna viene prodotta una mappa dei valori validi. La somma complessiva (overlay) di queste mappe costituisce l’output finale del lavoro e rappresenta il livello di corrispondenza crescente delle diverse aree con le caratteristiche di quelle con presenza di siti. L’uso dell’intero intervallo di valori per le mappe quantitative ha però l’handicap di tenere conto anche di possibili casi marginali rispetto alla distribuzione, uniformando 1. Collocazione di una serie di siti utilizzati come esempio in una valle fluviale. Le linee bianche continue rappresentano le diverse zone litostratigrafiche. 227 eccessivamente i risultati. Nel nostro caso, utilizzando come dato qualitativo la litostratigrafia e come dati quantitativi il dem, la pendenza e la distanza dai corsi d’acqua, avremo come risultato le mappe visibili nelle figg. 3 e 4, rispettivamente utilizzando l’intervallo completo oppure la deviazione standard. Nel secondo caso, evitando gli elementi marginali della distribuzione, il risultato appare molto più variegato e interessante ai fini di una ricognizione mirata3. 2. Caratteristiche tecniche 2.1. Interfaccia grafica e funzioni flag Vediamo ora come è strutturata l’interfaccia di r.finder (fig. 4). La classica finestra di dialogo di GRASS è concepita nel nostro caso in modo da distinguere una prima scheda di informazioni legate alle funzioni di base (basic), comprendente la mappa di input, il nome di quella di output (che conterrà i risultati dell’analisi), nonché le mappe tematiche qualitative e quantitative che vogliamo studiare. Un utilizzo basilare del modulo non necessita di altre informazioni e può tranquillamente fermarsi qui. La successiva scheda advanced contiene invece tutte le opzioni legate a un uso avanzato, con i check-box relativi ai flag delle funzioni supplementari, cioè: -s Crea e salva (all’interno di una directory col nome della mappa di output, nella home dell’utente) una serie di report statistici e istogrammi relativi alla distribuzione delle presenze nelle diverse mappe tematiche. Una funzione utile per valutare l’effettiva significatività della distribuzione. -k Mantiene le impostazioni correnti sulla regione oggetto dell’analisi (se non attivato, la regione su cui si compie l’analisi è automaticamente impostata sulle dimensioni della mappa di input) -d Utilizza la deviazione standard anziché il semplice intervallo min-max per le mappe di tipo quantitativo. -o Funzione standard dei moduli GRASS-GIS, consente la sovrascrittura di file di output con lo stesso nome. -r Crea e salva (all’interno di una directory col nome della mappa di output, nella home dell’utente) un file di regole (con estensione .rul), in testo editabile, contenente le caratteristiche analizzate dei valori di presenza nelle diverse mappe tematiche. Consente l’utilizzo dei medesimi criteri in altre aree (con mappe omonime, naturalmente), o comunque il salvataggio e l’editing dei parametri utilizzati. -t Crea e salva (all’interno di una directory col nome “Template”, nella home dell’utente) un modello generico per la costituzione di un file di regole, in testo editabile. Un campo di testo, consente poi di indicare un file di regole creato con la funzione -r (e/o editato a mano) per eseguire l’analisi. In questo caso il sistema utilizzerà le informazioni sui valori contenute nel file e ignorerà - dandone avviso - i dati inseriti nella finestra di base. 3 È forse superfluo ma importante sottolineare come la scelta dei tematismi operata per questa esposizione sia puramente esemplificativa. In luogo di parametri meramente ecologici si sarebbero potuti utilizzare tutti i tipi di dati immaginabili (culturali, etnici, glottologici, etc.) purché formalizzati in termini geografici. 228 2. Risultato della analisi utilizzando l’intero intervallo di valori per i dati quantitativi: le progressive gradazioni di grigio indicano la maggiore (toni più chiari) o minore (toni più scuri) corrispondenza delle diverse aree ai valori delle celle con presenza di siti nella mappa di input. 3. Risultato della analisi utilizzando l’intervallo della deviazione standard: le progressive gradazioni di grigio indicano la maggiore (toni più chiari) o minore (toni più scuri) corrispondenza delle diverse aree ai valori delle celle con presenza di siti nella mappa di input. Rispetto alla mappa precedente appare di interesse l’uso della deviazione standard come filtro, anziché del mero intervallo quantitativo, creando una mappa più articolata. 229 4. Aspetto della interfaccia utente di r.finder. È, inoltre, presente un campo che consente di inserire una stringa di commento a piacere nell’eventuale file di regole creato con -r, nonché, infine, i classici comandi —verbose e —quiet relativi alla modalità dell’output di testo della shell, visibile nell’ultima finestra Uscita. 2.2. Note problematiche e teoriche: il concetto di risoluzione Si sottolinea che r.finder funziona solo su GRASS-GIS nelle vers. 6.4 e successive ed esclusivamente in ambiente Linux, in quanto legato a funzionalità di shell. Per quanto riguarda l’operabilità raster-based, come si è detto, essa presenta rilevanti vantaggi: oltre a quelli del ricondurre tutti gli elementi dell’analisi a un’unica tipologia di dato per cui si dispone di potenti strumenti di calcolo, vi è infatti la possibilità della logica raster di rendere conto delle occorrenze in termini di dimensione e forma, cioè di numero e articolazione di singole celle, ciascuna delle quali può essere oggetto di calcolo specifico (a differenza della rappresentazione vettoriale, che nella peggiore delle ipotesi rappresenta gli elementi come singoli punti, e, anche laddove li identifica con poligoni, essi costituiscono comunque una singola realtà non articolabile in aggregazione di celle con valori diversi). Questi aspetti vantaggiosi presentano parallelamente un rischio, e cioè quello con230 nesso con il concetto di risoluzione: nel momento in cui otteniamo dei file raster relativi ad aree di presenza/assenza di elementi di interesse, sia che ciò avvenga a partire da rilievi diretti, da altri dati raster o da trasformazione in raster di elementi vettoriali, la risoluzione delle celle di questi raster dovrà in qualche modo essere rapportabile a quella delle mappe tematiche su cui si effettua l’analisi. Un’eccessiva sperequazione della risoluzione può infatti rendere del tutto vana l’analisi o falsare pericolosamente. Infine, si segnala un baco relativo all’attuale versione di r.finder, cui non si è riusciti a ovviare. I filtri quantitativi funzionano con mappe con un massimo di 2 cifre decimali (ad esempio 323456.08). 3. Stato dell’arte e prospettive Allo stato attuale, r.finder è da considerarsi in fase di sperimentazione, benché il primo debug sia stato ultimato e, al di là delle questioni evidenziate, non risultino ulteriori problemi. Alcuni gruppi di ricerca hanno manifestato la volontà di utilizzarlo per survey su ampie superfici e nel corso dei prossimi mesi tali studi saranno ultimati e pubblicati. Al momento r.finder è distribuito sotto GPL e reperibile da chiunque lo desideri contattando l’autore, nell’ottica di un sistematico monitoraggio delle dinamiche e delle problematiche che emergeranno nel corso dei lavori di ricerca. 231 Referenze iconografiche Autore: figg. 1-4. Augusto Palombini CNR - Istituto per le Tecnologie Applicate ai Beni Culturali. [email protected] 232 Francesco Carrer Fabio Cavulli Distanze euclidee e superfici di costo in ambiente montano: applicazione di Grass e R a diversa scala in ambito trentino Abstract The first archaeological spatial analyses were bidimensional and they didn’t take into account the environmental and morphological characteristics that might influence the length of paths or the spatial relationships between features. This approach is particularly misleading in a mountain environment where the difference in altitude between two points in the landscape is more constrictive than the “air distance”. Though the current technological means allow us to deal with these methodological issues, there are still a lot of studies that calculate the distance between two features as the simple minimum distance between two points. In this paper two archaeological case studies from Trentino province are proposed, in order to verify if the linear distances are so misleading in an Alpine environment, as previously suggested. The first one is a medium-scale case study (the whole Trentino), where the linear distances from locations have been compared with the least cost paths. The second one is a big-scale case study (Val di Fiemme), where the linear distances and the morphology-calibrated distances between upland pastoral sites (malghe) and upland lakes have been statistically evaluated. These two examples have confirmed that, in a mountain environment (and at regional scale), the interpretation of movements and spatial relationships in an “euclidean” framework is fundamentally incorrect. Therefore, they suggest that the cost-surface estimation of a sample area is an unavoidable step for the interpretation of mobility and settlement strategies in the Alps. 1. Inquadramento generale L’archeologia spaziale nasce bidimensionale. La consapevolezza che la relazione tra un sito e una o più risorse territoriali, o tra lo stesso sito e altri siti circostanti, siano fattori importanti per comprendere la funzione del sito stesso, sorgono inizialmente dall’osservazione di semplici carte tematiche e di distribuzione. Alcune tra le primissime analisi spaziali quantitative applicate in archeologia, come i poligoni di Thiessen1 o la site catchment analysis2 erano rappresentate da geometrie create in modo piuttosto intuitivo che racchiudevano idealmente territori equivalenti in un sistema bidimensionale. Vi era, però, già la consapevolezza di come tali metodologie fossero delle astrazioni che non tenevano conto delle peculiarità della morfologia, dell’idrografia e dell’ecosistema locale. Si tentò, quindi, di impostare delle analisi basate sulla spesa energetica, che potessero rendere effettivamente più realistica e meno arbitraria la rappresentazione del territorio3. L’evoluzione tecnica dei software e degli hardware favorì questo processo di miglioramento della qualità degli studi spaziali, cosicché oggi ogni utente ha la possibilità di gestire una mole di dati spaziali o tematici incommensurabile rispetto al passato e questo va a vantaggio della 1 CLARKE 1968; CUNLIFFE 1971. VITA FINZI-HIGGS 1970; HIGGS-VITA FINZI 1972. 3 FOLEY 1977; GAFFNEY-STANCIC 1991. 2 233 qualità dell’analisi, favorendo un maggior dettaglio e una maggiore precisione. Nonostante ciò, in molti studi di archeologia e di discipline a essa afferenti, le relazioni spaziali sono ancora valutate su base bidimensionale. La distanza tra i siti è vista ancora come semplicistica distanza lineare (in linea d’aria, a volo d’uccello), mentre la raggiungibilità o disponibilità di una risorsa è concepita come la semplice lontananza di questa da un certo luogo. Infatti, se cerchiamo di applicare alla nostra esperienza l’assunto “minor distanza = minor fatica”, in molti casi dobbiamo subito ricrederci. In primo luogo, il percorso tra due siti può essere condizionato da passaggi obbligati, come vette, passi, selle o gole che dirigono la percorribilità facendole perdere le sue caratteristiche di astratta linearità. In secondo luogo, se una risorsa è presente in quota (versante, cresta, vetta o altipiano), il dislivello e non la distanza (né tantomeno la distanza euclidea) sarà il dato determinante per comprenderne l’accessibilità dalle aree limitrofe. Il territorio montano più di qualunque altro costituisce quindi un ambiente particolare, dove le caratteristiche morfologiche condizionano da sempre la mobilità delle comunità che lo abitano e lo percorrono. Se in pianura, infatti, le costrizioni (dall’idrografia alle caratteristiche del suolo) sono meno determinanti, in montagna la morfologia svolge un ruolo imprescindibile nelle strategie di movimento. Queste considerazioni sulla differenza tra pianura e montagna possono essere lette come una estremizzazione del ragionamento per comprendere l’importanza delle costrizioni naturali nell’analisi spaziale, non solo al fine di rendere quest’ultima più precisa ma soprattutto per evitare degli artefatti teorici e la generazione di informazioni imprecise se non addirittura erronee e fuorvianti. I casi studio che saranno presentati di seguito ci dimostreranno, infatti, attraverso la comparazione tra analisi spaziali bidimensionali e altre che prendono in considerazione le caratteristiche morfologiche, come non sia possibile interpretare le dinamiche territoriali in montagna senza considerarne la morfologia. 2. I casi studio 2.1. Piccola-media scala: BIOSTRE Il progetto “Biodiversità e Storia delle Popolazioni del Trentino” (BioSTre; http://laboratoriobagolini.it/ricerca/progetti/biostre/), condotto dalla dott.ssa Valentina Coia e finanziato dalla Provincia Autonoma di Trento, è il primo studio genetico capillare delle popolazioni della Provincia di Trento. Attraverso l’integrazione dei dati genetici con quelli archeologici, linguistici e storici, contribuisce alla comprensione della storia del Trentino e della relazione tra la biodiversità umana e i fattori geografici e culturali della provincia. La ricerca ha analizzato la variabilità genetica delle popolazioni attuali di differente cultura e provenienza geografica, a livello di diversi marcatori genetici (DNA mitocondriale, cromosoma Y e autosomici). Il progetto ha studiato, inoltre, la variabilità genetica umana antica attraverso l’analisi del DNA antico di resti scheletrici umani riferibili al Neolitico medio. L’obiettivo che lo studio si proponeva era, da una parte, definire le relazioni genetiche tra popolazioni di diversa cultura, lingua e provenienza geografica, dall’altra contribuire alla ricostruzione dei processi di popolamento del Trentino, attraverso il confronto tra le caratteristiche genetiche attuali e quelle del DNA antico4. 2.1.1. Le distanze negli studi di genetica Ancora oggi negli studi di genetica lo spazio viene immaginato come una tavola 4 234 COIA et alii c.s. piatta su cui vengono calcolate le distanze euclidee (air distance); tra le località di campionamento5. Secondo alcuni autori, facendo esplicito riferimento all’Europa, queste si avvicinerebbero alle distanze calcolate su percorsi reali (road distance)6. Altri preferiscono, invece, pensare alla terra approssimata a una sfera e calcolano nella distanza anche la curvatura del solido (great circle distance)7, un metodo più accurato ma che non tiene in considerazione le barriere geografiche né quelle culturali. La correlazione tra le matrici delle distanze genetiche e quelle geografiche viene di norma testata statisticamente attraverso il test di Mantel8. Gli studi più recenti verificano la significatività attraverso l’autocorrelazione spaziale o metodi di regressione, ma anche in questo caso la morfologia non è contemplata9. Alcuni lavori possono essere più interessanti perché mettono a confronto le distanze genetiche con le vie commerciali ovvero con percorsi diversi da quelli rettilinei10. Negli studi sopra citati si può forse giustificare la scarsa considerazione per la conformazione morfologica del territorio con la scala continentale o addirittura mondiale degli studi, dove le variabili geografiche, culturali e temporali sono talmente varie e così poco controllabili che diventa pressoché impossibile tenerne conto. Nonostante ciò Handley e colleghi evidenziano la ricaduta che un approccio geografico può avere negli studi di genetica, anche su quelli svolti a piccola scala11. Il caso citato rimane comunque pressoché isolato. Il progetto BIOSTRE, riferendosi a una regione limitata, non poteva limitarsi a usare distanze euclidee perché, come dimostrato più avanti, troppo approssimative. A media scala, l’accessibilità dei luoghi non è data dalla sola lontananza ma da fattori che tengono conto perlomeno del percorso scelto e del dislivello; altri elementi sono meno controllabili e meno costanti nel tempo, come le vie e i mezzi di trasporto, la copertura forestale, il terreno. A tal fine è stato calcolato il dispendio di energia da parte di ogni popolazione residente nel punto di campionamento per raggiungere il resto del territorio. Il risultato è una serie di superfici di accessibilità: ovvero una mappa raster a valori continui. 2.1.2. La costruzione delle superfici cumulative di costo e la creazione di percorsi di minimo costo tra le località di campionamento Lo scopo di questo lavoro è quello di individuare un parametro efficace per calcolare le distanze geografiche tra le diverse località di campionamento. In una regione caratterizzata da rilievi accentuati come il Trentino (fig. 1), infatti, non è sufficiente il calcolo delle interdistanze euclidee. La ricerca si è quindi indirizzata verso il riconoscimento di possibili percorsi sul territorio liberi dalle possibilità e dalle limitazioni legate ai mezzi di locomozione recenti e alle infrastrutture moderne (strade, ponti, gallerie, viadotti, ecc.) ma che contemplassero i tragitti a piedi più “comodi” (fig. 2). La realizzazione dei percorsi si è quindi basata sulla morfologia del terreno: si sono privilegiati gli itinerari più facilmente percorribili da un punto di vista del dispendio energetico del viaggiatore (minimum cost), a discapito di quelli che collegano le diverse località tramite la distanza minore (minimum distance)12. Le località sono state scelte come “località media di campionamento”, ovvero il 5 CAVALLI SFORZA et alii 1994; SEMINO et alii 2000; MCDONALD 2004. 6 CRUMPACKER et alii 1976; SIMONI et alii 2000. BARBUJANI et alii 1995; RAMACHANDRAN et alii 2005. 8 MANTEL 1967. 9 MANNI et alii 2004. 10 GIULIANO et alii 2006. 11 HANDLEY et alii 2007. 12 NETLER-MITASOVA 2005, 167. 7 235 1. Modello del terreno della Provincia Autonoma di Trento. L'area delimitata corrisponde alla Val di Fiemme. 2. Distanze lineari e percorsi di minimo costo tra le località centrali dei campionamenti del progetto BIOSTRE. 236 luogo centrale per ogni area di campionamento effettiva, che ha visto invece un prelievo molto più capillare ed eseguito su individui provenienti anche dai dintorni della località centrale (ma sempre dalla stessa valle). I passaggi tecnici di realizzazione nel sistema GRASS GIS hanno visto la creazione di una superficie di costo cumulativa per ogni luogo centrale di campionamento grazie all’algoritmo r.walk (http://grass.fbk.eu/grass62/manuals/html62_user/r.walk.html). L’algoritmo modella il costo di spostamento da una cella di origine verso le altre attraverso una funzione cumulativa di diffusione: si tratta quindi di una superficie raster che restituisce un valore cumulativo di “difficoltà di raggiungimento” di ogni pixel della mappa, data una o più origini note: più ci si allontana dal punto e più è alto il valore attribuito. È di fondamentale importanza considerare la morfologia come parametro di frizione, oltre alla distanza: più il versante è scosceso, maggiore è il costo nel percorrerlo. Il tragitto dovrebbe considerare anche il verso di percorrenza. Salire o scendere un versante non ha lo stesso costo. Non conoscendo nel nostro caso la direzione del percorso, abbiamo considerato queste superfici come isotropiche13. La mappa di inclinazione dei versanti (slope map), creata sulla base del DTM con risoluzione a 40m della Provincia Autonoma di Trento, è stata assunta come parametro di frizione (friction). Sulla base di questa cartografia si sono creati i possibili percorsi di minimo costo che congiungono tutte le località considerate per mezzo dell’algoritmo r.drain (http://grass.fbk.eu/grass62/manuals/html62_user/r.drain.html)14. La mappa è stata creata e salvata in formato raster, quindi è stato necessario trasformare in vettoriale i vari segmenti di tragitto per poter unire gli itinerari e calcolarne poi la loro lunghezza in km. Infine è stata creata una matrice delle distanze dei percorsi. 2.1.3. Distanze euclidee VS percorsi Se mettiamo a confronto le distanze lineari con i percorsi, le differenze risultano minime tra località vicine o comunicanti attraverso una valle rettilinea (ad es. Pejo Mezzana o Pozza - Fiera di Primiero) e, com’è logico aspettarsi, emergono significative discrepanze quando il percorso si snoda tra valli tortuose (ad es. Pejo - Fiera di Primiero, Mezzana - Fiera di Primiero o Mezzana - Pozza). I trenta collegamenti considerano un solo percorso tra andata e ritorno e differiscono per un totale di quasi 864 km con i percorsi lineari; la differenza massima si registra tra Pejo e Fiera di Primiero; quella minima tra Pejo e Mezzana; la differenza media è di quasi 29 km. Questi valori sono da riferire a una superficie pari a 6.212 km2. L’estrema variabilità nelle misurazioni non permette di valutare con facilità quanto la differenza tra i due tipi di percorso sia significativa. Per questo è necessaria una verifica statistica dei valori attraverso il test del Chi quadro15. Il risultato del test è χ2=37543.70. Per 65 gradi di libertà, proporzionali all’ampiezza del set di dati considerati, esso corrisponde a un valore di probabilità inferiore a 2.2e-16 e quindi prossimo a 0. Avendo come ipotesi di partenza (H0, ipotesi nulla) che le lunghezze dei percorsi e delle distanze lineari non siano molto diverse tra loro (ovvero che appartengano alla medesima popolazione statistica), il risultato del test attesta che c’è pressoché lo 0% di possibilità che tale ipotesi sia vera. Si può quindi rigettare l’ipotesi nulla ed essere certi che la lunghezza dei percorsi è significativamente diversa dalla lunghezza delle distanze lineari. L’analisi statistica dimostra che i collegamenti tra due o più località in area montana non corrispondono alle distanze euclidee tra tali località e che quindi, per valutarne realisticamente la vicinanza o lontananza, è sempre necessario considerare i percorsi di minimo costo. 13 CONOLLY-LAKE 2006, 214. NETLER-MITASOVA 2005, 122. 15 SHENNAN 1997, 104-115. 14 237 2.2. Grande scala Nella valutazione problematica della questione, si è inoltre ritenuto utile prendere in considerazione anche un caso studio a scala maggiore del precedente. Il fine era valutare la rispondenza delle variabilità notate in precedenza anche in un territorio più limitato, corrispondente a una comunità di valle di qualche centinaio di chilometri quadrati. L’area selezionata a questo fine è quella della Val di Fiemme. 2.2.1. Etnoarcheologia dei pastori della Val di Fiemme Questo secondo caso studio prende le mosse dalla ricerca di uno dei due autori, che consiste nello studio delle strategie insediative stagionali dei pastori attuali in alta quota, 238 al fine di creare un modello locazionale per l’individuazione di siti archeologici pastorali16. L’area campione selezionata per questi studi è la Val di Fiemme (fig. 1), posta nel Trentino orientale, al confine col Veneto (a E) e con l’Alto Adige/Südtirol (a N)17. La prima parte delle analisi spaziali svolte per comprendere i criteri di locazione dei siti pastorali moderni (malghe o casere) è consistita nella creazione di alcuni supporti raster funzionali alla valutazione della relazione tra variabili ambientali e tendenze insediative. Tra gli attrattori locazionali selezionati vi erano anche i laghi alpini, elemento fondamentale del paesaggio d’alta quota della Val di Fiemme, nonché importante fonte idrica per uomini e animali. Quello che si è voluto verificare è se le malghe fossero disposte o meno in maniera casuale rispetto ai laghi alpini, ovvero se i laghi alpini fossero stati o meno un fattore importante nelle scelte insediative dei pastori. Nel farlo si è quindi tentata la sperimentazione metodologica dalla quale ha preso le mosse la presente ricerca. 2.2.2. Distanze dai laghi e validazione statistica Dopo aver convertito il file vettoriale dei laghi (creato dall’ufficio cartografico della Provincia Autonoma di Trento) in file raster (con il comando v.to.rast di Grass)18 è stata creata una mappa raster di distanze lineari dai laghi (r.grow.distance). A partire dal modello digitale del terreno (DTM) è stata invece estrapolata la pendenza dei versanti (r.slope.aspect)19, successivamente utilizzata come superficie di frizione per l’elaborazione di una mappa che riportasse il costo del movimento a partire dai laghi (r.cost)20. Si sono quindi interrogati i due raster in relazione alla posizione delle malghe e i dati sono stati importati in una colonna della tabella del file vettoriale delle malghe stesse (v.what.rast)21. Una volta svolti tali processi preliminari, i file raster di “distanza” e di “superficie di costo” e quello vettoriale delle malghe sono stati importati in R utilizzando la libreria spgrass6 che consente l’importazione di file di Grass e la conseguente interoperabilità dei due software. Si è quindi valutato il modo migliore per verificare la casualità o meno della posizione delle malghe rispetto ai laghi alpini. Uno dei modi più efficaci è quello di confrontare le distribuzioni cumulative delle malghe e di un uguale campione di punti casuali (generati in Grass con r.random, utilizzati per interrogare i due raster e successivamente importati in R), utilizzando il test statistico non parametrico di Kolmogorov-Smirnov22, ks.test nel linguaggio di R. Esso restituisce un valore “p” che corrisponde alla probabilità che le due distribuzioni cumulative (malghe e punti casuali in questo caso) siano tratte dalla stessa popolazione statistica, ossia che le malghe siano distribuite casualmente rispetto ai laghi. Un buon valore probabilistico, generalmente, corrisponde a un “p” inferiore a 0.05, ovvero meno del 5% di probabilità che le due distribuzioni coincidano. Una volta valutata statisticamente la distanza lineare dai laghi e quella invece calibrata sulla morfologia, notiamo incredibilmente due risultati opposti. Nel caso della distanza euclidea abbiamo un valore p=0.04034, ovvero appena inferiore al succitato 5%; nel caso della superficie di costo abbiamo un valore p=0.3544, ovvero superiore al 35%! Nel primo caso possiamo rigettare l’ipotesi nulla (che i due campioni provengano dalla stessa popolazione), nel secondo no. Questo risultato ci indica quanto sia fuorviante una valutazione lega16 CARRER 2012; CARRER c.s. La presente ricerca è parte integrante del progetto di Dottorato di Ricerca di Francesco Carrer, presso l’Università degli Studi di Trento, all’interno del Progetto APSAT (Provincia autonoma di Trento - Bando “Grandi progetti 2006”. Delibera G.P. 2790/2006). 18 NETLER-MITASOVA 2005, 147. 19 NETLER-MITASOVA 2005, 226. 20 NETLER-MITASOVA 2005, 121-123. 21 NETLER - MITASOVA 2005, 142. 22 FLETCHER-LOCK 1991, 100-102; CONOLLY-LAKE 2006, 130-133. 17 239 ta alla semplice distanza lineare, la quale avrebbe portato a determinare, come elemento fondamentale per i criteri locazionali dei pastori, una variabile (i laghi) che in realtà non ha nessun potere attrattivo per gli insediamenti pastorali d’alta quota. Ancor più evidenti sono tali considerazioni se applichiamo un altro tipo di test statistico, il test di Monte Carlo (mc.test)23, che simula automaticamente un numero prestabilito di distribuzioni di campioni casuali, rendendo il raffronto tra le due distribuzioni cumulative ancor più verosimile. Tale applicazione, in R, è implementabile grazie alla libreria spatstat. Effettivamente questo test dà un risultato nettissimo, con la probabilità che le nostre malghe siano distribuite casualmente rispetto ai laghi dello 0% per la distanza euclidea (α<0.00000001) e del 100% per la superficie di costo (α=1). Ciò significa che una relazione statistica malghelaghi, evidente per la distanza lineare, diventa assolutamente inesistente per la superficie di costo. 2.2.3. La distanza non è l’accessibilità La problematica emersa nella valutazione statistica fatta in precedenza, ci porta a dover riconsiderare la morfologia come elemento che influenza in maniera fondamentale l’accessibilità in area montana. In effetti, chiunque abbia una minima esperienza di alta montagna, sa che la distanza in sé ha un’importanza molto inferiore rispetto, ad esempio, all’inclinazione dei versanti. Cercando, nello specifico, di interpretare la difformità evidenziata per quanto riguarda la distanza delle malghe dai laghi, notiamo che essa dipende dalla peculiare posizione degli stessi laghi alpini. Essi, infatti, sono posizionati, spesso, all’interno di profondi circhi glaciali, per cui la loro accessibilità dall’esterno è condizionata negativamente dalle alte pareti rocciose che racchiudono tali circhi. Di conseguenza, pur essendo i laghi alpini a breve distanza (lineare) dalle malghe (fig. 3), sono in realtà difficilmente accessibili a partire dalle malghe stesse, perché per raggiungerli è necessario superare le succitate pareti rocciose (fig. 4). Una valutazione della variabile “distanza dai laghi” che non tenesse conto di queste peculiarità morfologiche non solo ci darebbe una comprensione parziale delle caratteristiche della distanza in zone montuose, ma ancor più ci darebbe un risultato falsato a livello di correlazione tra variabili, come abbiamo potuto appurare. Dal punto di vista metodologico, invece, questa comparazione ci è servita soprattutto per verificare la grande differenza esistente tra il semplicistico concetto di distanza e il più problematico concetto di accessibilità nelle zone d’alta quota. 2.3. Conclusioni: la distanza non è il percorso I casi esposti evidenziano come, nell’analisi spaziale, considerare distanze euclidee o superfici di costo influenzi in modo consistente l’interpretazione archeologica. Lo studio del territorio e dei suoi aspetti caratteristici (quali l’idrografia, la morfologia, le risorse) è un passaggio imprescindibile per la comprensione della frequentazione umana. In ambiente montano l’accentuata variabilità di quota e quindi la significativa pendenza dei versanti, più di tutti condizionano le modalità di popolamento e di mobilità. La morfologia del territorio è determinante a fini analitici, come dimostrato dagli spostamenti in montagna, nei quali l’altitudine è più rilevante delle distanze orizzontali. Ne consegue che, a grande-media scala e in ambienti particolarmente costrittivi, le distanze e l’accessibilità delle risorse devono essere considerate in relazione alle caratteristiche del territorio, quindi in termini di superfici di costo e non come astratte distanze lineari. Se in uno spazio bidimensionale due o più entità (siti-torrenti, siti-laghi, siti-sor- 23 240 SHENNAN 1997, 64. 3. Particolare di ortofoto (It2006, color) della Val di Fiemme in cui si riconosce il lago delle Stellune e a E la malga Stellune. Questa immagine evidenzia l’apparente vicinanza tra questi due elementi esemplificativi delle alte quote. 4. Fotografia del lago delle Stellune. Sullo sfondo si intravede la malga Stellune. Dal profilo sottostante si nota perfettamente che lago e malga sono linearmente vicini ma che il lago stesso è difficilmente accessibile dalla malga a causa della brusca variazione altitudinale. 241 genti) possono apparentemente avere una relazione significativa perché prossime, in termini di raggiungibilità (ovvero di costo) possono risultare lontane o quasi irraggiungibili. Le distanze euclidee sono quindi solo misure teoriche che nulla hanno a che fare con il mondo reale, con la percorribilità del territorio e quindi con la raggiungibilità delle risorse. Nemmeno una pianura perfettamente piatta può essere considerata una superficie isotropica: fiumi, laghi, paludi, vegetazione costituiscono un condizionamento altrettanto importante quanto la morfologia nel caso montano. Solo lavorando a piccola scala queste costrizioni perdono di rilevanza e la conformazione dei continenti diventa il fattore che più di ogni altro determina i tragitti reali. Anche se i percorsi creati sulla base della morfologia si avvicinano più delle distanze lineari alla realtà, Bateson ci ricorda che: «La mappa non è il territorio»24. Infatti, tali percorsi, anche quando considerano più variabili ambientali, costituiscono pur sempre dei modelli teorici. Il percorso reale scelto dai gruppi umani del passato è stato determinato da fattori complessi, quali minimo costo, distanza minima, punti obbligati, risorse e scelte culturali non sempre apprezzabili archeologicamente. Gli esempi presi in considerazione hanno messo in luce, a scale di analisi differenti, quanto le distanze lineari siano uno strumento del tutto insufficiente, se non fuorviante, per lo studio spaziale di un fenomeno molto complesso quale le dinamiche di popolamento umano. Il caso delle località di campionamento del DNA mitocondriale, sorto all’interno del progetto BIOSTRE dal confronto tra prossimità geografica e distanze genetiche delle popolazioni, ha messo in evidenza la necessità di considerare i percorsi di minimo costo piuttosto che le distanze lineari. Il secondo caso-studio, riguardante i siti pastorali della Val di Fiemme, ha dimostrato che la prossimità tra siti e laghi alpini, apprezzabile sulla superficie bidimensionale, rappresenta una correlazione solo apparente, del tutto irreale quando si considera un modello tridimensionale del territorio (DEM). Gli strumenti utilizzati per i calcoli descritti sono GRASS (grass.fbk.eu), un software GIS, e R (www.r-project.org), un programma per la statistica standard e spaziale. Questi due sistemi versatili e potenti per analisi avanzate hanno un punto di forza nella loro perfetta integrabilità: file raster, come superfici e analisi spaziali (DEM, superfici di costo, valori di frizione, ecc.), e file vettoriali (come siti, idrografia, ecc.) realizzati in ambiente GRASS possono essere successivamente analizzati statisticamente da R sottoforma di matrici o tabelle. L’analisi segue quindi un unico processo che semplifica le comuni procedure di importazione ed esportazione. Entrambi i software sono liberi e open source (FOSS), quindi disponibili e implementabili liberamente. Sono strumenti di ricerca che consentono la verifica degli algoritmi utilizzati, il controllo della procedura e quindi dei risultati nel dettaglio. Aspetto questo non trascurabile perché garantisce la costruzione di solidi protocolli di analisi e la loro replicabilità. 24 242 BATESON 1979. Abbreviazioni bibliografiche Forts, M. Jesson, D. Hill (edd.), Southampton 1971, 53-70. BARBUJANI et alii 1995 G. Barbujani - G. Bertorelle - G. Capitani - R. Scozzari, Geographical structuring in the mtDNA of Italians, in Proceedings of the National Academy of Science of United States of America, 92, 1995, 91719175. FLETCHER-LOCK 1991 M. Fletcher - G. R. Lock, Digging Numbers. Elementary Statistics for Archaeologists, Oxford 1991. BATESON 1979 G. Bateson, Mind and Nature. A Necessary Unity, New York 1979. CARRER 2012 F. Carrer, Upland sites and pastoral landscapes. New perspectives into the archaeology of pastoralism in the Alps, in Apsat 1. Teoria e Metodi della Ricerca sui Paesaggi d’Altura, G. P. Brogiolo, D.E. Angelucci, A. Colecchia, F. Remondino (edd.), Mantova 2012, 101116. CARRER c.s. F. Carrer, Pastoralism needs GRASS. A GIS approach to the Ethnoarchaeology of Pastoralism in the Alps, in Proceedings of the 5th Italian Conference on Ethnoarchaeology, Rome 2010, c.s. CAVALLI SFORZA et alii 1994 L. L. Cavalli Sforza - P. Menozzi - A. Piazza, The History and Geography of Human Genes, Princeton 1994. CLARKE 1968 D. L. Clarke, Analytical Archaeology, London 1968. COIA et alii c.s. V. Coia - I. Boschi - F. Trombetta - F. Cavulli - F. Montinaro - G. Destro-Bisol - S. Grimaldi - A. Pedrotti, Evidence of high genetic variation among linguistically diverse populations on a micro-geographic scale: a case study of the Italian Alps, Journal of Human Genetics, 2011, c.s. CONOLLY-LAKE 2006 J. Conolly - M. Lake, Geographical Information Systems in Archaeology, Cambridge 2006. CRUMPACKER et alii 1976 D. W. Crumpacker - G. Zei - A. Moroni - L. L. Cavalli Sforza, Air distance versus road distance as a geographical measure for studies on human population structure, in Geographical Analysis, 8, 1976, 215223. CUNLIFFE 1971 B. W. Cunliffe, Some aspects of hill-forts and their cultural environments, in The Iron Age and its Hill- FOLEY 1977 R. Foley, Space and Energy: A Method for Analysing Habitat Value and Utilization in Relation to Archaeological Sites, in Spatial Archaeology, D. L. Clarke (ed.), London 1977, 163-187. GAFFNEY-STANCIC 1991 V. Gaffney - Z. Stancic, GIS approaches to regional analysis: a case study of the island of Hvar, Ljubljana 1991. GIULIANO et alii 2006 P. Giuliano - A. Spilimbergo - G. Tonon, Genetic, Cultural and Geographical Distances, http://www.economics.harvard.edu/files/faculty/97_Genetics_August2007.pdf, 2006 (15/08/11). HANDLEY et alii 2007 L. J. L. Handley - A. Manica - J. Goudet - F. Balloux, Going the distance: human population genetics in a clinal world, in Trends in Genetics, 23, 2007, 432439. HIGGS-VITA FINZI 1972 E. S. Higgs - C. Vita Finzi, Prehistoric economies: a territorial approach, in Papers in Economic Prehistory: Studies by Members and Associates of the British Academy Major Research Project in the Early History of Agriculture, E. S. Higgs (ed.), Cambridge 1972, 27-36. MANNI et alii 2004 F. Manni - E. Gue´Rard - E. Heyer, Geographic Patterns of (Genetic, Morphologic, Linguistic) Variation: How Barriers Can Be Detected by Using Monmonier’s Algorithm, in Human Biology, 76, 2004, 173-190. MANTEL 1967 N. Mantel, The detection of disease clustering and a generalized regression approach, in Cancer Research, 27, 1967, 209-220. McDONALD 2004 J. D. McDonald, World Distribution of MTDNA Haplogroups, http://www.scs.illinois.edu/~mcdonald/worldmtdnamap.pdf, 2004 (15/08/11). NETLER-MITASOVA 2005 M. Netler - H. Mitasova, Open Source GIS: a Grass 243 GIS approach, Boston 2005. RAMACHANDRAN et alii 2005 S. Ramachandran - O. Deshpande - C. C. Roseman N. A. Rosenberg - M. W. Feldman - L. L. Cavalli Sforza, Support from the relationship of genetic and geographic distance in human populations for a serial founder effect originating in Africa, in Proceedings of the National Academy of Sciences of the United States of America, 102, 2005, 15942-15947. SEMINO et alii 2000 O. Semino - G. Passarino - P. J. Oefner - A. A. Lin S. Arbuzova - L. E. Beckman - G. De Benedictis - P. Francalacci - A. Kouvatsi - S. Limborska - M. Marcikiae - A. Mika - B. Mika - D. Primorac - A. S. Santachiara Benerecetti - L. L. Cavalli Sforza - P. A. Underhil, The Genetic Legacy of Paleolithic Homo sapiens sapiens in Extant Europeans: A Y Chromosome Perspective, in Science, 290, 2000, 1155-1159. SHENNAN 1997 S. Shennan, Quantifying Archaeology, Edinburgh 1997. SIMONI et alii 2000 L. Simoni - F. Calafell - D. Pettener - J. Bertranpetit - G. Barbujani, Geographic Patterns of mtDNA Diversity in Europe, in American Journal of Human Genetics, 66, 2000, 262-278. VITA FINZI-HIGGS 1970 C. Vita Finzi - E. S. Higgs, Prehistoric economy in the Mount Carmel area of Palestine: site catchment analysis, in Proceedings of the Prehistoric Society, 36, 1970, 1-37. Referenze iconografiche Provincia Autonoma di Trento. Sistema Informativo Ambiente e Territorio (SIAT): figg. 1-4. Francesco Carrer Laboratorio “B. Bagolini”. Dipartimento di Filosofia, Storia e Beni Culturali Università di Trento [email protected] Fabio Cavulli Laboratorio “B. Bagolini” Dipartimento di Filosofia, Storia e Beni Culturali Università di Trento [email protected] 244 Felice Stoico Luca d’Altilia Analisi spaziale in archeologia dei paesaggi: il progetto N.D.S.S. (Northern Daunian Subappennino Survey) Abstract The Northern Daunian Subappennino Survey project, realised within the scientific research related to the PhD (Dottorato di ricerca) in “Archaeology and didactics of cultural heritage”, proposes a methodological study of castles, aimed to rebuild the medieval landscape through the knowledge and interpretation of settlements. Starting from the results gained in the past researches and from many ideas offered by the analysis of medieval landscapes conducted by the University of Foggia, the project has been designed with a “globaltype” analysis in mind, trying to redefine completely all the aspects involved in the archaeological documentation process and field-work, with the aid of archaeological computing, focusing on the use of free and open source software. 1. Introduzione Il progetto di ricerca Northern Daunian Subappennino Survey (N.D.S.S.), in corso nell’ambito del dottorato di ricerca in Archeologia e Didattica dei Beni Culturali dell’Università degli Studi di Foggia (DISCUM, Dipartimento di Scienze Umane), ha l’obiettivo di fornire un contributo al tema dell’incastellamento. L’analisi delle dinamiche d’incastellamento, all’interno del paesaggio medievale, costituisce un percorso metodologico per lo studio dell’occupazione sociale dello spazio1. L’interazione tra i suddetti processi sociali e l’ambiente rappresenta uno dei temi di maggiore interesse nel quadro generale della storia dell’insediamento medievale2. Quest’aspetto dell’analisi del fenomeno dell’incastellamento, attraverso l’indagine sulle fortificazioni degli insediamenti d’altura, viene posto in risalto nel presente lavoro, volto ad applicare la metodologia propria delle analisi spaziali. La necessità di comprendere il perché del variare di funzioni, dimensione, rilevanza economica di un sito e di un territorio3, è alla base dell’impostazione di questo progetto di ricerca. Inoltre, come in ogni approccio di tipo scientifico, è stata prevista la gestione di dati sempre quantificabili e comparabili in modo diretto con altre indagini sui modelli insediativi medievali. Tale progetto è stato finalizzato, quindi, allo studio analitico delle tipologie insediative, dei luoghi fisici in cui la popolazione si distribuiva, delle strutture organizzative, delle forme di aggregazione e concentrazione del popolamento. Partendo dai risultati ottenuti nel corso delle ricerche precedenti e grazie ai numerosi e diversi spunti offerti dall’analisi applicata ai paesaggi medievali, negli ultimi anni, dall’Università degli studi di Foggia, si è ritenuto opportuno orientare il progetto di ricer1 WICKHAM 1998, 153-170. FRANCOVICH-GINATEMPO 2000, 7-24; MACCHI 2001 a, 61-83. 3 BROGIOLO 1995. 2 245 ca verso un’analisi di tipo globale4. Di conseguenza, il progetto di ricerca è stato supportato dalle più moderne metodologie di intervento nel settore dell’informatica applicata all’archeologia, attraverso un approccio diverso, rivolto all’analisi eterogenea di tutti gli aspetti propri del processo di documentazione archeologica, nell’ambito di una corretta attività di indagine sul terreno. L’ambito geografico in cui è tuttora in corso l’indagine è il comprensorio del Subappennino Dauno Settentrionale, situato in Italia meridionale, nella Puglia settentrionale, in provincia di Foggia. L’indagine sul campo fa riferimento ai comprensori delle tre valli fluviali che costituiscono l’area in esame: l’alta e media valle del fiume Fortore, l’alta valle del Triolo, l’alta valle del Salsola, l’alta valle del Vulgano. L’analisi spaziale inter-site5 all’interno dei bacini fluviali, mira alla ricostruzione dei processi di trasformazione dei paesaggi agrari, allo studio della storia dell’insediamento umano in rapporto all’ambiente e alle sue risorse nel medioevo. In questo senso, fondamentale, è risultata la scelta di assumere come ambiti di indagine dei contesti ampi, atti a individuare e a comprendere fenomeni storici di ampia portata e geograficamente definiti. La scelta di comprensori spaziali ben determinati appare, del resto, in pieno accordo anche con l’esigenza di pianificazione dell’indagine archeologica da più parti auspicata e nel nostro caso voluta anche dalle amministrazioni del territorio, quali i comuni, che in tempi recenti si stanno facendo promotori della tutela e valorizzazione del territorio finalizzata alla pianificazione paesaggistica6. Dalla “macro-scala”, rappresentata quindi dall’analisi inter-site sul paesaggio medievale, si arriva alla “micro-scala”, rappresentata dall’analisi intra-site sullo scavo archeologico. L’analisi spaziale intra-site7 ha permesso inoltre di replicare, nel contesto dello scavo archeologico di Montecorvino (Volturino, Foggia, Italia), le stesse procedure metodologiche applicate su larga scala, permettendo al progetto di utilizzare una base dati fondata sull’interdisciplinarietà tra i diversi settori dell’archeologia (Remote Sensing, Geoarcheologia, Archeobotanica, Archeozoologia, Archeoantropologia). 2. I software FOSS (Free and Open Source Software) come strumenti della ricerca Sin dal principio è stato adottato il modello open source, nato in campo informatico ma applicabile perfettamente, con ottimi risultati, alla ricerca archeologica e ai suoi obiettivi8. Di fatto, esso garantisce all’archeologo l’utilizzo di applicativi avanzati, abbattendone i costi, con ritmi di crescita e di aggiornamento competitivi rispetto a quelli del software commerciale proprietario e con la possibilità concreta di intervenire, direttamente o indirettamente, nel processo di sviluppo, di personalizzazione o di rielaborazione del software. L’utilizzo di formati “aperti” è naturalmente fondamentale in questo senso, dunque, «quanto più si farà uso di formati di scambio aperti, tanto più i gruppi di lavoro saranno liberi di utilizzare i programmi, commerciali od open che più si adattano alle proprie esigenze e progetti e dati potranno “migrare” più semplicemente da un sistema a un altro»9. Il principio partecipativo che si pone alla base di questo modello è facilmente identificabile con il lavoro interdisciplinare proprio di un progetto di ricerca, in un’ottica di continuo sviluppo e aggiornamento del progetto stesso. Il progetto N.D.S.S. ha come fine primario l’applicazione del “modello open source” in attività di laboratorio di gestione dati, in modo da permettere all’archeologo, tramite il superamento del problema delle 4 VOLPE 2008, 447-462; FAVIA 2008, 343-364. HODDER-ORTON 1976. 6 VOLPE 2007, 20-32. 7 HODDER-ORTON 1976. 8 PESCARIN 2006, 137-155. 9 PESCARIN 2006, 144. 5 246 licenze software, una più flessibile gestione del lavoro. Nello specifico, un progetto di analisi e ricostruzione di un paesaggio archeologico, per il quale è richiesta una suddivisione del lavoro in fasi e il coinvolgimento di diverse professionalità, si presta a un approccio open source tramite la costituzione di gruppi di lavoro in grado di partecipare in tempo reale alla stesura del progetto, costituendo così una rete di ricerca. Diventa in questo modo più semplice la gestione dei dati che, una volta inseriti in un database caricato su di un server, possono essere visualizzati e modificati dagli stessi gruppi di lavoro. Questo “patrimonio” di dati risulterà poi prezioso al fine della ricostruzione del paesaggio archeologico10. L’analisi spaziale finalizzata alla ricostruzione del paesaggio, sia alla macroscala dell’analisi inter-site e sia alla micro-scala dell’analisi intra-site, si è avvalsa dell’utilizzo di software GIS. In particolare la gestione dati è avvenuta attraverso l’utilizzo combinato dei software FOSS QuantumGIS (ver. 1.6) e GRASS (ver. 6.4.). Il software QuantumGIS è risultato preferibile come visualizzatore di dati raster e vettoriali, nella fase di registrazione sotto forma di layer e nella fase di produzione delle piante di fase relative. Per la conduzione, invece, di analisi complesse, difficilmente attuabili con il suddetto software, ci si è avvalsi del software GRASS, ove possibile tramite appositi moduli all’interno dell’interfaccia stessa di QuantumGIS, oppure utilizzando la stessa applicazione in modalità stand-alone. 3. L’analisi spaziale inter-site e la gestione informatica del dato archeologico All’interno del progetto di ricerca N.D.S.S., l’impiego delle analisi spaziali nello studio delle forme di incastellamento, si basa sull’ipotesi che la ricostruzione, anche parziale, delle maglie di distribuzione degli stanziamenti umani possa restituire informazioni che non potrebbero essere recuperate dalle carte di distribuzione «con il solo impiego della ragione e dei sensi»11. È con questa finalità, alla quale va aggiunta l’eliminazione dell’immenso livello di soggettività implicito nell’interpretazione cartografica12, che l’analisi spaziale è stata introdotta in campo archeologico e viene oggi applicata al presente progetto di ricerca. Per giungere alla fase analitica, propria dell’indagine archeologica, è stata dapprima affrontata la problematica fase della registrazione e dell’implementazione del dato archeologico. Per la gestione del dato, finalizzata all’analisi spaziale, è stato necessario pensare a un metodo di archiviazione che permettesse, in fase di analisi, di tener conto di più variabili simultaneamente. È proprio per via dell’applicazione delle tecniche multivariate nell’interpretazione dei dati, che si è evidenziata la necessità di redigere una scheda con relativo DBMS (DatabaseManagementSystem), che consentisse, in ambiente GIS, di procedere con le diverse analisi. La scheda di archiviazione è stata pensata per inglobare, già in fase di registrazione, i valori di riferimento riguardanti le variabili impiegate nel nostro modello matematico. Le variabili, o fattori, prese in considerazione dal modello, per un approccio “multicriterio”13, riguardano: i caratteri ambientali (quota sul livello del mare, distanza dal mare, distanza dai fiumi, pendenza dei suoli, paludi e terreni inondabili, esposizione solare) per l’analisi delle relazioni con il contesto idrogeomorfologico e i relativi ambiti geologici di riferimento, e i caratteri archeologici (posizionamento, intervisibilità, distanza dai siti noti, distanza dai siti incerti, dati storici) per l’analisi delle relazioni con i sistemi infrastrutturali e insediativi, attraverso la registrazione delle caratteristiche morfologico-paesaggistiche degli elementi che condizionano e contraddistinguono le strutture fortificate. L’implementazione dei dati è avvenuta attraverso la registrazione dei caratteri ambientali e archeologici ricavati da fonti d’archivio, carto10 PESCARIN 2006, 137-155. MACCHI 2001 b, 143-165. 12 HODDER-ORTON 1976. 13 DI ZIO 2009, 309-329. 11 247 1. Rete delle visuali tra la città di Montecorvino e gli insediamenti fortificati del Subappennino Dauno Settentrionale, tra l’XI e il XV sec., risultante dall’analisi di intervisibilità, integrata con sezioni altimetriche. grafia storica, cartografia tecnica vettoriale 2d e 3d, DTM (modelli digitali del terreno), ortofotogrammetria IGM, fotografia aerea obliqua, ricognizioni di superficie, scavi acheologici, prospezioni geofisiche, indagini archeoambientali. Dopo la fase di registrazione dei dati in un geodatabase, è stato possibile razionalizzare e gestire una enorme quantità di informazioni, che sono risultate utili ai fini del nostro progetto di ricerca. Il binomio QuantumGIS - GRASS ci ha permesso di creare un modello organico per archiviare i dati disponibili e ha inoltre permesso di attivare delle funzionalità, proprie delle analisi spaziali, che creano informazioni nuove, non desumibili dalle fonti, ma soprattutto, non rilevabili sul campo. Per il calcolo delle mappe di plausibilità sono stati integrati i dati registrati con i risultati delle analisi spaziali, relativi ai rapporti spaziali tra la rete di stanziamento e la rete dei principali corsi d’acqua (site catchment analysis)14, relativi all’identificazione delle tendenze di stanziamento in rapporto alle quote altimetriche e allo studio delle pendenze, degli insediamenti fortificati d’altura, per la produzione di buffers15, relativi alla misurazione del grado di impatto, delle precipitazioni medie e delle variazioni climatiche di breve e medio periodo, sulla definizione della geografia umana16, relativi sia allo studio del campo di osservazione di un individuo che si trova in un determinato punto del territorio, che allo studio delle relazioni di visibilità tra i siti (viewshed analysis)17 (fig. 1). L’analisi multicriteriale spaziale è servita a determinare un modello matematico, generando una mappa di plausibilità, che tiene conto delle variabili connesse alle dinamiche insediative dei siti analizzati. Nel progetto N.D.S.S, per elaborare dati in GRASS si è preferito utilizzare griglie cartografiche in formato GRID, tipo di file che si caratterizza per il suo notevole grado di duttilità e flessibilità nelle operazioni e fasi tipiche di creazione e applicazione delle analisi spaziali, ma soprattutto nella gestione delle variabili18. Le analisi delle variabili vengono visualizzate attraverso delle mappe in formato raster (criterion map) e sovrapposte, consentendo l’integrazione delle variabili attraverso l’impiego di un opportuno sistema di pesi. Ogni variabile all’interno di ogni alternativa verrà pesata e il valore di plausibilità terrà conto sia del valore “oggettivo” risultante da ogni variabile, che di quello “soggettivo” relativo al peso attribuito a esso19. Il progetto di ricerca, prendendo ispirazione da vari casi di analisi applicata in Toscana (Francovich, Macchi), in Abruzzo (Di Zio), in Emilia-Romagna (Augenti, Monti), in Trentino Alto Adige (Brogiolo), ha come obiettivo principale, quindi, la creazione di un modello che integra informazioni di tipo quantitativo, desumibili dalle analisi spaziali, e informazioni di tipo soggettivo, che intervengono nella definizione dei pesi da assegnare alle variabili, concepite dall’archeologo. Infine, nella fase più recente del lavoro (ancora in fieri), finalizzata al tentativo di ricostruire il paesaggio medievale scomparso dell’area del Subappennino Dauno Settentrionale ci si sta avvalendo del modulo mapalgebra di GRASS. Utilizzando mapalgebra è risultato necessario che tutte le variabili siano state precedentemente elaborate e visua- 14 DE SILVA-PIZZAIOLO 2001; MACCHI 2001 b. MACCHI 2003. 16 MACCHI 2003; CARACUTA-FIORENTINO 2009, 717-726; GIULIANI et alii 2009, 779-784. 17 DI ZIO 2009, 309-329. 18 MACCHI 2001 b, 151. 19 DI ZIO 2009, 315. 15 248 lizzate, come già detto, in formato raster. Nella definizione della mappa finale di plausibilità tutte le variabili considerate assumono valori diversi per ogni pixel, ovvero per ogni porzione di territorio, rendendo possibile integrare i valori di tali variabili, per ogni singolo pixel del territorio, in modo da ottenere un unico raster, che rappresenta una mappa di plausibilità di presenza dei siti scomparsi, permettendoci di avvalorare le nostre ricostruzioni del paesaggio basate su solide analisi quantitative archeologiche. 4. L’analisi intra-site: il caso di Montecorvino Il passaggio da un’analisi spaziale condotta su macro scala a un’analisi intra-site relativa a uno scavo archeologico (loc. Torre di Montecorvino, Volturino, Foggia, Italia), presenta alcune criticità, derivanti tanto dalla natura stessa dell’analisi quanto dalla dipendenza di questa dalla documentazione di scavo. L’aspetto visivo della piattaforma GIS, costituita a tal fine, deve necessariamente riprodurre in maniera oggettiva la realtà materiale del sito archeologico indagato, registrando le qualità morfologico-spaziali delle diverse unità stratigrafiche e i vari rapporti intercorrenti fra esse. La soggettività dell’analisi compiuta dall’archeologo potrà, al contrario, essere evidente nella costituzione degli archivi alfanumerici correlati ai dati spaziali, essendo essi costituiti da informazioni testuali, legate all’interpretazione del dato archeologico in fase di scavo. Le prime applicazioni in campo archeologico delle potenzialità dei software GIS si sono concentrate su di un sistema visivo organizzato per cromatismi, rendendo possibile la visualizzazione di dati connessi a particolari valori registrati in archivio20. Tuttavia, in anni recenti, lo sviluppo delle tecnologie informatiche (non ultime quelle di tipo Open Source) e il superamento dell’idea della piattaforma GIS come semplice “visualizzatore”, hanno permesso agli archeologi di effettuare varie tipologie di analisi spaziali correlate ai contesti presi in esame, potendo in alcuni casi replicare, a livello di analisi intra-site, quanto si effettua a livello di macro-scala o analisi inter-site. Procedure avanzate quali analisi spaziali, analisi di distribuzione dei reperti ed elaborazione di modelli predittivi, rappresentano soltanto alcune delle possibilità offerte dalla recente tecnologia informatica in ambiente GIS. Il processamento dei dati e conseguentemente la possibilità di produrre nuova e migliore conoscenza21, costituiscono il fondamento stesso dell’utilizzo di un sistema informativo geografico in archeologia, permettendo, grazie all’utilizzo del supporto informatico, una più agevole dinamica di processamento del dato, anche nel caso di analisi complesse22. I principi fin qui enunciati, hanno costituito le linee guide dell’attività di laboratorio svolta in parallelo con le campagne di scavo finora condotte sul sito di Montecorvino (2008 2009 - 2010), includendo, tra i vari percorsi di ricerca, un progetto di analisi intra-site e di gestione del dato archeologico, riconoscendo in tale sito l’adeguato contesto per sperimentare l’adozione di differenti tecniche di rilevamento su unità stratigrafiche orizzontali e verticali23. Sin dalla prima campagna di indagine archeologica sul sito24 è stata creata una griglia di appoggio a cui georiferire la quadrettatura generale (su un area di 800×300 m, con una maglia di quadrati 10 ×10 m) dell’area archeologica, propedeutica all’analisi di remote sensing che ha preceduto il posizionamento delle strutture monumentali, l’impianto dei saggi di scavo e l’avvio delle indagini stratigrafiche. Posizionare i resti dell’edificio monumentale della cattedrale e della torre ha significato, dunque, impostare una rete di inquadramento composta da una catena di vertici (poligonale), in questo caso aperta, ovvero costituita da una successione di stazioni, che ha permesso di avere un’unica rete 20 VALENTI-NARDINI 2004. BARCELÓ 2000, 9-35; DE FELICE 2008, 20. 22 VALENTI-NARDINI 2004, 346-353. 23 FAVIA et alii 2009, 373-381. 24 FAVIA et alii 2007. 21 249 di appoggio topografico, alla quale è stato possibile georiferire i fotomosaici relativi ai paramenti murari. La prima campagna di scavo condotta sul sito di Montecorvino ha previsto, inoltre, l’acquisizione on site della stratigrafia in tre dimensioni mediante stazione totale, sulla base dei percorsi di documentazione 3D digital-born, elaborati all’interno del progetto Itinera25 per la ricostruzione virtuale della sequenza stratigrafica. In fase di elaborazione della piattaforma GIS, i riferimenti topografici per la georeferenziazione dei dati di scavo sono stati forniti dalla cartografia tecnica liberamente rilasciata dalla Regione Puglia attraverso il portale SIT www.cartografico.puglia.it. Il sistema che si sta costituendo mira a gestire, in un modello geo-relazionale, tutte le informazioni esistenti sul sito in esame provenienti da prospezioni geofisiche, aerofotointerpretazione, documentazione grafica, studio delle singole classi di materiali, analisi architettonica, fino al calcolo statistico della distribuzione dei materiali. Tramite l’utilizzo di un GEODATABASE è, inoltre, possibile associare al dato spaziale i dati testuali ricavati dalla compilazione delle schede US. Tramite un’interfaccia user-friendly, la piattaforma GIS permette, infatti, di procedere a una rapida consultazione di dati grafico-spaziali e alfanumerici e di produrre mappe derivate, in costante riferimento alle esigenze del progetto in corso. Nell’ambito di questi sistemi ciascun oggetto grafico è georeferenziato e associato a un attributo presente nell’archivio alfanumerico, organizzato a sua volta in un database relazionale. Mediante la funzione Profile Surface Map e il modulo di visualizzazione 3d NVIZ (funzione cutting planes) di GRASS è stato possibile ottenere una valida alternativa digitale alla tradizionale operazione di elaborazione delle sezioni stratigrafiche sul campo, incrementando oltretutto la quantità di dati archeologici desumibili. Il GIS intra-site rappresenta, dunque, un modello di applicazione polifunzionale, in quanto rappresenta uno strumento indispensabile per la fase di registrazione delle informazioni raccolte sul terreno, anche per quanto riguarda le indagini che spesso precedono e indirizzano la ricerca sul campo. In sostanza questo livello di micro-scala di indagine mira alla realizzazione di una piattaforma, costantemente aggiornabile e aggiornata, di gestione complessiva dei dati di scavo, in modo da archiviare e gestire il dato archeologico in modo preciso e puntuale. 25 250 DE FELICE 2008, 13-24. Abbreviazioni bibliografiche BARCELÓ 2000 J. A. Barceló, Visualizing what might be. An introduction to Virtual Reality techniques in archaeology, in Virtual Reality in Archaeology, J. A. Barceló, M. Forte, D. H. Sanders (edd.), Oxford 2000, 9-35. BROGIOLO 1995 Città, castelli, campagne nei territori di frontiera, Atti del 5° Seminario sul Tardoantico e l’Altomedioevo in Italia centro-settentrionale, G. P. Brogiolo (ed.), Monte Barro 1994, Mantova 1995. CARACUTA-FIORENTINO 2009 V. Caracuta - G. Fiorentino, L’analisi archeobotanica nell’insediamento di Faragola (FG): il paesaggio vegetale tra spinte antropiche e caratteristiche ambientali tra Tardoantico e Altomedioevo, in Atti del V Congresso Nazionale di Archeologia Medievale, Foggia-Manfredonia 2009, 717-726. DE FELICE 2008 G. De Felice, Il progetto Itinera. Ricerca e comunicazione attraverso nuovi metodi di documentazione archeologica, in L’informatica e il metodo della stratigrafia, G. De Felice, M. G. Sibilano, G. Volpe (edd.), Atti del Workshop, Foggia 2008, Bari 2008, 13-24. DE SILVA-PIZZAIOLO 2001 M. De silva - G. Pizzaiolo, Setting up a “Human Calibrated” Anisotropic Cost Surface for Archaeological Landscape Investigation, in Computing Archaeology for Understanding the Past CAA 2000, Z. Stancic, T. Veljanovski (edd.), Oxford 2001, 279286. DI ZIO 2009 S. Di Zio, Un modello GIS multicriterio per la costruzione di mappe di plausibilità per la localizzazione di siti archeologici: il caso della costa teramana, in ACalc, 20, 2009, 309-329. FAVIA 2008 P. Favia, Itinerari di ricerca archeologica nel Medioevo di Capitanata: problemi scientifici, esigenze di tutela, programmi di politica dei beni culturali, in VOLPE et alii 2008, 343-364. FAVIA et alii 2007 P. Favia - R. Giuliani - M. L. Marchi, Volturino, loc. Montecorvino, 2006, in AMediev, 34, 2007, 207-208. FAVIA et alii 2009 P. Favia - R. Giuliani - N. M. Mangialardi - F. Stoico, Indagine archeologica sul sito di Montecorvino nel Subappennino daunio: primi scavi della cattedrale e dell’area castrense, in Atti del V Congresso Nazionale di Archeologia Medievale, FoggiaManfredonia 2009, 373-381. FRANCOVICH-GINATEMPO 2000 R. Francovich - M. Ginatempo, Castelli. Storia e archeologia del potere nella Toscana medievale, Firenze 2000. GIULIANI et alii 2009 R. Giuliani - V. Caracuta - G. Fiorentino - O. Pignatelli, Prime ricerche nella torre medievale di Pietramontecorvino (FG): un approccio integrato tra esame archeologico delle architetture e analisi paleoecologiche, in Atti del V Congresso Nazionale di Archeologia Medievale, Foggia-Manfredonia 2009, 779- 784. HODDER-ORTON 1976 I. Hodder - C. Orton, Spatial Analysis in Archeology, Cambridge 1976. MACCHI 2001 a G. Macchi, Sulla misurazione delle forme d’occupazione sociale dello spazio medievale, in AMediev, 18, 2001, 61-83. MACCHI 2001 b G. Macchi, Modelli matematici per la ricostruzione dei paesaggi storici, in ACalc, 12, 2001, 143-165. MACCHI 2003 G. Macchi, «L’occupazione sociale dello spazio» e ambiente: proposte metodologiche, MCGCBA, III Modulo Informatica Applicata, Grosseto 2003. PESCARIN 2006 S. Pescarin, Open Source in Archeologia. Nuove prospettive per la ricerca, in ACalc, 17, 2006, 137-155. VALENTI-NARDINI 2004 M. Valenti - A. Nardini, Modello dei dati e trattamento del dato sul GIS di scavo, in ACalc, 15, 2004, 346-353. VOLPE 2007 G. Volpe, L’ “archeologia globale” per ascoltare la “storia totale” del territorio, in SudEst, 20, 2007, 20-32. VOLPE 2008 G. Volpe, Per una “archeologia globale dei paesaggi” della Daunia. Tra archeologia, metodologia e politica dei beni culturali, in VOLPE et alii 2008, 447-462. VOLPE et alii 2008 Storia e archeologia della Daunia, in ricordo di 251 Marina Mazzei, Atti delle Giornate di Studio, G. Volpe, M. J. Strazzulla, D. Leone (edd.), Foggia 2005, Bari 2008. WICKHAM 1998 C. Wickham, Aristocratic Power in Eighth-century Lombard Italy, in After Rome’s Fall: Narrators and Sources of Early Medieval History, A. Callander Murray (ed.), Toronto 1998, 153-170. Referenze iconografiche Dipartimento di Scienze Umane. Università degli studi di Foggia: fig. 1. Felice Stoico Dipartimento di Scienze Umane. Università degli Studi di Foggia. [email protected] Luca d’Altilia Dipartimento di Scienze Umane. Università degli Studi di Foggia. [email protected] 252 Sandra Heinsch Walter Kuntner Giuseppe Naponiello Aramus Excavations and Field School, esperienze con Free/Libre e Open Source Software Abstract Since 2006 the archaeological expedition of Aramus (Armenia) is supported only by Free/Libre and Open Source Software, with positive effects on the entire project. With this paper we would like to present our experiences in using, developing, teaching and sharing this kind of applications, focusing the attention both on problems and benefits. 1. Introduzione Il progetto Aramus Excavations and Field School è nato da una cooperazione tra l’Università di Yerevan (Armenia), l’Università di Innsbruck (Austria) e l’Istituto di Archeologia e Etnografia dell’Accademia Nazionale delle Scienze dell’Armenia. A livello operativo i lavori di scavo hanno preso avvio nel 2004 in seguito a una prima ricognizione per individuare il sito adatto. La fortezza di Aramus, posizionata a 1.450 metri sul livello del mare nell’altopiano del Kotayk (fig. 1), presentava caratteristiche in grado di soddisfare tutti i requisiti richiesti, sia da un punto di vista logistico che cronologico. La roccaforte, infatti, sorge su un’altura (fig. 2) a soli 15 km N/E della capitale Yerevan e si presta senza eccessive difficoltà a ospitare uno scavo-scuola. Inoltre, come è emerso in seguito ai primi studi, si tratta di una struttura difensiva che copre un arco cronologico compatibile con gli interessi della missione, essendo stata fondata durante la media età del ferro (850-650 a.C.), in seguito alla conquista urartea della piana dell’Ararat con il re Argisti I (785-763 a.C.) e occupata fino all’inizio del IV sec. a.C.1 Nell’ambito del progetto le prime esperienze con applicazioni FLOSS (Free/Libre e Open Source Software) hanno avuto luogo nella campagna 2006, quando la ditta Arc-Team si è unita all’equipe di ricerca, supportando la migrazione dal software chiuso, sino ad allora utilizzato, ai programmi aperti. L’esperienza si è conclusa positivamente e ha segnato una svolta nella didattica, nella documentazione di scavo e in molte analisi archeologiche2. Da allora la missione di Aramus si è evoluta, articolandosi in vari sottoprogetti accomunati dall’intento di applicare la filosofia free/open all’archeologia. Questo “orientamento libero” della ricerca e questo “approccio aperto” alla disciplina hanno trovato terreno fertile in un background culturale in cui diverse entità (università, istituzioni e società private) collaborano per migliorare la metodologia in ogni singolo passaggio del flusso di lavoro dello scavo, dalla documentazione sul campo al post-processing. 1 2 AVETISYAN 2001; AVETISYAN-ALLINGER CSOLLICH 2006; KUNTNER-HEINSCH 2010. BEZZI et alii 2006 a. 253 1. Altopiano del Kotayk con indicazione dei principali siti archeologici. 2. La collina di Aramus. In questo modo, anno dopo anno, Aramus è diventato una sorta di “laboratorio aperto” in cui una comunità di persone differenti (studenti, professionisti, volontari, programmatori, ecc.) condividono le loro esperienze nell’uso, nella sperimentazione e nello sviluppo dei prodotti FLOSS in archeologia. In altre parole, la libera circolazione di software, dati, conoscenze e idee, ha portato a uno sviluppo migliore della ricerca, con positive ricadute sull’intero progetto. 2. Uso e condivisione di FLOSS Le operazioni di migrazione dal software chiuso a quello open e free hanno richiesto solamente poche ore grazie alla sostituzione dell’intero sistema operativo proprietario con ArcheOS3 1.2, basato su GNU/Linux4. Con questa semplice procedura è stato possi- 3 4 254 http://www.archeos.eu/wiki/doku.php BEZZI et alii 2005; BEZZI et alii 2006 b. bile equipaggiare i computer della spedizione con una nuova suite di programmi aperti, selezionati specificatamente per un utilizzo in campo archeologico. Il sistema ArcheOS è stato, infatti, pensato per soddisfare le necessità della ricerca, dall’acquisizione dei dati, alla loro gestione e processamento, fino alla loro analisi e conseguente pubblicazione. Per questa ragione la lunga lista dei software compresi nel sistema operativo copre una vasta gamma di categorie differenti: CAD, database, GIS, grafica (vettoriale, raster e volumetrica), laser-scanning (mesh-editing), fotogrammetria, statistica, WebGIS, ecc. I principali vantaggi del passaggio al software aperto sono emersi sin dalle prime fasi e sono connessi alle quattro libertà della “free software definition”, scritta da R. Stallman e pubblicata dalla Free Software Foundation5 nel febbraio 1986. Infatti, durante la missione del 2006 è stato possibile usare i programmi per qualsiasi scopo (libertà 0), ad esempio forzando un software di grafica raster a eseguire operazioni geometrico-geografiche; inoltre si è potuto studiare il funzionamento dei vari software (libertà 1), considerando metodi alternativi di rettificazione nelle applicazioni fotogrammetriche; l’aspetto didattico del progetto è stato potenziato distribuendo copie dei programmi (libertà 2), per aiutare gli studenti a imparare le tecniche basilari di documentazione in archeologia; infine si è potuto implementare e migliorare i software (libertà 3), ad esempio, aggiungendo nuove linee di codice sorgente a un’applicazione per riconoscere e connettere più strumenti hardware. Un ulteriore vantaggio della migrazione ad ArcheOS è stato una maggiore sicurezza contro virus e malware e in generale una maggiore stabilità, tipica dei sistemi GNU/Linux. Sebbene la campagna del 2006 fosse indirizzata solamente a verificare l’effettiva efficienza dei FLOSS in archeologia, i risultati positivi dell’esperimento hanno incoraggiato a procedere con questa esperienza, capitalizzando allo stesso tempo il veloce sviluppo dei programmi aperti. 3. Sviluppo e miglioramento dei FLOSS La collaborazione tra l’Università di Innsbruck e Arc-Team si è dimostrata molto proficua, comportando vantaggi reciproci. Da un lato l’Università ha potuto supportare la missione di Aramus con software professionale, distribuibile liberamente, con ovvi benefici per gli studenti e senza costi addizionali che intaccassero il budget. Dall’altro ArcTeam ha usato l’esperienza di lavoro sul campo in Armenia per sviluppare ulteriormente ArcheOS (che la società rilascia liberamente sotto la licenze GNU GPL). I feedback dello scavo di Aramus si sono rivelati molti importanti nel pianificare la successiva versione del sistema operativo (v. 2.0), tenendo presente anche le specifiche necessità di una missione archeologica all’estero. Da questo punto di vista, l’esperienza della field school è stata un’ottima occasione per sperimentare in maniera accurata i software candidati alla nuova release. Grazie a questi test si è arrivati a una più stretta selezione dei programmi, che ha portato ad esempio alla graduale sostituzione di Scanalyze con MeshLab nel campo del mesh-editing. Allo stesso modo si è raggiunto un più efficiente monitoraggio dei progetti di sviluppo di nuovo software, che ha permesso di inserire ulteriori applicazioni le cui potenzialità archeologiche sono emerse durante il lavoro sul campo (come nel caso di TOPS, il programma per interfacciare il computer con gli strumenti di rilievo topografico e survey). Quando è stato possibile, sono stati inviati feedback e parziali implementazioni di codice agli sviluppatori di alcune applicazioni e, in casi particolari, sono stati realizzati, con licenze libere, nuovi programmi per colmare lacune o migliorare alcuni passaggi critici individuati nel flusso di lavoro. 5 http://www.fsf.org/ 255 3. Planimetria della fortezza. 3.1. Programmazione di nuove applicazioni Sebbene ArcheOS rappresenti una suite di software per l’archeologia abbastanza completa, nel 2007 è stato necessario scrivere una nuova applicazione per venire incontro alle necessità specifiche della campagna di scavo in atto, allo scopo di ottimizzare alcune operazioni di post-processing. In quell’anno uno dei principali obiettivi della missione consisteva nella mappatura delle evidenze di superficie della collina di Aramus (fig. 3), per tentare di riconoscere eventuali resti strutturali e ricostruire una mappa (per quanto ipotetica) della fortezza. In pratica è stato necessario posizionare con la stazione totale gran parte delle pietre presenti sulla sommità della collina. Ovviamente questo tipo di lavoro sul campo si è rilevato molto dispendioso in termini di tempo e avrebbe comportato una lunga e tediosa fase di processamento dei dati raccolti. Per evitare inutili sprechi di energie, uno dei membri della spedizione, S. Köllö, ha scritto una nuova applicazione informatica in grado di velocizzare l’intero procedimento. Si tratta di un software, rilasciato sotto licenza libera (GNU GPL), capace di trasformare automaticamente i dati grezzi della stazione totale in codice WKT (Well Known Text), un formato di file compatibile con OpenJUMP, uno dei GIS contenuti in ArcheOS. In questo modo l’intero flusso di lavoro necessario per convertire i file ASCII (dati grezzi) in disegni vettoriali è stato ridotto a operazioni svolte in automatico dal software, sotto la supervisione di un unico operatore. Una tale soluzione è stata possibile grazie all’alta compatibilità che spesso caratterizza le applicazioni free e open source e alla possibilità di studiare il modo di lavorare dei vari software coinvolti. 4. Insegnamento di FLOSS e condivisione di know-how Sin dal 2004 la missione di Aramus è stata organizzata come campo scuola in cui oltre alle tecniche di scavo stratigrafico venivano impartite lezioni teoriche e pratiche inerenti l’archeologia computazionale. Il software a codice aperto ha permesso di migliorare anche molti aspetti della didattica, essendo possibile fornire agli studenti non solo le cono256 scenze necessarie (know-how), ma anche gli strumenti per metterle in pratica. In questo senso l’utilizzo di ArcheOS si è dimostrato molto efficace, in quanto ha permesso un approccio graduale: è stato, infatti, possibile inizialmente utilizzarlo on the fly, senza la necessità di essere installato sulla macchina ospite. Questo significa che gli studenti hanno potuto impratichirsi con tutti i software della distribuzione, senza compromettere il proprio sistema operativo. Solo in un secondo momento, per gli utenti più esperti, si è proceduto all’installazione vera e propria di ArcheOS, in modo da implementarne le performance. In base alla nostra esperienza, questo passaggio graduale ha dato buoni risultati, evitando gli aspetti più traumatici di un cambiamento di sistema operativo. Con lo stesso intento di facilitare la migrazione al software aperto, la politica di selezione delle applicazioni contenute in ArcheOS è stata diretta da un approccio a due livelli distinti (anche se in parte ridondanti): al fianco di programmi professionali, che richiedono un certo knowhow, sono state in genere mantenute applicazioni meno performanti ma più user friendly (è il caso, ad esempio, dei GIS GRASS e gvSIG). Dalla serie di lezioni tenute nell’ambito dell’Aramus Excavation and Field School è derivato il Digital Archaeological Documentation Project6 (fig. 4), che ha collezionato diversi tutorial in un sistema wiki, con l’intento di condividere le conoscenze tecniche necessarie all’utilizzo di FLOSS in ambito archeologico. Il progetto è pensato per essere un work in progress, da aggiornare nel tempo con nuovi contributi, traduzioni e materiale mediatico. Tutti i documenti prodotti sono rilasciati sotto appropriate licenze aperte (generalmente la Free Documentation License) con l’intento di coinvolgere una comunità sempre più ampia. 4. Digital Archaeological Documentation Project. . 5. Condivisione di dati Un altro aspetto importante del progetto Aramus riguarda la scelta di condividere attraverso internet tutte le informazioni raccolte, seguendo un modello di open data. Questo approccio è stato suggerito dall’esperienza maturata con le applicazioni FLOSS, che hanno dimostrato come la libera circolazione di dati e idee porti spesso a un migliore e più veloce sviluppo. La soluzione obbligata per raggiungere un obiettivo del genere è stata lo sviluppo 6 http://vai.uibk.ac.at/dadp/doku.php 257 5. WebGIS di Aramus. di un sistema WebGIS (fig. 5), basato sui programmi aperti GeoServer e OpenLayer (JavaScript) e connesso a un complesso database ideato per gestire ogni tipologia di livello, dalle macro-evidenze (regioni, siti) alle micro-realtà (stratigrafie e reperti rinvenuti). La struttura poggia su di una complessa architettura realizzata all’interno del DBMS PostgreSQL e della sua estensione spaziale PostGIS. Database e WebGIS sono gestiti direttamente da pagine scritte in linguaggio PHP, appositamente create senza ricorrere a strumenti precostituiti che avrebbero certamente appesantito il sistema imbrigliandolo in rigidi schemi non performanti. Per garantire una larga e libera circolazione delle informazioni, tutti i dati archeologici saranno rilasciati sotto licenze aperte (principalmente Creative Commons e Science Commons). Ovviamente tutte le pagine sono state costruite nel rispetto delle regole stabilite dal consorzio W3C, in modo da garantire un’alta compatibilità con tutti i browser standard compliant7. 6. Sperimentazione e sviluppo di strumenti e metodologie La scelta di utilizzare unicamente software aperti ha avuto diverse ricadute positive sull’intero progetto. Tra le più importanti va sicuramente considerato lo stimolo alla ricerca di nuove soluzioni metodologiche che l’accessibilità al codice sorgente ha senza dubbio incoraggiato. Un ulteriore incentivo in questa direzione è derivato anche dalla necessità di correggere, tramite aggiustamenti tecnici, alcune inefficienze riscontrate nel flusso di lavoro adottato dopo la migrazione. Durante questa fase di trouble-shooting è nato il “metodo Aramus”, un nuovo sistema per realizzare fotomosaici georeferenziati introdotto da Arc-Team nel 2006. Si tratta di una parziale revisione delle più comuni tecniche di photomapping, che si è resa necessaria per velocizzare le operazioni sul campo richieste dai moduli fotogrammetrici del GIS open source GRASS. Nel corso degli anni l’influenza dell’open source ha spinto la nostra ricerca a vagliare anche le possibilità offerte dall’open hardware, come è avvenuto nel 2008 con la costruzione di un drone volante (UAVP) per le foto aeree e il remote sensing, che sarà operativo nelle prossime missioni. Recentemente, inoltre, si è stati in grado di risolvere i due principali problemi evi- 7 258 http://vai.uibk.ac.at/aramus/ denziati nelle passate spedizioni: la difficoltà di ottenere una veloce e accurata documentazione tridimensionale del deposito archeologico e l’incompatibilità del disegno manuale dei reperti con le tempistiche di cantiere. Anche in questo caso, nel 2008 e nel 2009, sono state testate diverse applicazioni FLOSS per trovare nuove metodologie e soluzioni. Grazie a questi studi, a partire dalla campagna del 2010 sono stati effettuati sistematicamente rilievi tridimensionali impiegando tecniche di Structure from Motion (SfM) e Image Base Modeling (IBM), mentre l’illustrazione scientifica dei reperti archeologici, attualmente ancora manuale, sarà progressivamente sostituita da metodi semiautomatici. Tutti questi esempi mostrano come, in base alla nostra esperienza, la filosofia free e open source ha condotto a un approccio differente nella disciplina archeologica, basato su strumenti e tecniche altamente personalizzabili, in grado di adattarsi a una vasta gamma di situazioni diverse. 6.1. Metodo Aramus Nel 2006 il problema principale nell’affrontare le difficoltà di una missione all’estero era connesso con la documentazione base di scavo, impostata su un rilievo bidimensionale fotogrammetrico. Sino a quell’anno la metodologia applicata da Arc-Team per ottenere questo risultato si appoggiava interamente al GIS GRASS, all’interno del quale veniva elaborato l’intero processo (rettificazione, georeferenziazione e mosaicatura). Sfortunatamente questo metodo era incompatibile con le tempistiche della missione, a causa delle lunghe operazioni necessarie per registrare sul campo i nove punti di controllo richiesti dal software per ogni singola foto. Al fine di ridurre il lavoro in cantiere alle normali operazioni svolte nel 2004 e 2005 (quando si usava una sola applicazione a codice chiuso per georeferenziare e rettificare le foto con quattro punti di controllo) si è dunque sviluppato un nuovo sistema. Il “metodo Aramus” (fig. 7) consiste nella combinazione di diversi programmi per creare fotomosaici georeferenziati. Il flusso di lavoro comincia con l’elaborazione delle coordinate dei punti di controllo all’interno di un editor di testo Kate. Quindi il file ASCII viene importato nel GIS GRASS, dove è trasformato in un modello raster georeferenziato dell’area da documentare. Successivamente il modello è usato all’interno della suite fotogrammetrica e-foto per rettificare ogni singola foto dell’intero fotomosaico. Infine, le immagini rettificate sono mosaicate nel programma di grafica raster GIMP. Il risultato può essere importato in qualsiasi GIS (ad esempio, in OpenJUMP) per le successive operazioni, come il disegno vettoriale dei vari strati. In termini di tempo l’intero processo può essere comparato con la vecchia metodologia applicata ad Aramus sino al 2005, ma i fotomosaici georeferenziati raggiungono una miglior qualità nell’equalizzazione della luminosità e del contrasto delle singole foto. Inoltre, l’intero processo garantisce un miglior controllo umano durante ogni singola fase, considerando anche la possibilità di influenzare direttamente il rapporto qualità/quantità (risoluzione/megabyte) del risultato finale. Sino a oggi, dopo cinque anni, il “metodo Aramus” è ancora usato nella campagna di scavo ufficiale ed è stato migliorato grazie al contributo e ai feedback della comunità. 6.2. Open Hardware Nel 2006 lo scavo di Aramus è stato integrato da un progetto di remote-sensing, che ha coperto l’intera area della collina con tecniche di photomapping. L’operazione è stata possibile grazie al supporto professionale di K. Kerkow, Ch. Hanisch e, in particolare, al generoso contributo del Ministero della Difesa e dell’Areonautica Militare Armena, che ha fornito un elicottero. Sfruttando le possibilità offerte dall’Open Hardware, i prossimi progetti di telerile259 6. UAVP. 7. Esempio di fotomosaicatura con il metodo Aramus. vamento saranno supportati dall’uso di uno UAV (Unmanned Aerial Vehicle). Infatti, nel 2008, Arc-Team ha condotto uno studio preliminare per scegliere la miglior soluzione di drone volante. Tale studio ha portato alla selezione del progetto UAVP8 (Universal Aerial Video Platform), sviluppato da W. Mahringer e rilasciato sotto licenza GPL (fig. 6). La scelta è stata condizionata soprattutto dalla stabilità di volo e manovrabilità, qualità necessarie a soddisfare le peculiari esigenze di una campagna di telerilevamento orientata al photomapping e al survey9. Il primo prototipo funzionante è stato completato nel 2008 e parzialmente modificato durante il 2009, allo scopo di migliorare le funzionalità del dispositivo di remote-sensing. Attualmente i responsi positivi dei test di volo (grazie all’aiuto di W. Gilli) sembrano indicare un uso realistico del drone nelle prossime missioni. 8 9 260 http://uavp.ch/moin/FrontPage BEZZI et alii 2008; BEZZI et alii 2009. 6.3. SfM e IBM Nel 2009 Arc-Team ha iniziato una serie di sperimentazioni che consentissero di applicare la tecnica della Computer Vision alla documentazione prodotta nelle precedenti campagne di scavo ad Aramus. L’obiettivo di questi esperimenti era focalizzato sulla ricostruzione virtuale di contesti archeologici che il procedere dell’indagine stratigrafica aveva irrimediabilmente distrutto. Questa tecnologia consente di ottenere modelli tridimensionali della realtà partendo da una raccolta di fotografie ottenute con una normale (non calibrata) macchina fotografica digitale10. Proprio per questo motivo rappresenta probabilmente la più valida alternativa al recupero di informazioni spaziali di contesti scavati. La scienza della Computer Vision è «l’insieme dei processi che mirano a creare un modello approssimato del mondo reale (3D) partendo da immagini bidimensionali (2D)» (Wikipedia, 27-09-2011). Più nello specifico con Structure from Motion (SfM) e Image Based Modeling (IBM) si intende il processo di ricostruzione di strutture tridimensionali partendo dall’analisi dello spostamento di un oggetto nel tempo. I risultati positivi dei test hanno confermato le alte potenzialità di questa metodologia in archeologia e la sua compatibilità con le peculiarità del progetto Aramus (fig. 8). Questa tecnica non richiede una particolare formazione: l’intero processo è semplice e può essere facilmente appreso dagli studenti della field school. L’intervento umano nel flusso di lavoro si limita alla fase iniziale di acquisizione dei dati, che consiste nello scattare una serie di foto che ritraggono l’area di interesse da diverse angolazioni. Tutto il complesso calcolo che estrae le informazioni tridimensionali dalle immagini è delegato all’intelligenza artificiale. La Computer Vision è principalmente basata su software (Bundler, PMVS2 e MeshLab, per il post-processing) e non richiede costose o ingombranti attrezzature. Questo rende la metodologia ottimale per il budget di una campagna archeologica (sono necessari solamente una macchina fotografica e un computer). Nella campagna 2010 è stato possibile registrare le superfici 3D degli strati, aggiungendo alla documentazione una tipologia di rilievo molto più accurata rispetto alla fotomosaicatura bidimensionale. In un secondo momento i dati così raccolti saranno processati per ricostruire l’intero record archeologico usando la grafica volumetrica11. 6.4. Rilievo semiautomatico dei reperti Un altro spunto di ricerca emerso nel corso delle differenti missioni riguarda la documentazione e, di conseguenza, lo studio dei reperti recuperati dallo scavo. Il fatto che gli oggetti non possono essere portati in Europa comporta la necessità di documentare in loco tutto il materiale (attraverso fotografie digitali e disegni manuali tradizionali) con ovvio dispendio di tempo ed energie. Per questo motivo negli anni a venire sarà sperimentata una nuova metodologia di disegno informatico semi-automatico, che dovrebbe velocizzare la documentazione dei reperti. Questo sistema, nato dalla collaborazione tra Arc-Team e S. Cavalieri, è stato sviluppato tra 2008 e 200912. I primi esperimenti condotti sul materiale di Aramus hanno dimostrato la validità di questa tecnica nell’ottimizzare il processo. Questo risultato è stato raggiunto grazie alla combinazione di software free e open source che, attraverso cinque passaggi, permettono di ottenere un’immagine in bianco e nero non fotorealistica, simile a un’illustrazione scientifica eseguita a mano. Il flusso di lavoro inizia con una foto digitale dell’oggetto, successivamente rettifi10 BEZZI et alii 2010 b. BEZZI et alii 2006 c. 12 BEZZI et alii 2010 a. 11 261 8. Modello ottenuto tramite SfM e IBM. cata con un software di fotogrammetria (e-foto) e processata attraverso un modulo di riconoscimento automatico (jSVR), oppure vettorializzata manualmente (OpenJUMP); infine il rilievo viene completato con una punteggiatura impostata sulle ombre naturali dell’oggetto (Stippler). Per i reperti ceramici l’illustrazione viene integrata dal profilo della sezione registrato con strumenti meccanici. In base ai nostri test (fig. 9), questo metodo è compatibile con il budget di una normale missione archeologica e con l’orientamento didattico della Aramus Field School. Infatti, in normali condizioni, un disegno semi-automatico raramente impiega più di trenta minuti, anche nel caso di artefatti complessi. Inoltre, non sono richieste particolari capacità da parte dell’operatore, in quanto questa tecnica si basa principalmente su software poco interattivi: l’apporto umano si riduce a un controllo di qualità e a piccoli accorgimenti stilistici. In questo modo anche disegnatori non professionisti, come studenti e volontari, possono produrre illustrazioni scientifiche di buona qualità. 7. Conclusioni In conclusione è possibile sintetizzare la nostra esperienza con il FLOSS ad Aramus come una esperienza positiva finalizzata alla condivisione degli strumenti (software), conoscenze (insegnamento) e dati (pubblicazioni web). In particolare va considerato che la migrazione al software libero del 2006 è avvenuta senza nessun problema critico. Riguardo a prestazioni e stabilità, i software FLOSS 262 hanno dimostrato qualità paragonabile ad applicazioni chiuse e sotto alcuni aspetti anche migliori. La didattica è stata migliorata attraverso la possibilità di condividere e ridistribuire le applicazioni con gli studenti e il libero accesso al codice sorgente ha aiutato lo sviluppo della ricerca. Inoltre la filosofia FLOSS ha influenze positive in campo archeologico verso una libera circolazione dei dati, nella speranza di promuovere la trasparenza e l’oggettività nella ricerca accademica. 9. Esempio di disegno automatico con Stippler. 263 Abbrevizioni bibliografiche Palombini, S. Pescarin (edd.), Roma 2009, Firenze 2009, 183-193. ARCHEOFOSS 2010 ARCHEOFOSS. Open Source, Free Software e Open Format nei processi di ricerca archeologica, G. De Felice, M. G. Sibilano (edd.), Atti del V Workshop, Foggia 2010. BEZZI et alii 2010 a A. Bezzi - L. Bezzi - S. Cavalieri, Proposta per un metodo informatizzato di disegno archeologico, in ARCHEOFOSS 2010, 113-123. AVETISYAN 2001 H. Avetisyan, Aragats (Excavations of the Urartian Fortress), Yerevan 2001. AVETISYAN-ALLINGER CSOLLICH 2006 H. Avetisyan - W. Allinger Csollich, The Fortress of Aramus: Peliminary Report of Excavaions in 2004 and 2005, in Aramazd – Armenian Journal of Near Eastern Studies, I, 2006, pp. 105-134. BEZZI et alii 2005 A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, ArcheOS 1.0 Akhenaton, the first GNU/Linux live distribution for archaeologists, in Workshop 10 Archäologie und Computer. Kulturelles Erbe und neue Technologien, W. Boerner, S. Uhlirz (edd.), Wien 2005. BEZZI et alii 2006 a A. Bezzi - L. Bezzi - R. Gietl, Aramus 2006: an international archaeological expedition completely supported by Free and Open Source Software, in Workshop 11 Archäologie und Computer. Kulturelles Erbe und neue Technologien, W. Boerner, S. Uhlirz (edd.), Wien 2006. BEZZI et alii 2006 b A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, ArcheOS 1.1.6. Akhenaton: la nuova release della prima distribuzione GNU/Linux per archeologi, in Open Source, Free Software e Open Format nei processi di ricerca archeologici, Atti del I Workshop, R. Bagnara, G. Macchi Jànica (edd.), Grosseto 2006, Firenze, 2006, 7-16. BEZZI et alii 2006 c A. Bezzi - L. Bezzi - D. Francisci - R. Gietl, L’utilizzo di voxel in campo archeologico, in Geomatic Workbooks, 6, 2006. BEZZI et alii 2008 A. Bezzi - L. Bezzi - R. Gietl, Open Source and Archaeology: the next level. Building and developing hardware projects, in Workshop 13 Archäologie und Computer. Kulturelles Erbe und neue Technologien, W. Boerner, S. Uhlirz (edd.), Wien 2008. BEZZI et alii 2009 A. Bezzi - L. Bezzi - R. Gietl, Archeologia e Open Source, il prossimo passo: costruire e sviluppare progetti hardware, in ARCHEOFOSS, Open Source, Free Software e Open Format nei processi di ricerca archeologici, Atti del IV Workshop, P. Cignoni, A. 264 BEZZI et alii 2010 b A. Bezzi - L. Bezzi - B. Ducke, Computer Vision e Structure From Motion, nuove metodologie per la documentazione archeologica tridimensionale: un approccio aperto, in ARCHEOFOSS 2010, 103-111. KUNTNER-HEINSCH 2010 W. Kuntner - S. Heinsch, The Ostburg of Aramus. An urartian and achaemenid fortress. The stratigraphical evidence, in Proceedings of the 6th International Congress on the Archaeology of the Ancient Near East, P. Matthiae, F. Pinnock, L. Nigro, N. Marchetti (edd.), Rome 2008, Wiesbaden 2010, 339-348. Referenze iconografiche Autori: figg. 1-9. Sandra Heinsch University of Innsbruck - FB Vorderasiatische Archaeologie - Department of Ancient History and Near Eastern Studies. [email protected] Walter Kuntner University of Innsbruck - FB Vorderasiatische Archaeologie - Department of Ancient History and Near Eastern Studies. [email protected] Giuseppe Naponiello Arc-Team [email protected] http://www.arc-team.com/ La diffusione e condivisione dell'informazione scientifica in archeologia. Dario Berardi, Andrea Ciapetti, Maria De Vizia Guerriero, Alessandra Donnini, Matteo Lorenzini, Maria Emilia Masci, Davide Merlitti, Stefano Norcia, Fabio Piro, Oreste Signore Baseculturale.it, un portale semantico per i beni culturali Abstract The explosion of the social web leads to a completely new approach towards building of knowledge. The social approach to information sharing creates expectations of growth of the information assets and stimulates interest in contributing to the creation of new information and knowledge. This phenomenon is even more important within the domain of Cultural Heritage, if we consider that the concept of cultural asset is not restricted to the artistic masterpieces, but it includes everything which is part of culture and traditions. One of the main issues on the User Generated Content (UGC) is the lack of a uniform and agreed structure and tagging system (metadata), which makes uneasy to share knowledge on the web. Cultural heritage domain is inherently interdisciplinary and very rich in semantic associations. As such, it constitutes an excellent test bed for semantic web technologies and knowledge organization. The LABC (Laboratories for Culture) project and its prototypal portal are aimed to develop an innovative multimedia web 3.0 platform enabling the capture, sharing, and enjoyment of data on tangible and intangible cultural heritage and landscape. The LABC platform is designed to collect digital cultural and environmental resources from a broad base of users, and to reformulate such contents into scientifically structured information, available to both generic and authoritative users. Information collected through this web portal will automatically be structured using Semantic Web tools and technologies. This allows users to search and browse contents with different options: classic text retrieval, clustered, and semantic. Moreover, the platform allows for the creation of various “Laboratories”, i.e.: “specialized environments”, where a community of users can collaborate by entering and/or enriching information, which will then made available to the wider community of all users of the portal, and to the entire web community in general. Two important aspects fronted with the LABC project are the “sharing of information” and “language standardization”. In order to effectively share information, CIDOC CRM core ontology has been chosen as reference model. SKOS (Simple Knowledge Organization System) standard, defined by W3C to share vocabularies on the web, has been employed to codify, export and exchange the terminology used in within the portal domain. A specific component of the system, named SKOSware, manages vocabularies and thesauri in SKOS format. The entries of dictionaries and thesauri are uniquely identified by a Uniform Resource Identifier (URI). The SKOSware component allows for consultation and handling of vocabularies and thesauri, as well as validation by domain experts. Different types of users, with appropriate privilege levels, can contribute information: “professional users” can contribute with highly structured information, using special forms, thus ensuring compliance with the national cataloguing standards (the system can also import data from authoritative sources). “General users” can also contribute contents using less rigid, more agile integration modules, and semantically enrich information (according to the approach known as folksonomy) using tags that can be chosen freely, or selected from existing vocabularies and thesauri, on which they can browse and select. 1. Il progetto Il dominio dei beni culturali, per le sue caratteristiche di interdisciplinarità costi267 tuisce un eccezionale ambito di applicazione delle tecnologie semantiche. D’altro canto, il diffondersi dell’approccio sociale alla condivisione dell’informazione crea aspettative di crescita del patrimonio informativo e stimola l’interesse a contribuire alla creazione di informazioni e conoscenza. Questo fenomeno è ancora più rilevante quando si tenga presente che il concetto di bene culturale non è ristretto ai capolavori artistici, ma include tutto ciò che fa parte della cultura e delle tradizioni. Il progetto LABC (Laboratori per la cultura)1 sviluppato dall’azienda ETCWare con la collaborazione del CNR sede di Pisa e dell’ufficio italiano del W3C, nasce come un ambiente di aggregazione di informazioni sui beni culturali per la fruizione da parte del pubblico e del mondo scientifico che si pone come obiettivo lo sviluppo di una piattaforma multimediale web innovativa di tipo 3.0 che consenta l’acquisizione, la condivisione e la fruizione di contenuti culturali appartenenti al patrimonio storico, paesaggistico e artistico italiano, raccogliendo l’informazione sui beni culturali a partire da una base di utenza generica molto diffusa, e di trasformarla in informazione scientificamente strutturata, a disposizione sia dell’utenza autorevole che di quella generica. Nel caso di baseculturale.it, facendo forza sull’approccio di sviluppo “social” della piattaforma e sulle tecnologie del semantic web, l’utente ricopre un ruolo fondamentale con la possibilità di interagire direttamente con il portale contribuendo ad aumentare la base della conoscenza seguendo gli schemi catalografici definiti dall’ICCD, utilizzando appositi moduli per l’inserimento delle informazioni, che garantiscono il rispetto di tutti i vincoli previsti dalla normativa. Potranno anche contribuire con documenti meno articolati, utilizzando moduli di inserimento più agili e caratterizzare semanticamente l’informazione fornita inserendo (secondo l’approccio noto come folksonomy) tag che potranno essere scelti in piena libertà, oppure estratti dai vocabolari e thesauri già esistenti, sui quali sarà possibile navigare e operare una selezione. Un ultimo aspetto del progetto, ma non il meno importante, è rappresentato dallo sviluppo del modulo SKOSware; una libreria che consente la consultazione e la manipolazione dei vocabolari e thesauri definiti durante le fasi di mapping della scheda BDI che hanno caratterizzato lo sviluppo del progetto. 2. Formalismi e linguaggi Dovendo gestire una quantità considerevole di dati in un contesto di piena interazione sul web da parte di utenti diversi, nello sviluppo del progetto LABC 3.0, è stata rivolta una particolare attenzione all’utilizzo di standard internazionali in quanto strumenti necessari per semplificare e rendere coerente e consistente il processo di codifica digitale dei dati e quindi la successiva accessibilità e fruizione delle informazioni memorizzate. La normalizzazione della terminologia consente di ridurre il rischio di creare confusioni lessicali e ambiguità concettuali che finirebbero con il rendere inefficace qualsiasi ulteriore processo di estrazione e consultazione dei dati, mentre la scelta di standard internazionali rappresenta una garanzia per l’interoperabilità dei dati e il suo utilizzo futuro. Nel caso di LABC 3.0, la base della conoscenza iniziale è rappresentata dalla scheda dei Beni Demoetnoantropologici Immateriali elaborata dall’ICCD con la suddivisione dell’informazione in una serie di campi, eventualmente strutturati in sottocampi e raggruppati in insiemi di campi (denominati paragrafi). Paragrafi, campi e sottocampi possono essere ripetibili, rispettivamente nel contesto dell’intera scheda o del paragrafo di appartenenza o del campo di cui costituiscono la strutturazione. Alcuni dei campi mettono in relazione una scheda con altre, mediante un insieme di riferimenti verticali (componenti di un oggetto), orizzontali (oggetti che compongono un aggregato di oggetti) e semantiche (affinità defi1 Sviluppato nell’ambito del finanziamento di un progetto di RSI (Ricerca di Sviluppo Industriale) POR FESR Lazio 2007/2013 - Asse I - Attività I.1. 268 nite mediante la specifica di proprietà). La struttura schematica descritta, vuoi perché fa riferimento a una catalogazione su carta, vuoi perché risale ormai agli anni Ottanta, è molto distante dalla rappresentazione concettuale data dalle ontologie e in generale dal semantic web per cui si è reso necessario astrarre i concetti della scheda BDI facendo riferimento alla core ontology CIDOC-CRM2 sviluppata dall’ICOM mediante un’operazione di mapping tra le schede BDI (tracciato ICCD) e CRM. Per la terminologia, e quindi per la gestione e manutenzione di thesauri e dizionari, si è adottato lo standard SKOS (Simple Knowledge Organization System) definito dal W3C, per poter condividere sul web i vocabolari. Per la gestione dei vocabolari e thesauri in formato SKOS è stato realizzato uno specifico componente del sistema, denominato SKOSware. 3. Il mapping 3.1. La struttura della scheda BDI Come è stato accennato nel paragrafo 2, l’approccio catalografico adottato dall’ICCD nella formulazione della struttura delle schede BDI/BDM è quello classico, impostato all’inizio degli anni Ottanta, riconducibile a una serie di relazioni (1:1 o 1:N) tra l’oggetto descritto dalla scheda e istanze di altre entità/classi (per esempio, autore, attori) con delle connotazioni semantiche implicite. Ad esempio: manifestazione adotta comunicazione musicale comunicazione musicale impiega strumento musicale Come è stato precedentemente spiegato nel paragrafo 2, la normativa ICCD Beni Demo-etnoantropologici Immateriali articola in un unico schema informazioni riferibili a diverse entità concettuali per cui avremo per esempio: - il bene demo-etnoantropologico immateriale (ad esempio, la Festa dell’Assunta); - un evento particolare di “performance” del bene, che coincide con la “registrazione del bene” (ad esempio, la festa dell’Assunta svolta a Poirino, in Piemonte, il 15 agosto 1970, registrata in quell’occasione); - luoghi geografici collegati al bene e/o all’evento in relazione; - persone fisiche o morali collegati al bene e/o all’evento in relazione; - oggetti e animali di varia tipologia collegati al bene e/o all’evento in relazione; - documentazione di vario genere collegata all’evento in relazione al bene. Ciascuna di queste entità concettuali principali è meglio specificata da ulteriori informazioni e attributi come denominazioni, tipologie, datazioni, descrizioni, ecc., spesso codificate in vocabolari controllati aperti o chiusi. 3.2. La core Ontology CIDOC-CRM L’approccio catalografico adottato per le schede ICCD BDI differisce profondamente dall’approccio ontologico adottato dal semantic web attuale e da qualsiasi struttura rappresentabile in RDF in quanto, da una parte abbiamo un sistema di catalogazione che tende a schematizzare e semplificare in campi e sottocampi i vari attributi e relazioni di una entità, per cui le relazioni semantiche rimangono del tutto implicite nel contesto di una scheda catalografica, dall’altra abbiamo la struttura ontologica che viene espressa con la 2 http://www.cidoc-crm.org/. 269 1. Schema concettuale CIDOC-CRM della classe E28 Conceptual object. tripla “soggetto-predicato-oggetto” con l’intento di esplicitare la struttura logica dell’informazione rappresentata in un linguaggio naturale con relazioni e istanze rappresentate in un formalismo RDF. Dovendo realizzare un’infrastruttura semantica che permetta di navigare tra le informazioni strutturate secondo lo schema proposto dall’ICCD sfruttando le relazioni semantiche, si è reso necessario formalizzare la scheda BDI con un’ontologia di base che corrispondesse a dei criteri di interoperabilità e standardizzazione. Per questo motivo è stato scelto il CIDOC-CRM (fig. 1). Il CIDOC-CRM (Conceptual Reference Model) (CROFTS, DOERR, GILL, STEAD, STIFF 2005) è un’ontologia formale messa a punto per facilitare l’integrazione, la mediazione e l’interscambio di informazioni eterogenee relative al patrimonio archeologico. Il CRM, sviluppato dal 1996 dall’International Committee for Documentation (CIDOC) dell’International Council of Museums (ICOM) è stato di recente accettato come standard ISO21127:2006. Obiettivo primario del CRM è consentire lo scambio di informazioni e l’integrazione tra fonti eterogenee relative ai Beni Culturali. Esso è finalizzato a fornire una chiara definizione semantica per trasformare disparate e localizzate fonti in una globale e coerente risorsa. La sua prospettiva è sopranazionale e quindi indipendente da qualsiasi specifico contesto locale. Più specificamente, esso definisce la non esplicitata struttura semantica dei database e dei documenti strutturati adoperati nel campo del patrimonio culturale in termini di una formale ontologia. Non definisce alcuna terminologia, né è finalizzato a proporre ciò che le istituzioni culturali dovrebbero documentare; esso, piuttosto, spiega la logica con la quale ognuno scheda e classifica un documento, consentendo in tal modo di facilitare l’integrazione delle risorse. Il CIDOC-CRM fornisce, in termini di logica, una analisi ottimale delle strutture formali adoperate nel processo di documentazione; come tale non consente di implementare specifiche procedure, quanto di comprendere gli effetti di tale ottimizzazione sulla accessibilità semantica dei contenuti. Lo scopo del CIDOC CRM può essere sintetizzato semplicemente come una forma di specializzazione della conoscenza, originariamente indirizzata alla catalogazione museale e successivamente estesa ad altri settori della gestione di fonti archeologiche; esso può essere una utile e articolata guida per una applicazione a più ampi principi di carattere generale, laddove sia necessario garantire una scambio e una integrazione di fonti. Il CRM è un dominio ontologico nel senso usato in 270 informatica espresso con un object-oriented semantic model, comprensibile sia agli esperti di beni culturali che agli informatici; può essere implementato in qualsiasi relational o object-oriented schema. Diversamente dal Dublin Core, che fornisce uno schema prestabilito per la descrizione di informazioni associabili a un oggetto digitale, il CIDOC-CRM costituisce un approccio semantico all’integrazione dei dati basato sulla coerente formalizzazione concettuale della conoscenza racchiusa nel modello-dati. Il CIDOC-CRM consta di 81 classi, identificate da numeri preceduti dalla lettera E (entities), e 132 proprietà che presentano un numero preceduto dalla lettera P. Come mostrato dal seguente diagramma l’oggetto che raggruppa le principali classi è l’evento: I concetti fondamentali di partecipazione, spazio, tempo, attore e soggetto ruotano intorno all’elemento centrale della Temporal Entity; in questo modo le entità principali si relazionano le une alle altre solo attraverso eventi. 2. Schema concettuale sviluppato con Protegè e relativo al mapping in CIDOC-CRM della scheda BDI. 3.3. La strategia di mapping Come riportato nei paragrafi precedenti, l’aspetto più importante del nostro progetto è rappresentato dall’interoperabilità semantica, motivo per cui alle fasi di mapping è stata rivolta un’attenzione particolare. Operativamente, in prima istanza è stata analizzata la struttura dati della scheda ICCD BDI, circoscrivendo i campi della scheda che riportano a specifiche classi CRM che formalizzano i concetti e gli “eventi” relativi al bene censito e schedato. L’analisi ha portato a un primo mapping cartaceo con classi e relazioni CIDOC. Successivamente, la struttura è stata sviluppata con il software Protegè creando un file OWL-DL (fig. 2). Nella definizione dello schema di mapping, fondamentali si sono rivelate le classi CRM E28 Conceptual Object, E31 Document ed E55 Type rappresentanti rispettivamente il bene demo-etnoantropologico, la scheda e la classe usata come data entry per l’allineamento del CRM con i thesauri sviluppati che contengono informazioni tratte da campi soggetti a vocabolari di controllo e/o da serie di campi che contengono informazioni gerarchizzabili. L’approccio scelto per il mapping porta dunque a procedere estrapolando dalla scheda BDI entità e concetti fondamentali e traducendoli secondo uno schema ontologico in classi e proprietà del CIDOC, riproducendone gli attributi e le relazioni utili a esporre, 271 attraverso una serie di triple, le informazioni più significative che caratterizzano la conoscenza e a operare ragionamenti complessi in base a connessioni semantiche; per esempio le opportune classi e proprietà CIDOC-CRM permettono di rappresentare il collegamento tra il bene (E28 Conceptual object) e il documento (E31 Document) che lo descrive (P70 Documents). L’interoperabilità semantica e di formato, nel caso del mapping per il progetto LABC 3.0, si è rivelata fondamentale durante la definizione dei campi della scheda BDI relativi alla localizzazione e denominazione geografica in quanto alle classi CRM E53 Place e E48 Place name, è stato allineato il thesaurus geonames3 richiamandone l’URI per la definizione dei place name. 3.4. Il formato SKOS Il Simple Knowledge Organization System (SKOS) sviluppato dal consorzio internazionale W3C è un formalismo standard per la rappresentazione della conoscenza espressa in thesauri, tassonomie e vocabolari. Usando SKOS, la conoscenza può essere rappresentata come concetti machine readable che possono essere scambiati tra due o più piattaforme in quanto interoperabili e pubblicati sul web in modo standard. Lo SKOS viene formalmente definito come un’ontologia OWL full i cui dati possono essere codificati secondo la sintassi RDF prevedendo la formalizzazione dei concetti in triple (RDF:Concepts). Lo SKOS struttura la conoscenza in uno schema concettuale comprendente una serie di concetti. Sia lo schema che i concetti sono identificati da URIs. Tali concetti sono relazionati tra di loro con relazioni gerarchiche o associative. I concetti possono essere etichettati con n stringhe poi, all’interno della struttura, verrà definita una pref:Label; le altre verranno categorizzate come alt:Label. Ai concetti possono essere assegnate una o più annotazioni (annotations) che identificano unicamente il concetto. I concetti SKOS possono essere documentati con note di vario tipo (skos:note, skos:scopeNote, ecc.), raggruppati in collezioni (collections) che possono essere etichettate e ordinate (ex alfabeticamente) e, infine, possono essere mappati (mapped) su altri SKOS concept e concept schema. 3.4.1. I thesauri degli strumenti musicali e delle occasioni Come riportato nel paragrafo 3.2, il mapping della scheda BDI viene definito utilizzando le classi e le relazioni dell’ontologia CIDOC-CRM. Tuttavia, la struttura gerarchica e i vocabolari controllati proposti dall’ICCD per la compilazione di alcuni campi della scheda in questione (come ad esempio sezione CUS), sono facilmente esprimibili in concetti SKOS dal momento in cui rappresentano delle liste valori aperte che facilmente si prestano a una codifica in un thesaurus SKOS. Nel caso del progetto presentato sono stati sviluppati due thesauri: uno per la definizione degli strumenti musicali4 e uno per la definizione delle occasioni5 e rispettivamente denominati ThesaurusStrumentiMusicali e ThesaurusOccasioni. In entrambi i casi si tratta di thesauri bilingui con una struttura gerarchica su quattro livelli. Nella In particolare, il thesaurus degli strumenti musicali prevede un top concept “Strumenti” che ha come narrowerTransitive la classificazione degli strumenti espressa dai concept 3 http://www.geonames.org/. Campo CUS della scheda BDI. 5 Campo CA della scheda BDI. 4 272 “strumentiAerofoni”, “strumentiCordofoni”, “strumentiMembranofoni”, “strumentiIdiofoni”, “strumentiClassificazioneMista” che a loro volta hanno come narrower i singoli strumenti. Nel caso dei flauti e dei tamburi è stato definito un concept intermedio “flauti” e “tamburi” dal momento in cui nel vocabolario controllato definito dall’ICCD si ha una struttura piatta che non fa alcuna distinzione semantica all’interno dei singoli strumenti idiofoni e dei singoli strumenti membranofoni per cui tutte le tipologie dei flauti sono messe allo stesso livello dell’organetto, della zampogna, della ciaramella, ecc., così come le diverse tipologie di tamburi sono messe allo stesso livello della grancassa o del mirliton per cui: 3. Architettura di sistema del portale baseculturale.it. Strumenti Strumenti Aerofoni -Flauti -Flauto a Becco -Flauto di Pan -Flauto traverso -Ecc.; Strumenti Membranofoni -Tamburi -Tamburo Militare -Tamburo a barile -Tamburo a clessidra -Ecc. Nello sviluppo dei thesauri sono state utilizzate principalmente le relazioni skos:broader, skos:narrower e skos:narrowerTransitive. Dal momento in cui, l’ontologia di riferimento per il mapping rimane sempre quella sviluppata in CIDOC-CRM, grazie alle proprietà di interoperabilità dell’RDF i thesauri SKOS verranno allineati all’ontologia sfruttando la classe E55 Type come data entry del thesaurus. 4. Infrastruttura tecnologica Nello sviluppo del portale baseculturale.it, sono state impiegate tecnologie open source e piattaforme specifiche per la gestione semantica della base di conoscenza (fig. 3). 273 4. Interfaccia Skosware per la gestione dei thesauri formato SKOS. Complessivamente baseculturale.it è stato sviluppato su Liferay portal Server, il più diffuso portal server open source. Utilizzato dalla comunità Java Enterprise, consente la realizzazione di portali dinamici anche molto complessi e ricchi di servizi tramite l’utilizzo di portlet riutilizzabili lato server. Nel corso del progetto LABC 3.0 è stata inoltre realizzata una piena integrazione tra Liferay e il motore di indicizzazione e ricerca Apache Solr, abilitando così la possibilità di ricerche complesse come: - Faceted searches (ricerche per categorie multiple di classificazione tassonomica); - Ricerche con supporto per georeferenziazione e restrizioni spaziali (bounding boxes, ecc.); - Ricerche con supporto per cronoreferenziazione e restrizioni temporali. Per quanto concerne la gestione semantica della base di conoscenza di baseculturale.it, è stato integrato nell’architettura il triplestore Allegrograph come base per la gestione dei dati e metadati codificati in triple RDF (triplestore) e SKOS. Ad Allegro, tramite un API rest JAVA, è stato collegato poi SKOSware che permette di gestire ed editare i thesauri SKOS direttamente all’interno del repository semantico di Allegrograph. L’interfaccia SKOSware (fig. 4) è stata sviluppata all’interno del progetto LABC 3.0 e permette agli utenti autenticati sul portale beseculturale.it di gestire le proprietà, i concetti e gli attributi dei thesauri tramite un’interfaccia grafica. SKOSware si integra con Liferay attraverso un API rest e, attraverso un adapter, è possibile integrarlo con altri CMS. Con SKOSware, sfruttando un’interfaccia di interazione, è possibile fare delle query SPARQL complesse che interrogano il repository Allegrograph permettendo, quindi, agli utenti di annotare semanticamente i contenuti del CMS che caratterizzano la base della conoscenza e valorizzare i concetti e l’ontologia di base. Le annotazioni fatte dagli 274 utenti stessi, oltre a contribuire all’arricchimento della base della conoscenza del portale, essendo codificate in RDF, potranno essere riutilizzate da altri utenti tramite il paradigma dei linked open data in quanto standard e interoperabili. 5. Conclusioni Seppur in fase di sviluppo, SKOSware ha dimostrato di essere un tool veloce e affidabile in ogni fase del processo di gestione dati, soprattutto grazie alla potenza e alla solidità del triplestore al quale è collegato (Allegro). Il connubio fra open source e linguaggi standard del web Consortium ha consentito la creazione di un sistema totalmente indipendente da formati proprietari, non solo per quanto riguarda il codice in cui è scritto il software utilizzato, ma anche e soprattutto per il formato realmente open con cui i dati sono archiviati. RDF garantisce, infatti, trasparenza e completa portabilità delle informazioni per qualsiasi uso diverso da quello proposto, liberando per sempre i dati gestiti da ogni rischio di obsolescenza e inutilizzabilità future. Gli sviluppi previsti per l’applicazione comprende una serie di funzioni per l’integrazione con altri portali semantici e la creazione di un set dati rilasciato come linked open data. 275 Bibliografia EtcWare s.r.l [email protected] BARNERS LEE 1998 T. Barners Lee, Semantic Web Road map (disponibile su http://www.w3. org/DesignIssues/Semantic.html). Maria De Vizia Guerriero CNR - W3C Italia [email protected] BARNERS LEE 2007 T. Barners Lee, Linked Data (disponibile su http://www.w3. org/DesignIssues/Semantic.html). Alessandra Donnini EtcWare s.r.l [email protected] BARNERS LEE et alii 2001 T. Barners Lee - J. Hendler - O. Lassila, The semantic web, in Scientific American, 2001, 34-43. Matteo Lorenzini EtcWare s.r.l [email protected] BEN HAMIDA et alii 2009 K. Ben Hamida - S. Di Giorgio - I. Buonazia - E. Masci - D. Merlitti, CulturaItalia: aspetti tecnico scientifici, in DigItalia 2009, Roma 2009, 83-102. Maria Emilia Masci EtcWare s.r.l [email protected] D’ANDREA 2006 A. D’Andrea, Documentazione archeologica, standard e trattamento informatico, Budapest 2006. D’ANDREA et alii 2006 A. D’Andrea - G. Marchese - T. Zoppi, Ontological Modelling for Archaeological Data, in VAST. International Symposium on Virtual Reality, Archaeology and Intelligent Cultural Heritage, Proceedings of Conference, M. Ioannides, D. Arnold, F. Niccolucci, K. Mania (edd.), Cipro 2006, 211-218. GUARINO 1998 N. Guarino, Formal ontology and information systems formal ontology, in Information system, Proceedings of FOIS, Amsterdam 1998, 3-15. HYVONEN 2009 E. Hyvonen, Semantic portal for cultural heritage, in Handbook of Ontologies, Berlin 2009. ISAAC-SUMMERS 2008 A. Isaac - E.Summers, SKOS Simple Knowledge Organization System Primer. W3C Working Draft, World Wide Web Consortium (disponibile su http://www.w3.org/TR/skos-primer/). SIGNORE et alii 2005 O. Signore - O. Missikoff - P. Moscati, La gestione della conoscenza in Archeologia: modelli, linguaggi e strumenti di modellazione concettuale dall’XML al Semantic Web ,in ACalc, 16, 2005, 291-319. Referenze iconografiche Autori: figg. 1-4. Dario Berardi EtcWare s.r.l [email protected] Andrea Ciapetti 276 Davide Merlitti EtcWare s.r.l [email protected] Stefano Norcia EtcWare s.r.l [email protected] Fabio Piro EtcWare s.r.l [email protected] Oreste Signore CNR - W3C Italia [email protected] Valentina Vassallo Denis Pitzalis La libreria digitale di Cipro Abstract Conservation, long-term preservation and certificate of authenticity and provenance for digital material play an increasingly important role in a world where the amount of digital information is increasing. The digital libraries came up from the necessity to conserve and preserve these materials and to facilitate their use, both for the born digital both for the digitized ones. The Cyprus Digital Library comes from the involvement of the Cyprus Institute and other Cypriot bodies within the European projects related to Europeana, the European digital library that provides digital content aggregation of local cultural institutions, their conservation, the research for common standards for the description, the development of institutions through their collections, the study of the sustainability of their content, the research of methodologies and techniques for effective access to the data and cultural information. ATHENA, EuropeanaLocal, Linked Heritage and CARARE are projects in which the Cyprus Institute participates as partner and which provides content such as national aggregator. For this aim, we created a repository (OAI-PMH compatible) based on LIDO metadata schema (Lightweight Information Describing Objects), to enable data exchange with other related databases and to collect information on the physical objects of the collections from different Cypriot content providers and describe them through the use of metadata. This repository is based on an open-source software, oriented to the use of Linked Open Data: EPrints. This paper will describe the methodology used in building the digital library, the structure of the repository based on open source software and the description of the aggregated content. 1. Introduzione La conservazione, la preservazione a lungo termine e la certificazione di autenticità e provenienza del materiale digitale ricoprono un ruolo sempre più importante in un mondo dove la quantità di informazioni in formato digitale è sempre maggiore. Così come si legge nella Carta sulla Conservazione del Patrimonio Digitale dell’UNESCO1, l’imponente e vario numero di informazioni nate digitali o convertite in formati digitali (di tipo culturale, educativo, scientifico, amministrativo, tecnico, legale, medico, ecc.), ha determinato nelle istituzioni culturali, che hanno la missione di preservare questo patrimonio, l’esigenza di valutare e operare delle soluzioni e delle linee di condotta nella preservazione, e soprattutto nel mantenimento nel tempo, di tale materiale a favore delle generazioni future. Le librerie digitali nascono quindi per rispondere all’esigenza della conservazione e preservazione di questo materiale e per facilitarne la fruizione a più ampio raggio. 1 National Library of Australia 2003. 277 2. Lo stato dell’arte La Libreria Digitale di Cipro nasce dal coinvolgimento del Cyprus Institute e altri enti ciprioti all’interno dei progetti europei legati a Europeana, la biblioteca digitale europea che prevede l’aggregazione di contenuti digitali delle istituzioni culturali locali, la loro conservazione, la ricerca di standard comuni per la descrizione, la valorizzazione di istituzioni attraverso le loro collezioni, lo studio della sostenibilità dei loro contenuti, la ricerca di metodologie e tecniche efficaci per l’accessibilità al dato e alle informazioni culturali. ATHENA, EuropeanaLocal, Linked Heritage e CARARE sono progetti a cui il Cyprus Institute partecipa come partner e a cui fornisce contenuti come aggregatore nazionale. 2.1. ATHENA Il progetto ATHENA (http://www.athenaeurope.org/), nato come Rete di Buone Pratiche (Network of Best Practice) nell’ambito del programma eContentplus, trae le sue origini dalla precedente rete di MINERVA. Il suo scopo è quello di riunire le parti interessate e i proprietari di contenuti culturali provenienti da musei e istituzioni culturali di tutta Europa, e di valutare e integrare strumenti specifici volti alla promozione di standards per la digitalizzazione e i metadati, sulla base di una comune serie di norme e linee guida per creare accesso al loro contenuto. Il progetto ATHENA, inoltre, opera da aggregatore attraverso la fornitura dei contenuti provenienti dalle istituzioni culturali a Europeana (che a sua volta comprende una serie di progetti gestiti da diverse istituzioni culturali). Il progetto, iniziato nel 2008, è giunto a conclusione ad aprile 2011: 30 mesi di lavoro che hanno portato al coinvolgimento di 23 Paesi con un totale di più di 130 istituzioni culturali e musei e raccogliendo circa 5 milioni di metadati, di cui quasi 4 milioni già on line sul sito di Europeana. Cipro, grazie al suo contributo al progetto di circa 3000 metadati, ha determinato una percentuale di incremento dei propri contenuti nazionali (già in Europeana grazie ad altri progetti) e del proprio profilo di visibilità del ben + 7.494,8%. 2.2. EuropeanaLocal EuropeanaLocal (http://www.europeanalocal.eu/) è un progetto che fa parte della Rete di Buone Pratiche nell’ambito del programma eContentplus della Commissione Europea. Iniziato anch’esso nel 2008 e terminato nel maggio 2011, è un consorzio di 27 Paesi, con una vasta esperienza che va dal settore culturale alle librerie digitali, dagli standard ai servizi di aggregazione, in grado di raccogliere circa 2 milioni di oggetti digitali da inviare a Europeana e provenienti da ambito più strettamente locale/regionale. A tal fine le istituzioni coinvolte, oltre a rendere disponibile i propri contenuti culturali a Europeana, sia durante che dopo il termine del progetto, hanno lavorato alla promozione dell’utilizzo delle infrastrutture, dei tool e degli standard, in particolare attraverso la realizzazione di repository OAI-PMH e dell’utilizzo degli standard di metadati di Europeana (ESE, Europeana Semantic Elements). In dettaglio, Cipro fornisce al progetto più di 12.000 oggetti digitali corredati di relativi metadati. 2.3. CARARE CARARE (http://www.carare.eu/) è una Rete di Buone Pratiche finanziata dalla 278 Commissione Europea nell’ambito dell’ICT Policy Support Programme che ha avuto inizio nel febbraio 2010 con una durata di tre anni. Il progetto è nato per coinvolgere e supportare la rete europea di agenzie e organizzazioni operanti nell’ambito dei beni culturali, i musei archeologici, gli istituti di ricerca e archivi digitali con le finalità di: - rendere disponibili i contenuti digitali del patrimonio archeologico e architettonico attraverso Europeana; - aggregare contenuti e fornire servizi; - facilitare l’accesso a contenuto 3D e di Realtà Virtuale attraverso Europeana. Il progetto ha un importante ruolo nel coinvolgimento di istituzioni responsabili della ricerca, protezione e promozione di importanti monumenti archeologici e architettonici, centri storici e complessi industriali monumentali del patrimonio nazionale, europeo e mondiale, fornendo a Europeana non solo contenuto 2D ma anche l’accesso a quello 3D e alla Realtà Virtuale. Infatti attraverso l’elaborazione di determinate metodologie si provvederà alla fornitura a Europeana di un punto di accesso a contenuto 3D e 3D/VR attraverso un flusso di lavoro stabilito e documentato attraverso casi studio e materiale formativo. Poiché si tratta di un progetto in corso, Cipro sta lavorando all’analisi, elaborazione e alla raccolta del materiale da fornire al progetto e nei prossimi mesi si prevede di avviare l’ingestione di circa 1000 oggetti digitali. 2.4. Linked Heritage Il progetto Linked Heritage (http://www.linkedheritage.org/) ha avuto inizio in aprile 2011 e avrà una durata di 30 mesi con gli obiettivi di: - contribuire all’incremento di nuovi contenuti in Europeana, provenienti sia dal settore pubblico che da quello privato; - migliorare la qualità dei contenuti in termini di ricchezza dei metadati, di loro potenziale riuso e di unicità; - consentire una migliore ricerca, recupero e utilizzo dei contenuti di Europeana. In questa ottica il progetto faciliterà e fornirà su più larga scala un miglioramento a lungo termine di Europeana e dei suoi servizi, affrontando anche differenti problematiche quali le terminologie descrittive non-standard, la mancanza di contenuto del ventesimo secolo e del settore privato e infine la preservazione di modelli di metadati complessi all’interno degli schemi di metadati di Europeana. Il consorzio, formato da 22 Paesi (al cui interno lavoreranno ministeri, agenzie governative, fornitori di contenuti e aggregatori, importanti centri di ricerca, editori e piccole imprese), coinvolgerà organizzazioni che per la prima volta contribuiranno a Europeana, portando un nuovo apporto di 3 milioni di dati che copriranno un ampio spettro di tipologie di contenuti culturali. Poiché si tratta di un progetto appena iniziato, non si ha una stima precisa del contenuto fornito dall’aggregatore cipriota (il Cyprus Institute), ma si valuta in circa un migliaio di dati (con relativi metadati) che potrebbero aumentare grazie sia alla continua produzione di prodotti digitali e all’opera di digitalizzazione nell’ambito dei progetti di ricerca che al coinvolgimento di nuovi content providers locali. 3. La Libreria Digitale di Cipro È chiaro che questi numerosi dati digitali devono essere raccolti in maniera ordinata in modo da garantirne non solo la loro consultazione on line da parte dei vari utenti ma anche la loro conservazione nel tempo. Per fare questo la Libreria Digitale di Cipro si pro279 pone come aggregatore nazionale, tramite il quale i partners ciprioti dei progetti precedentemente descritti possono condividere i propri dati e metadati con Europeana2. A tal fine è stato creato un repository (OAI-PMH compatibile), basato sul metadata schema LIDO (Lightweight Information Describing Objects), per permettere lo scambio di dati con altri repository affini e per raccogliere informazioni sugli oggetti fisici delle collezioni provenienti dai diversi content providers ciprioti. 3.1. L’utilizzo dell’open source Il repository è basato su un software open source orientato all’utilizzo di Linked Open Data: EPrints (http://www.eprints.org/). EPrints è un software free e open source per la costruzione di repositories open access compatibili con il protocollo OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting o Protocollo per il raccoglimento dei metadati dell’Open Archive Initiative). Sviluppato presso l’Università di Southampton e rilasciato sotto licenza GPL presenta molte delle caratteristiche osservate di solito in sistemi di Document Management, ma è utilizzato principalmente per archivi istituzionali e riviste scientifiche. Le sue funzionalità, la possibilità di controllo a basso livello e la flessibilità nella gestione di utenti (gestori del repository, gestori del contenuto, ricercatori, amministratori tecnici), modelli (oggetti, eventi, immagini, testi) e collezioni, e la facilità di accesso sono stati sicuramente i motivi della scelta di questo software open source per la costruzione della Libreria Digitale di Cipro. Inoltre, poiché è di solito utilizzato per la creazione di repositories per dati di ricerca letterari e scientifici, tesi e rapporti, creazioni multimediali provenienti da collezioni, mostre e anche spettacoli, risultava il più adatto alla creazione di una libreria digitale che soddisfacesse i contenuti provenienti dai vari providers locali (testi, collezioni fotografiche, archeologia, ricerca scientifica, ecc.). 3.2. LIDO (Lightweight Information Describing Objects) Come è stato precedentemente accennato, il repository è basato su LIDO (Lightweight Information Describing Objects), uno schema di metadati appositamente realizzato nell’ambito del progetto ATHENA e basato a sua volta sul modello di riferimento concettuale CIDOC CRM. È uno schema di harvesting in XML in grado di rappresentare con ricchezza di particolari tutti i dati descrittivi degli oggetti digitali (in particolare si presta ottimamente alla descrizione di oggetti museali) e garantisce una buona interoperabilità con portali che aggregano risorse culturali3. Nasce dall’integrazione degli schemi di metadata CDWA Lite e museumdat, sulla base dello standard SPECTRUM, ed è compatibile con l’ontologia CIDOC. Nello specifico, LIDO (v.1.0) è organizzato in 7 aree delle quali 4 sono di carattere descrittivo e 3 amministrativo4: Descriptive Information - Object Classification Object type (obbligatorio) Classification; - Object Identification 2 NISO 2004. BOEUF et alii 2005. 4 COBURN et alii 2010. 3 280 Title/Name (obbligatorio) Inscriptions Repository Display/Edition Description Measurements; - Event Event Set (Event ID, Event type, Object’s role in the event, Event name, Actors, Cultures involved, Date, Period, Places, Event method, Materials and techniques, Other objects present at the event, Related events, Description of the event); - Relation Subject Set Related Objects; Administrative information - Rights Work Rights type Rights holder Rights dates Credit line; - Record Record ID (obbligatorio) Record Type (obbligatorio) Record Source (obbligatorio) Record rights Metadata references; - Resource Link Resource ID Relationship type Resource type Resource rights View description View type View date Resource source Related resources Resource metadata location. 3.3. La struttura del repository Illustriamo qui di seguito come è strutturata l’architettura del repository5. La gestione del deposito è differente a seconda dell’utilizzatore che vi accede. A tal proposito sono stati creati sei profili che hanno un’accessibilità diversificata alla gestione dei contenuti: - Public. Questo accesso è quello di base e permette a un comune utente (il pubbli5 3D-COFORM 2009. 281 1. La gestione del deposito da parte di un utente abilitato. co generale) di poter accedere all’interfaccia del repository, di navigare all’interno dello stesso e avere la possibilità di visionare le thumbnails degli oggetti digitali e i metadati relativi. - User. Tramite questo accesso è possibile navigare all’interno del repository con dei privilegi speciali come la possibilità di scaricare certo materiale. - Local content uploader. Attraverso questo accesso l’utente abilitato ha la possibilità di poter navigare all’interno del deposito, caricare i contenuti, modificarli. - Local content admin. Questo tipo di utente ha accesso al deposito e alla navigazione al suo interno. Oltre a poter compiere le azioni degli utenti descritti precedentemente, ha la possibilità anche di poter modificare ed eliminare il contenuto gestito dal Local content uploader. - Content admin. L’utente facente parte di questa categoria è abilitato a gestire e a eliminare qualsiasi contenuto caricato da qualsiasi utente di quelli descritti in precedenza. - Admin. Infine, l’admin è l’amministratore generale di tutto il repository (di solito coincide con lo stesso costruttore del deposito) e ha chiaramente la possibilità di gestione e controllo, sia tecnico che contenutistico, sulla struttura. Tutte le modifiche degli utenti abilitati sono tracciate in modo da poter visualizzare i cambiamenti apportati al contenuto e le ricerche salvate. Gli utenti abilitati alla gestione del contenuto e delle informazioni relative (metadati) possono verificare attraverso una prima schermata il materiale fino ad allora caricato, le ultime modifiche (Last Modified), il titolo del record (Title), il tipo di item (Item Type) e il suo status (Item Status), ovvero se si tratta di contenuto in lavorazione, sotto esame, già nell’archivio on line o eliminato. Inoltre, è possibile avere un accesso veloce all’oggetto digitale permettendone la sua visualizzazione, la sua modifica, la sua eliminazione o il suo deposito on line (fig. 1). Lo user abilitato quindi può gestire il deposito e avviare il caricamento dei contenuti e la mappatura dei relativi metadati sulla base della struttura descrittiva di LIDO e arrivare infine alla pubblicazione dell’oggetto digitale on line. Vediamo un esempio pratico. Inseriamo le informazioni relative al tipo (Type) di materiale che stiamo caricando. In questo modo possiamo selezionare il tipo più appropriato per il deposito che stiamo operando. Per esempio se si tratta un manufatto di un artista o di un prodotto di uno specifico lavoro, opereremo la scelta descrittiva Artefact. Il passo successivo dà la possibili282 tà di fornire informazioni sui dettagli (Details), fornendo una classificazione a scelta tra alcuni elementi: per esempio, se si tratta di una pittura, di una scultura, di un prodotto tessile, ecc. Più approfonditamente sarà possibile descrivere il tipo specifico di oggetto o il lavoro: per esempio nel caso di una pittura, possiamo specificare che si tratta di un’icona. Nella descrizione sarà possibile poi fornire ulteriori informazioni riguardo all’identificazione dell’oggetto (Object identification: per esempio il luogo di conservazione, il numero di inventario, le misure dell’oggetto, la forma); all’evento creazione dell’oggetto (Object Creation Event: l’artista, la data dell’evento, la cronologia, luogo di ritrovamento, il materiale, la tecnica e la descrizione dell’evento); ai diritti relativi all’oggetto (Object Rights: il tipo, la data, il possessore), alle informazioni del record (Record information: la fonte, il tipo, la data, il possessore, i crediti)6. Solo dopo aver completato la descrizione dell’oggetto digitale, sarà possibile caricarlo (associandone la preview) e depositarlo on line. A questo punto l’oggetto è visualizzabile dal pubblico sul web all’indirizzo di riferimento. 4. I contenuti Attualmente i content providers locali che forniscono i dati alla libreria digitale descritta sono il Ministero dell’Educazione e della Cultura, il Dipartimento di Antichità, la Collezione privata Der Avedissian-Hawley, la fondazione Arcivescovo Makarios III, con il Museo Bizantino e la Galleria d’arte, e lo stesso Cyprus Institute. A loro volta questi providers raccolgono dati e contenuti da sotto organizzazioni, istituzioni, archivi e fondi sotto la loro giurisdizione e il tutto viene aggregato dal Cyprus Institute attraverso la Libreria Digitale di Cipro. Più di 15000 oggetti digitali con i relativi metadati sono già a disposizione e in fase finale di caricamento: il numero tende ad aumentare sia per la finalizzazione dei progetti precedentemente descritti, sia grazie alle nuove campagne di digitalizzazione e di produzione di materiale digitale dei providers locali. Il contenuto fino a ora accessibile consiste in materiale relativo alla storia e alla cultura di Cipro ed è rappresentato prevalentemente da: - Testi: in particolare i testi sono rappresentati da manoscritti, riviste, gazzette, corrispondenza varia, rapporti tecnici e libri di differente genere relativi alla storia, all’archeologia, alla musica, alla società, all’economia e alla politica dell’isola di Cipro (fig. 2); - Immagini: le immagini conservate appartengono fondamentalmente a due tipologie. Il primo gruppo raccoglie fotografie storiche: si tratta di immagini legate alla comunità armena presente nell’isola e a importanti avvenimenti religiosi, storici e politici della stessa; fotografie di importanti avvenimenti storico-politici di Cipro; immagini di personaggi famosi o della società civile (fig. 3); immagini di edifici storici, alcuni dei quali non più esistenti a tutt’oggi. Il secondo gruppo si suddivide in due ulteriori sottogruppi relativi ad arte e archeologia di Cipro: il primo è costituito da immagini ad alta risoluzione (fig. 4) di manufatti artistici (per esempio le immagini di icone bizantine provenienti da musei locali)7; il secondo raccoglie immagini di oggetti 3D relativi ad acquisizioni digitali di manufatti archeologici, artistici e architettonici tramite tecnologia laser scanner e fotogrammetria (fig. 5). 5. Conclusioni e sviluppi futuri Allo stato attuale, quindi, la libreria digitale di Cipro contiene e mette a disposizio6 7 PAPAGEORGIOU-ELIADES 2008. PAPAGEORGHIOU 1992. 283 2. Esempio di testo conservato all’interno del repository. ne del pubblico e dei progetti europei più di 15000 oggetti digitali con relativi metadati, ma possiamo affermare che si tratta di un punto di partenza. Infatti, l’esperienza e la multidisciplinarietà dei professionisti coinvolti in questo progetto di ricerca, l’utilizzo di metodologie e di processi open e la disponibilità di materiale a elevato interesse culturale permette di garantire una sostenibilità futura sia a livello tecnologico che contenutistico. È già previsto e in fase di lavorazione la descrizione e l’accesso a dati 3D di manufatti archeologici, animazioni, file video e audio8. Infatti il Cyprus Institute, aggregatore nazionale per i progetti di librerie digitali, 8 284 DOERR et alii 2010. grazie allo STARC (Science and Tecnhnologies for Archaeological Research Center) produce numerosi dati tridimensionali a seguito di attività di ricerca in acquisizione, ricostruzione e comunicazione di materiale, principalmente archeologico, proveniente da siti locali. Infine, il giornaliero lavoro di produzione di dati digitali o di processi di digitalizzazione a livello sempre più diffuso all’interno degli enti locali ciprioti, permetterà il coinvolgimento di nuovi content providers e l’allargamento del network culturale. Questo garantirà un arricchimento contenutistico del materiale da aggregare, ma soprattutto una maggiore possibilità di preservazione e di accesso libero ai dati culturali nazionali. 3. Makarios III a un evento pubblico della comunità armena cipriota. 4. Icona con la Vergine Madre della Consolazione dalla Chiesa di Panagia Chrysalionitissa, Nicosia (XVI secolo). 5. Modello 3D di vertebra umana acquisita con tecnica fotogrammetrica (per gentile concessione di P. Ronzino). 285 Abbreviazioni bibliografiche 3D-COFORM 2009 3D-COFORM, Integrated Repository Architecture and Design Specification, May 2009. BOEUF et alii 2005 P. L. Boeuf - P. Sinclair - K. Martinez - P. Lewis - G. Aitken - C. Lahanier, Using an ontology for interoperability and browsing of museum, library and archive information. International Council of Museums 14th Triennial Meeting, The Hague 2005. COBURN et alii 2010 E. Coburn - R. Light - G. McKenna - R. Stein - A. Vitzthum, LIDO - Lightweight Information Describing Objects Version 1.0, 2010. DOERR et alii 2010 M. Doerr - K. Tzompanaki - M. Theodoridou - C. Georgis - A. Axaridou - S. Havemann, A Repository for 3D Model Production and Interpretation in Culture and Beyond, in VAST 10, Paris 2010, 97-104. National Library of Australia 2003 National Library of Australia, Guidelines for the preservation of digital heritage, UNESCO CI.2003/WS/3, March 2003. NISO 2004 NISO, Understanding metadata. National Information Standards Organization, NISO Press, 2004. PAPAGEORGHIOU 1992 A. Papageorghiou, Icons of Cyprus, Nicosia 1992. PAPAGEORGIOU-ELIADES 2008 A. Papageorgiou - I. A. Eliades, Guide to the Byzantine Museum and Art Gallery, Nicosia 2008. Referenze iconografiche Autori: figg. 1-2, 5. Collezione privata Der Havedissian-Hawley: fig. 3. PAPAGEORGHIOU 1992: fig. 4. Valentina Vassallo The Cyprus Institute (STARC) [email protected] Denis Pitzalis The Cyprus Institute (STARC) [email protected] 286 POSTER SESSION Simone Deola Valeria Grazioli Simone Pedron Conversione di file da .dwg a .shp mediante l’utilizzo di software Open Source Abstract Here we propose some results useful to the solving of problems faced by the authors in their archaeological works and, in particular, in the management of files created by means of proprietary software (AutoCAD). On numerous occasions the materials needed to perform the work (whether related to archaeological surveys, excavations, surveys, regional studies, or preventive archeology) are given in .dwg format, forcing the reporter to give a precise, not georeferenced, positioning of the file. If such is the case, in order to manage such data without the necessary proprietary software, freeware software for conversion from .dwg into .dxf are usually used. Thus, a phase of processing follows, for example, in QCAD, Inkscape or in a GIS, as gvSIG. In our case, however, we sought a solution reconciling the use of an entirely Open Source software with qualitatively good results and a fast, uncomplicated process. Initially the.dwg file is imported and exported as a shapefile in gvSIG. As previously mentioned, the .dwg supplied are usually not georeferenced and therefore do not have a correct reference to absolute geographic coordinates. To remedy this problem, an imported (newly created) shapefile in OpenJUMP, is used, because of the quality of its graphical management tools, and parameters such as position and rotation are changed. Furthermore, since the base mapping used to properly positioning the.dwg file transformed into shape usually is some years’ old, this method allows us to update our maps with the most recent data available. In conclusion, the excellent results we experienced by using agile, effective Open Source tools allowed a solution of problems often faced by offices and technical studies that still use proprietary formats in archaeological research. La presente esposizione è l’esito della risoluzione di problematiche affrontate dagli scriventi in ambito lavorativo archeologico e, in particolare, nella gestione di file creati con software proprietario (AutoCAD). Come è noto, infatti, i rapporti lavorativi con enti pubblici pongono costantemente la questione del formato in cui sono salvati i dati che, per tipologia di formazione degli addetti o per scelte più “tradizionali”, è quasi costantemente di tipo proprietario. Va considerato anche che ciò, al di là di talune occasioni in cui vi sono benefici tecnici concreti (per particolarità del caso d’uso) rispetto a scelte orientate all’Open Source, contrasta spesso con quanto indicato dall’attuale quadro normativo (in particolare al comma 1 dell’art. 68 del D. Lgs.vo 235/2010 “Codice dell’amministrazione digitale”)1, secondo il quale le Pubbliche Amministrazioni devono acquisire programmi informatici orientando la propria scelta, a seguito di una valutazione comparativa di tipo tecnico ed economico, tra le soluzioni disponibili sul mercato, comprese le soluzioni in software libero. 1 Codice dell’amministrazione digitale, D. L. 30 dicembre 2010, n. 235: http://www.digitpa.gov.it/amministrazionedigitale/CAD-testo-vigente. 289 Nel caso di dati vettoriali, ad esempio, il formato assolutamente dominante nella Pubblica Amministrazione è il .dwg2 , e le varie tipologie di indagini archeologiche (rilievi, scavi, survey, studi sul territorio, archeologia preventiva) si trovano necessariamente a trattare questo tipo di file e, per quanto riguarda il nostro lavoro, a dover attribuire loro un posizionamento puntuale, poiché molto spesso sono sprovvisti del riferimento a un sistema di coordinate geografiche assolute. Per ovviare parzialmente al problema della compatibilità per gli utenti non in possesso di licenza AutoCAD, l’Autodesk ha introdotto un formato aperto: il .dxf (compilato in codice ASCII); tuttavia questa estensione non consente il salvataggio di particolari geometrie complesse e non può considerarsi, quindi, a tutti gli effetti un equivalente del .dwg. In questo caso, per gestire tali dati senza poter disporre del software proprietario di riferimento si adottano varie soluzioni: una di queste consiste nella conversione mediante pacchetti di ArcGIS ma, chiaramente, comporta costi elevati per l’acquisto della licenza; un’altra riguarda l’utilizzo di convertitori, i quali si distinguono tra freeware3 e shareware4. I primi, nella maggioranza dei casi, richiedono una connessione Internet per l’upload del file sul sito web e restituiscono conversioni parziali, spesso inaffidabili e qualitativamente scadenti; i convertitori a pagamento concedono versioni trial o demo con limitazioni per tempo d’uso e dimensioni dei dati e comportano, qualora si intenda procedere all’acquisto della licenza, costi elevati. Per quanto riguarda l’Open Source, Grass offre una soluzione: benché l’attuale versione non disponga più del comando “v. in dwg” è stato creato un prototipo di collegamento (v. in redwg) il quale però è costituito da un componente aggiuntivo e quindi richiede un’operazione di installazione articolata per gli utenti meno esperti5. Nel nostro caso, invece, si è cercata una soluzione che conciliasse l’utilizzo di software interamente Open Source con dei risultati di buona qualità e un procedimento veloce e poco complesso. Inizialmente il file .dwg viene importato in gvSIG (versione 1.11)6 (fig. 1) ed esportato come shapefile (Layer → Esporta → shp). Affinché l’esportazione vada a buon fine è necessario selezionare una versione .dwg del 2004 o antecedente. Come già scritto in precedenza, i file .dwg che vengono forniti solitamente non sono georeferiti e quindi non dispongono di un corretto riferimento a coordinate geografiche assolute: per ovviare a questa mancanza, il procedimento utilizzato prevede l’importazione dello shapefile appena creato in OpenJUMP (versione 1.3.1, in virtù della qualità dei suoi tools di gestione grafica)7 e la modifica, previa selezione degli elementi in toto, di parametri quali posizione, rotazione ed eventualmente scala (fig. 2) tali da consentirne la sovrapposizione su di un file georiferito (ad esempio la Carta Tecnica Regionale). Sebbene i layers originali vengano compressi in 3 diversi livelli a seconda della loro primitiva geometrica (punto, linea, poligono), tutti gli attributi in essi contenuti vengono conservati e ne viene aggiunto uno (Layer) che ha come valore il nome del livello originariamente presente nel dwg. I punti di forza di questo metodo sono la velocità, la semplicità delle operazioni, la precisione garantita e l’assenza di perdita di dati anche nel caso di file di grandi dimensioni (anche superiori a 20 Mb). Risulta oltremodo interessante la possibilità offerta dalla georeferenziazione del file al fine di poter gestire tutti i dati in ambiente GIS. In conclusione, nella nostra esperienza diretta tale metodo ha comportato la soluzione all’utilizzo, tuttora imperante, di formati proprietari in uffici e studi tecnici e rappresenta, a nostro avviso, uno strumento agile ed efficace nell’ambito della ricerca archeologica che si avvale di strumenti Open Source, con la possibilità di ottenere ottimi risultati in modo semplice. Un ulteriore aspetto derivante da tale operazione, inoltre, riguarda la possibilità, per gli enti, di ottenere un aggiornamento della cartografia a disposizione (uti2 Sviluppato da Autodesk per il disegno per AutoCAD. Ad esempio: http://www.wanderingidea.com/content/view/12/25/ 4 Ad esempio: http://www.rockware.com/product/overview.php?id=73 5 Una discussione in merito si trova al link http://old.nabble.com/GRASS-v.in.dwgtd30719609.html 6 http://www.gvsig.org/web/ 7 http://www.openjump.org/ 3 290 lizzata come base per posizionare correttamente il file .dwg trasformato in .shp), solitamente datata ad anni precedenti. 1. Esportazione di un file .dwg in gvSIG come shapefile. Simulazione. 2. Importazione dello shapefile creato in OpenJUMP. Simulazione. 291 Referenze iconografiche Autori: figg. 1-2. Studio Associato Sestante [email protected] 292 Alessio Paonessa Da Mac a GNU/Linux: migrazione di dati da un GIS di scavo. Abstract In this article is explained a migration to open source GIS software. The object is the vector data about the excavation of the medieval castle Rocca degli Alberti, exported from MacMap to Quantum GIS and SpatiaLite installed on Ubuntu. 1. Introduzione Sempre più attenzione è rivolta al mondo del software open source e agli strumenti che mette a disposizione, anche nel campo archeologico. Spesso, quando questo interesse giunge dopo un uso intensivo dei sistemi informatici proprietari durante le campagne di scavo, la produzione di dati deve essere convertita per poter essere usata correttamente. Altre volte, i formati aperti che sono offerti dal mondo FOSS sono migliori e permettono un salto di qualità, invogliando ricercatori e mondo accademico a usarli tramite applicazioni libere. Proprio per questi motivi, nell’ambito del lavoro svolto per la mia tesi di laurea sul GIS di scavo del castello di Rocca degli Alberti1, ho sviluppato un processo di conversione dei dati vettoriali dalla soluzione proprietaria fino ad allora usata, composta da Mac OS X e MacMap a una basata su Quantum GIS, SpatiaLite e GNU/Linux. In particolare, le versioni delle applicazioni di partenza sono state Mac OS X 10.2 e MacMap 2001; quelle di arrivo QGIS 1.5, SpatiaLite 2.4 - RC2 e Ubuntu 10.04. 2. La migrazione MacMap è un software GIS, installabile solo su sistemi operativi Apple, che usa un formato proprietario per il salvataggio dei propri dati, raster o vettoriali. È però disponibile una funzione di conversione al suo interno attraverso alcune maschere che ne permettono l’esportazione in formato ESRI Shapefile. Purtroppo la funzionalità non è correttamente implementata, dato che il campo delle periodizzazioni, nel quale è stato usato il carattere “/”, è risultato in gran parte mutilo alla fine delle operazioni e i dati poligonali sono stati convertiti in linee per evitare un errore durante il trasferimento. Successivamente i dati sono stati importati e modificati all’interno di SpatiaLite, il database scelto come punto di arrivo. Quest’ultimo è un’estensione di SQLite, il famoso DBMS open source, a cui aggiungono il supporto per i dati geografici e altre importanti 1 PAONESSA 2010. 293 caratteristiche, tra le quali il salvataggio in un unico file. L’applicazione per la gestione del formato è dotata di un’interfaccia grafica e di un terminale a riga di comando e può essere installata su Windows, Mac OS e Linux. Inoltre è possibile sfruttare la virtualizzazione di Shapefile e CSV, le analisi spaziali fornite dall’estensione GEOS e le funzionalità SQL già incluse nel database originario. Creato e mantenuto da Alessandro Furieri, si sta formando lentamente una comunità attiva man mano che il progetto progredisce2. Il processo di importazione è stato semplice e veloce: attraverso la GUI i dati sono stati caricati correttamente e da una finestra è stato possibile selezionare le opzioni più importanti, come lo SRID di riferimento e il set di caratteri da usare. Una volta all’interno del database sono stati ripristinati i dati in parte cancellati, rimosse alcune colonne inutili dalla tabella degli attributi e salvato tutto in formato SQLite. Il risultato è stato una base di dati nuova, più pulita e integrabile all’interno di QGIS. Come programma GIS finale è stato preferito Quantum GIS, un elemento presente da anni nel panorama del settore. La scelta è stata quasi obbligata, dato che il supporto del formato SQLite creato da SpatiaLite è più avanzato rispetto ad altre soluzioni. È disponibile infatti un plug-in, denominato attualmente QSpatiaLite, che permette di svolgere funzioni come la modifica delle tabelle o dei record attraverso una piccola GUI e con le funzionalità di SpatiaLite, ma attraverso l’interfaccia di QGIS. Quantum GIS si è comportato bene fin da subito, stabilendo un collegamento con il database appena creato, caricando ciascuna tabella in layer separati e permettendo di interrogare gli attributi. La vista è stata resa equivalente a quella già usata in MacMap, rendendo le differenze quasi impercettibili all’operatore finale. Tutte le informazioni prodotte fino a quel momento dal programma sono state salvate nel formato QGS, un file di progetto, per poter essere usate correttamente al successivo caricamento. Per quanto riguarda la visualizzazione e l’interrogazione dei dati, Quantum GIS non dispone di funzionalità avanzate come GRASS, ma ha svolto le operazioni di base che gli sono state richieste, come la resa dei vari periodi attraverso le query nel campo relativo. Inoltre, è stato sperimentato il plug-in eVis per collegare alcune fotografie a un layer puntiforme, anche se si è rivelato poco adatto a un GIS di scavo. 3. Conclusioni Il risultato finale è sicuramente interessante: è stata creata una piattaforma GIS open source operativa con i dati provenienti da MacMap. A parte alcuni piccoli errori dovuti alla conversione in Shapefile, il procedimento seguente si è svolto senza problemi. La mancanza più importante è nel sistema di esportazione dei poligoni di MacMap, ma si può risolvere facilmente con l’uso di GRASS, per il quale QGIS può essere sfruttato come interfaccia grafica. L’uso del carattere “/” per separare i periodi si è rivelato una scelta infelice, dato che in operazioni più complesse risulta scarsamente compatibile. Quasi sicuramente gli errori che ho riscontrato sono stati corretti nelle versioni più recenti, ma non ho avuto l’opportunità di verificare in prima persona. Dal punto di vista dell’uso, entrambi i software hanno bisogno di alcune caratteristiche aggiuntive per espandersi in ambito archeologico. Per Quantum GIS sarebbero necessari un sistema di viste e di interrogazioni su tutti i livelli caricati, la possibilità di usare eVis sui layer già caricati con più immagini e una maggiore integrazione con SpatiaLite, soprattutto in fase di esportazione dei dati. SpatiaLite si è già dimostrato maturo, ma un’interfaccia più amichevole e ricca di funzionalità sarebbe sicuramente utile, tra queste la possibilità di importare più facilmente altri dati in formato SQL o migliorare la maschera per l’esecuzione delle query. In ogni caso, è stato possibile usare i dati geografici informatizzati dello scavo in maniera soddisfacente per richieste non avanzate, che erano sufficienti al gruppo di ricerca per cui ho svolto il lavoro. 2 294 Pagina ufficiale del progetto SpatiaLite: http://www.gaia-gis.it/spatialite/ Abbreviazioni bibliografiche PAONESSA 2010 A. Paonessa, Applicazione di software GIS open source al sito di Rocca degli Alberti (Monterotondo Marittimo), Siena 2010. Alessio Paonessa Università degli Studi di Siena. Dipartimento di Archeologia e Storia delle Arti. [email protected] 295 Damiano Lotto Silvia Fiorini Analisi di dispersione del materiale archeologico a Fondo Paviani: un approccio Open Source Abstract This paper shows an integraly open source system to feature the archaeology dispersion of finds, from a survey work elaborated on “Fondo Paviani” site, located in Valli Grandi Veronesi (VR). The system depicted, in respect of a “traditional survey featuring”, show as result a smoothed surface, with a better degree of understating and vividness. 1. Il sito L’insediamento, situato in Località Vangadizza di Legnago (IGM foglio 63, Quadrante II Nord-Ovest, CAV foglio 63, Legnago n. 219) (fig. 1) si inserisce nel sistema dei grandi villaggi arginati delle Valli Grandi Veronesi, caratterizzato da siti di grande importanza quali Castello del Tartaro e Fabbrica dei Soci, ma dal punto di vista geomorfologico presenta una differenza rispetto a questi ultimi, che sfruttano i dossi fluviali, ponendosi invece al centro della paleovalle del fiume Menago. Le ricerche sistematiche nell’insediamento di Fondo Paviani, individuato e fatto oggetto di una ricognizione di superficie alla metà degli anni Settanta, sono riprese a partire dal 2007 dall’Università degli Studi di Padova sotto la direzione del Prof. Giovanni Leonardi e del Dott. Michele Cupitò. Lo studio tele-osservativo del territorio condotto negli anni Novanta nell’ambito delle indagini del progetto Alto-Medio Polesine/Basso Veronese (AMPBV) aveva già messo in luce l’importanza di Fondo Paviani, un insediamento di ragguardevoli dimensioni dotato di fossato e argine - ben visibile nel suo perimetro quadrangolare nella foto aerea del 1955 - con una estensione di circa 20 ettari nel Bronzo Recente, inserito nel territorio circostante all’interno di un complesso sistema stradale e di regimentazione delle acque mediante canali. 2. Il progetto Il “Progetto Fondo Paviani” si pone nel più ampio filone di ricerca sull’organizzazione territoriale e sociale dell’Italia settentrionale nella tarda età del Bronzo, portato avanti dalla cattedra di Paletnologia dell’Università degli Studi di Padova. I risultati preliminari delle nuove indagini - quattro campagne di survey e quattro di scavo a partire dal 2007 - hanno evidenziato in primo luogo la presenza in situ di attività metallurgica, della lavorazione del vetro e della circolazione dell’ambra, nonché di contatti a lungo raggio, testimoniati dal rinvenimento di oltre 30 frammenti di ceramica micenea, che vanno ad aggiungersi agli altri già noti dalle precedenti ricerche; essi sono risultati essere sia di 297 1. Legnago. Località Vangadizza. Il sito di Fondo Paviani. importazione sia frutto di rielaborazione del patrimonio decorativo egeo-miceneo da parte di ateliers locali. La prosecuzione delle indagini, sia con gli scavi in open area sia con l’attività di survey sistematico, contribuirà alla sempre maggiore comprensione delle dinamiche insediative, territoriali e sociali dell’insediamento, anche se da quanto indagato sinora (proprio all’interno del già citato progetto AMPBV) è già emersa con forza la centralità e l’importanza del sito di Fondo Paviani nella polity delle Valli Grandi Veronesi. L’intero progetto “Fondo Paviani” è stato pensato e condotto utilizzando strumenti Open Source; sono risultati, infatti, fondamentali le caratteristiche proprie di questa soluzione, che possono essere sintetizzate come: - esportabilità dei dati, anche quelli già elaborati; dati “aperti”, non soggetti al formato, e quindi alla licenza, di un solo software; flessibilità operativa; - economicity, in termini di acquisto, ma apparentemente meno economica in relazione alla formazione degli utenti, di solito abituati a soluzioni su piattaforme maggiormente pubblicizzate. Tuttavia alla prova dei fatti la curva di apprendimento, anche per utenti non “troppo abituati” all’informatica, è risultata essere uguale a quella che si sarebbe avuta con prodotti close source. 3. Il survey Nella campagna 2007 è stata realizzata all’interno del sito la prima ricognizione sistematica ad alta intensità (per quadrati regolari di 5x5 m, con la presenza di almeno quattro operatori per ciascun quadrato) in un’area di 5500 mq; contestualmente si è attivata una raccolta dei materiali di superficie affiorati nelle aree dell’insediamento interessate da arature (survey non sistematico). Nel 2008 il survey intensivo è stato esteso a un’area di 11750 mq mentre i terreni adiacenti sono stati interessati da ricognizioni a mediobassa intensità; nel 2009 l’attività di survey è proseguita per altri 8000 mq - sempre mediante quadrettatura regolare di 5x5 m - nelle aree limitrofe a quelle indagate negli anni precedenti. Il bilancio di un primo esame autoptico dei reperti rinvenuti nella ricognizio298 ne e una più puntuale contestualizzazione tipo-cronologica dei reperti diagnostici rinvenuti nel 2007 hanno indicato un range cronologico dal BM3-BR1 a tutto il BR2, con occorrenze anche di BF, di fondamentale importanza per la comprensione delle fasi di vita dell’insediamento. Al fine di verificare se nella distribuzione dei cocci esistesse una differenziazione areale dal punto di vista in primo luogo quantitativo, in secondo luogo cronologico, è stata inizialmente creata una carta di distribuzione della frequenza di materiali nei quadrati oggetto di ricognizione intensiva nel 2007 con metodi GIS. Il risultato ottenuto non è apparso però molto chiaro ed è allora stato messo a punto un modello di rappresentazione che ha aumentato considerevolmente la leggibilità del dato quantitativo. È possibile rilevare la presenza delle concentrazioni quantitativamente più consistenti di materiali in tre punti: nella fascia lungo lo scolmatore che corre in direzione N/S (Quadrati A1-A22), nella fascia lungo il canale che corre in direzione E/O (Quadrati A22L 22) e nella fascia meridionale del lato E del survey (Quadrati L 17-21, I 19-20). Per quanto riguarda le prime due fasce a ridosso dei canali agrari N/S e E/O, è assolutamente plausibile ipotizzare che i lavori agricoli di manutenzione, consistenti in periodiche ripuliture delle sponde del fondo, abbiano intaccato maggiormente gli strati archeologici, riportando in superficie e ri-depositando un cospicuo numero di reperti in prossimità delle sponde stesse. Sulla base di questa evidenza è possibile supporre che le fasce più dense lungo i canali costituiscano la sommatoria del deposito archeologico proveniente dal terreno del campo e dal riporto di terreno escavato per la risistemazione della scolina. Incrociando il dato cronologico con quello quantitativo è possibile osservare che: i materiali più antichi, corrispondenti alla fine del BM/BR iniziale, sono scarsissimi, nonostante il deposito archeologico sia stato intaccato in profondità, mentre sono ben rappresentati materiali di BR pieno, che non sembrano “clusterizzati” in un’area precisa all’interno delle concentrazioni. I materiali di BR2-3 sono molto frequenti e diffusi in tutta l’area presa in esame ed è buona la presenza di frammenti databili al BF. La terza concentrazione di materiali (Quadrati L 17-21, I 19-20), che non è stata rilevata in concomitanza di canalizzazioni agrarie, risulta probabilmente di altra origine e solo la verifica delle concentrazioni di materiali nel contiguo terreno, oggetto di ricognizione nel 2008, potrà chiarirne l’origine; in via preliminare si può ipotizzare che tale concentrazione possa corrispondere a un alto morfologico, di origine naturale o artificiale, troncato più profondamente dalla arature. Le aree a concentrazione minore di frammenti ceramici sembra derivare dal fatto che il deposito alluvionale (US17) abbia coperto gran parte del sito, di fatto preservando dai successivi interventi antropici gli strati archeologici. 4. Nuovi processi L’obiettivo che ci si è prefissati di ottenere era quello di realizzare un modello più smussato della distribuzione dei reperti, rispetto a quelle tradizionali (fig. 2)1: si è pensato quindi di creare una superficie analoga a un modello 3D del terreno, tramite software GIS. L’idea era quella di attribuire a dei punti georiferiti presi a campione in ogni quadrato del survey una “z” fittizia: non quindi la quota reale dei punti, ma il numero totale di cocci presenti nel quadrato stesso. Producendo una superficie interpolata si raggiunge lo scopo di eliminare le cesure nette tra un quadrato e l’altro: infatti ogni punto con il suo vicino viene calcolato e pesato, quindi “avvicinato”, in modo da creare una superficie continua. Naturalmente questo procedimento può provocare una “distorsione” nel dato (dipendente dal tipo di algoritmo, dai parametri, ecc.), soprattutto in virtù del fatto che i 1 CLARKE 1977; CAMBI-TERRENATO 1994; CAMPANA-FRANCOVICH 2003. 299 2. Rappresentazione “classica” della dispersione dei materiali di superficie. punti devono essere interpolati dal software per riempire i vuoti. Non essendo stati presi a stazione i singoli punti di ogni frammento, per motivi di tempo e di praticità, le coordinate sono state dunque scelte a campione. Prima di tutto si è proceduto a creare un progetto in Qgis, importando il vector della quadrettatura (survey 2007). Per ogni quadrato del vector sono stati disegnati dieci punti, per un totale di 2.150 punti, raccolti in rigoroso ordine (in questo caso da sinistra verso destra, perciò quadrato A1, B1, C1, ecc.). Questi punti sono i “campioni” di coordinate a cui associare le “finte z” delle quantità di cocci. Il vector così ottenuto è stato quindi importato in Grass (vers. 6.4) e di qui esportato in formato ASCII (ovvero in un file di testo, in formato “punti”; alla prima colonna corrisponde la CATEGORY, alla seconda la coordinata N, alla terza quella E e alla quarta la Z); ogni 10 punti (quindi da 1 a 10, e poi da 11 a 20 ecc.) è stato associato il numero di materiali dispersi corrispondente (ovvero, se il quadrato A1 presentava 6 cocci, nel file di testo, nella colonna corrispondente alla “z”, per i punti 1-10 è sempre stato inserito lo stesso numero, “6”; per il quadrato B1, ovvero punti 11-20, il numero di cocci corrispondente ecc.). Ad esempio: A1|1680178.63712794|4998905.77407783|30 A1|1680180.32295077|4998906.37615741|30 A1|1680181.64752586|4998907.09865291|30 Dove 30 è il numero di reperti per il quadrato A1, sostituito alla coordinata “z”. Una volta completato il file, esso è stato reimportato nuovamente in Grass, avendo cura di specificare create 3D vector; contemporaneamente, sempre in Qgis, è stato realizzato un vector poligonale della precisa area di survey. Anche questo è stato importato in Grass e subito convertito in raster (comando v.to.rast). Questo nuovo raster è stato denominato mask in quanto verrà utilizzato come “maschera” di riferimento per limitare il processo di interpolazione alla sola area interessata (altrimenti Grass distribuirebbe il calcolo per la creazione della superficie su di un’area più grande del voluto) tramite il comando r.mask. Tra i vari tipi di algoritmo utilizzabili, dopo qualche prova, si è deciso di impiegare quello contenuto nel programma v.surf.rst (v.surf.rst); i parametri utilizzati sono pres300 sappoco quelli di default, tranne per il parametro tension che è stato calibrato a “20.” e ovviamente il parametro numero layer a “0” invece che a “1” (che vuol dire “utilizza per l’interpolazione le coordinate “z”). Il raster ottenuto (fig. 3) è stato infine esportato in .tiff (r.out.tiff), come geotiff, ovvero immagine georeferenziata e in seguito importato in altri sistemi di visualizzazione GIS per essere sovrapposto a mappe, vector, foto aeree, ecc. 3. Rappresentazione come modello 3D della dispersione dei materiali di superficie. 301 Abbreviazioni bibliografiche CAMBI-TERRENATO 1994 F. Cambi - N. Terrenato, Introduzione all’archeologia dei Paesaggi, Roma 1994. CAMPANA-FRANCOVICH 2003 S. Campana - F. Francovich, Landscape archaeology in Tuscany: cultural resource management, remotely sensed techniques, GIS based data integration and interpretation, in The reconstruction of Archeological Landscapes through Digital Technologies, BAR Internetional Series 1151, 2003, 15-29. CLARKE 1977 L. D. Clarke, Spatial Archeology, Cambridge 1977. Referenze iconografiche Autori: figg. 1-3. Damiano Lotto Dipartimento di Archeologia. Università degli Studi di Padova. [email protected] Silvia Fiorini Dipartimento di Archeologia. Università degli Studi di Padova. [email protected] Michele Cupitò Dipartimento di Archeologia. Università degli Studi di Padova. [email protected] Giovanni Leonardi Dipartimento di Archeologia. Università degli Studi di Padova. [email protected] 302 Naus Editoria Finito di stampare nel mese di giugno 2012