Untitled
Transcript
Untitled
ARCHEOLOGIA E CALCOLATORI CNR – Dipartimento Patrimonio Culturale Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico Rivista fondata da MAURO CRISTOFANI e RICCARDO FRANCOVICH Comitato Scientifico: DANIEL ARROYO-BISHOP, JOHN BOARDMAN, ROBIN B. BOAST, FRANCISCO BURILLO MOZOTA, CHRISTOPHER CARR, MARTIN O.H. CARVER, ANGELO CERIZZA, FRANCESCO D’ANDRIA, IVAN DI STEFANO MANZELLA, FRANÇOIS DJINDJIAN, JAMES E. DORAN, MICHAEL EISNER, JEAN-CLAUDE GARDIN, SA LVATOR E GA R R A F FO, F I L I PPO GI U DIC E , A N N E -M A R I E GUIMIER-SORBETS, IAN HODDER, F. ROY HODSON, DONNA C. KURTZ, ADRIANO MAGGIANI, DANIELE MANACORDA, TIZIANO MANNONI, PAOLA MOSCATI, TITO ORLANDI, CLIVE R. ORTON, FRANCESCO RONCALLI, PAOLO SOMMELLA, ALBERTUS VOORRIPS Direttore responsabile: PAOLA MOSCATI Redazione: GIOVANNI AZZENA, LETIZIA CECCARELLI, ANTONIO GOTTARELLI, MARIA PIA GUERMANDI, MARIA CECILIA PARRA, GRAZIA SEMERARO, GIANLUCA TAGLIAMONTE, MARCO VALENTI Segreteria di Redazione: ALESSANDRA CARAVALE, BIANCA LEA ZAMBRANO Autorizzazione del presidente del Tribunale di Firenze n. 3894 del 6/11/1989 Indirizzo Redazione: Rivista «Archeologia e Calcolatori», CNR – ISCIMA, Area della Ricerca di Roma 1, Via Salaria Km 29,300, 00016 Monterotondo Stazione (RM) Tel. +39.06.90672284 – Fax +39.06.90672818 E-mail: [email protected] http://soi.cnr.it/archcalc/ Edizione e distribuzione: EDIZIONI ALL’INSEGNA DEL GIGLIO s.a.s., Via della Fangosa 38, 50032 Borgo San Lorenzo (FI) Tel. +39.055.8450216 – Fax +39.055.8453188 E-mail: [email protected] – [email protected] – [email protected] http://www .edigiglio.it/ ARCHEOLOGIA E CALCOLATORI 20 2009 All’Insegna del Giglio Volume edito in collaborazione con il Dipartimento Patrimonio Culturale del CNR Realizzazione gra�ca della sovracoperta di Marcello Bellisario ISSN 1120-6861 ISBN 978-88-7814-444-6 © 2010 – All’Insegna del Giglio s.a.s. – www.edigiglio.it Stampato a Firenze nel gennaio 2010 - Tipolitogra�a Toccafondi Abbonamento: Italia € 25,00 – Estero € 28,00 I dati forniti dai sottoscrittori degli abbonamenti vengono utilizzati esclusivamente per l’invio della pubblicazione e non vengono ceduti a terzi per alcun motivo. INDICE La nascita dell’informatica archeologica, Atti del Convegno Internazionale (Roma, Accademia Nazionale dei Lincei, 24 ottobre 2008), a cura di Paola Moscati S. Panciera, Parole di saluto 9 E. Vesentini, Gli anni ’70 e la Scuola Normale 11 T. Orlandi, Informatica archeologica e non archeologica 17 J.D. Richards, From anarchy to good practice: the evolution of standards in archaeological computing 27 D. Kurtz, www.beazley.ox.ac.uk. From apparatus of scholarship to web resource. The Beazley Archive 1970-2008 37 P. Sommella, Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni 47 F. Djindjian, The golden years for mathematics and computers in archaeology (1965-1985) 61 G. Lock, Archaeological computing then and now: theory and practice, intentions and tensions 75 G. Semeraro, Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia 85 J.A. Barceló, The birth and historical development of computational intelligence applications in archaeology 95 O. Signore, Representing knowledge in archaeology: from cataloguing cards to Semantic Web 111 P. Paolini, Museo Virtuale dell’Informatica: un esempio emblematico 129 P. Moscati, «Archeologia e Calcolatori»: le ragioni di una scelta 145 M.P. Guermandi, Provando e riprovando: un quarto di secolo di applicazioni 155 G. Azzena, Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali) 169 A. Caravale, La catalogazione informatica del patrimonio archeologico 179 A. Gottarelli, 1984-2009. Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia. Un caso di studio nella storia delle applicazioni multimediali in archeologia 189 C. Dallas, From artefact typologies to cultural heritage ontologies: or, an account of the lasting impact of archaeological computing 205 * * * A. Polcaro, V.F. Polcaro, Man and sky: problems and methods of Archaeoastronomy 223 R. Laužikas, Digitization as a science 247 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali, Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia, northwestern Iran 261 S.J. Kay, R.E. Witcher, Predictive modelling of Roman settlement in the middle Tiber valley 277 A. Casarotto, A. De Guio, F. Ferrarese, ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico. Il caso di studio archeologico della Val d’Alpone (VR) 291 S. Di Zio, D. Bernabei, Un modello GIS multicriterio per la costruzione di mappe di plausibilità per la localizzazione di siti archeologici: il caso della costa teramana 309 G. Bigliardi, Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica del Comune di Parma 331 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo, “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning del Castello degli Onigo (Pederobba, Treviso) 351 N. Lombardo, Baia: le terme sommerse a Punta dell’Epitaf�o. Ipotesi di ricostruzione volumetrica e creazione di un modello digitale 373 L. Palmieri, “Progetto Calvatone”: dallo scavo all’edizione multimediale 397 Recensioni: F. D’Andria, G. Scardozzi, A. Spanò (eds.), Atlante di Hierapolis di Frigia, Istanbul 2008, Ege Yayınları (P. Moscati), p. 421; L. Valdés, Gastiburu: el santuario vasco de la Edad del Hierro, Madrid 2009, Real Academia de la Historia (A. Polcaro, V.F. Polcaro), p. 423; V. Fronza, A. Nardini, M. Valenti (eds.), Informatica e Archeologia Medievale. L’esperienza senese, Firenze 2009, All’Insegna del Giglio (A. Caravale), p. 425. LA NASCITA DELL’INFORMATICA ARCHEOLOGICA Atti del Convegno Internazionale Accademia Nazionale dei Lincei Centro Linceo Interdisciplinare “Beniamino Segre” (Roma, 24 ottobre 2008) a cura di Paola Moscati Comitato ordinatore: Tito Orlandi, Paolo Sommella, Edoardo Vesentini, Paola Moscati Il Convegno è stato organizzato d’intesa con: Consiglio Nazionale delle Ricerche Ministero per i Beni e le Attività Culturali Ministero dell’Istruzione, dell’Università e della Ricerca Associazione Amici dell’Accademia dei Lincei Siav S.p.A. Università Italo Francese La naissance de l’informatique en archéologie est aujourd’hui une application très ancienne, qui peut remonter jusqu’aux années 1950. On trouverait ici des cas de toutes sortes, antérieurs même aux emplois les plus élevés du genre, touchant l’apparition du calcul en archéologie. De là on aboutit à un proche en proche des passages “virtuels” en archéologie, où la formation est de bâtir des centres de recherche appliquée aux technologies multimédia dans la discipline. Les exemples du genre sont très nombreux dans un livre même, et l’on peut s’interroger sur les mérites respectifs de chacun. Telle est bien la fonction principale de l’ensemble de l’admirable essai réuni par Paola Moscati. Jean-Claude Gardin Archeologia e Calcolatori 20, 2009, 9-10 Il Prof. Silvio Panciera apre il Convegno con le seguenti parole: Il Presidente, Prof. Giovanni Conso, ed il Direttore, Prof. Rodolfo Sacco, hanno voluto delegare a me il compito di rivolgere un cordiale saluto di benvenuto agli organizzatori ed ai partecipanti a questo Convegno, rispettivamente a nome dell’Accademia Nazionale dei Lincei e del Consiglio Direttivo del Centro Linceo Interdisciplinare “Beniamino Segre”. Ho accettato questo incarico tanto più volentieri in quanto avevo già deciso di partecipare al Convegno per l’importanza degli studiosi che vi parlavano e per i temi, per molti aspetti non lontani dai miei interessi, di cui si annunciava la trattazione; dunque: benvenuti a tutti a nome dell’Accademia e del Centro Segre. La rivoluzione informatica, di cui siamo testimoni, fruitori ed in qualche caso anche protagonisti, investe i più diversi campi del sapere e dell’agire ed è importante che chi opera in questo settore si incontri per scambiare ri�essioni, esperienze e dubbi, sia di ordine generale, sia su speci�ci aspetti speculativi o applicativi. Il Centro Linceo, che prende il nome da chi lo ha fondato nel 1971, il grande matematico Beniamino Segre, avendo, come suo scopo primario, lo sviluppo di ricerche di carattere interdisciplinare con riferimento al pensiero matematico ed alle sue applicazioni, ha scelto da tempo di favorire in vario modo – tra l’altro – l’incontro delle discipline umanistiche con i metodi e le tecniche dell’informatica. Così ci sono stati qui ai Lincei parecchi incontri, Seminari e Convegni che hanno affrontato le questioni che da questo tipo d’incontro discendono, sia da un punto di vista generale, come in un Seminario del 1991, intitolato “Discipline umanistiche e informatica: il problema dell’integrazione” o nel ciclo seminariale del 1994, poi pubblicato sotto il titolo “Discipline umanistiche e informatica: il problema della formalizzazione”, sia da altre ottiche più settoriali, �lologica, ad esempio, come per limitarsi alle manifestazioni più recenti, nel Convegno Linceo del 1998 su “I nuovi orizzonti della �lologia: ecdotica, critica testuale, editoria scienti�ca e mezzi informatici elettronici” e nel volume di Lorenzo Perilli, nato dentro al Centro Segre e dallo stesso pubblicato, dal titolo “Filologia computazionale”, o anche dal punto di vista archeologico – sempre per limitarsi alle iniziative più recenti – come nel Convegno Internazionale su “I modelli nella ricerca archeologica: il ruolo dell’informatica”, tenuto qui nel 2000. Ma la questione dei rapporti tra archeologia ed informatica è già stata molte altre volte in questa sede �n dai primi anni Ottanta. 9 Ai problemi dei rapporti tra archeologia ed informatica si torna anche con il Convegno odierno, ma in un’ottica che mi sembra un po’ diversa e che vorrei sottolineare. L’informatica suole essere considerata disciplina giovane, giovanissima, e in effetti, con solo una cinquantina di anni di vita, lo è veramente, ma è anche vero che nel campo dell’informatica tutto si muove con grande celerità, cosicché non ci si deve stupire se ad appena un quarantennio dalle prime applicazioni dell’informatica all’archeologia un gruppo quali�cato di studiosi, tra cui quello che fa capo alla meritoria rivista «Archeologia e Calcolatori», ha sentito il bisogno di fermarsi, volgersi indietro e considerare ormai “storicamente” il cammino percorso. Naturalmente per gli studiosi ri�ettere sul passato, lungo o breve che sia, non è mai operazione in sé conclusa, perché è anche da tale ri�essione che dipendono molte delle scelte riguardanti il futuro. Tra pochi giorni, in questa stessa sala si terrà un altro Convegno Internazionale promosso dal Centro Segre che sarà dedicato ai rapporti tra Epigra�a, informatica e ricerca storica, con particolare riferimento al progetto informatico EAGLE, che sta creando una banca dati generale dell’epigra�a greca e latina. Anche in questo caso si dovrà ri�ettere su ciò che è stato fatto e su quello che ancora ci si propone di fare mettendo a frutto le esperienze degli ultimi decenni. Il programma del Congresso che sta per cominciare mostra che, nella sua organizzazione, si è posta molta attenzione af�nché entrambi i poli della ri�essione – passato e futuro – vi giocassero la loro parte e, visti anche i nomi dei partecipanti, non dubito che vi siano le migliori premesse perché la manifestazione abbia pieno successo. A nome del Presidente dell’Accademia Nazionale dei Lincei e del Direttore del Centro Linceo Interdisciplinare “Beniamino Segre” ringrazio tutti i componenti del Comitato Ordinatore – Tito Orlandi, Paolo Sommella, Edoardo Vesentini e Paola Moscati – per avere assunto ed impostato questa importante iniziativa, tutti gli Enti che l’hanno cosponsorizzata e tutti i relatori per il determinante contributo che si accingono a dare. A tutti i partecipanti il più cordiale benvenuto ed i migliori auguri perché questo incontro risulti piacevole, oltre che – come negli intenti – altamente produttivo. 10 Archeologia e Calcolatori 20, 2009, 11-15 GLI ANNI ’70 E LA SCUOLA NORMALE 1. Enrico Fermi e la prima calcolatrice elettronica a Pisa A più di sessant’anni di distanza dalla �ne della seconda guerra mondiale, i primi anni ’50 possono apparire oggi – a molti di coloro che li hanno vissuti – anni di costruttivo ottimismo. Nella scuola, nelle istituzioni culturali, nei laboratori scienti�ci, la consapevolezza di avere avviato con qualche successo la ricostruzione delle strutture di base annientate dalla guerra consentiva di progettare sviluppi futuri nei quali fossero costrette ad integrarsi, per la prima volta, risorse e competenze �no ad allora lontane l’una dall’altra. In �sica, le ricerche sul nucleo dell’atomo ponevano – sul piano organizzativo – questioni di programmazione all’incrocio con istanze scienti�che, politiche, didattiche, �nanziarie di grande momento. Fra esse, i problemi gestionali e �nanziari assumevano sovente una valenza prioritaria che dava particolare rilievo agli aspetti dell’autonomia e della programmazione, oltre che al reperimento di risorse adeguate. Questi problemi attrassero l’attenzione di Enrico Fermi nella visita che egli compì in Italia pochi mesi prima di morire. Il frutto di queste ri�essioni fu una lettera che, l’11 agosto 1954, egli indirizzò ad Enrico Avanzi, Rettore dell’Università di Pisa. In occasione del mio soggiorno alla Scuola di Varenna – scrive Fermi – i professori Conversi e Salvini mi hanno accennato la possibilità che l’Università di Pisa possa disporre di una somma veramente ingente destinata a favorire il progresso e lo sviluppo della ricerca in Italia. Interrogato circa le varie possibilità di impiego di tale somma, quella di costruire in Pisa una macchina calcolatrice elettronica mi è sembrata, fra le altre, di gran lunga la migliore. Essa costituirebbe un mezzo di ricerca di cui si avvantaggerebbero in modo, oggi quasi inestimabile, tutte le scienze e tutti gli indirizzi di ricerca. Una parola chiave nella lettera è costruire la calcolatrice elettronica: fare della sua realizzazione un evento scienti�co-didattico del quale si sarebbero avvantaggiate, in modo inestimabile, tutte le scienze e tutti gli indirizzi di ricerca, sì che – scrive ancora Fermi – alla disponibilità della nuova macchina si aggiungerebbero i vantaggi che ne verrebbero agli studenti e agli studiosi che avrebbero modo di conoscere e di addestrarsi nell’uso di questi nuovi mezzi di calcolo1. 1 La lettera, che precede di poco più di tre mesi la scomparsa di Enrico Fermi (ed è stata, come ricorderà più tardi Giulio Racah, “l’ultimo dono lasciato da Fermi in eredità all’Italia”) è anche il ri�esso di alcuni degli interessi scienti�ci coltivati da Fermi in quel periodo. Primo fra i quali, anche per l’in�uenza di Stan Ulam, l’interesse per il calcolo elettronico, testimoniato, fra l’altro, dalla Nota: 11 E. Vesentini Ma, al di là di questi suggerimenti concreti, la lettera ad Enrico Avanzi si presta ad un’interpretazione più personale. Si può ritrovare in essa il ricordo degli anni lontani nei quali Fermi, studente a Pisa, “insegnava” ai suoi maestri pisani i rudimenti della nuova meccanica2: trentadue anni più tardi, egli saliva di nuovo in cattedra, a Pisa, e contribuiva a schiudere idealmente nuovi orizzonti ad antichi e giovani colleghi. 2. CSCE, CEP, CNUCE La lettera di Fermi ad Enrico Avanzi dette maggior concretezza alla proposta (che aleggiava in vari atenei ed enti di ricerca italiani3) di concentrare anche sulla realizzazione di nuovi strumenti di calcolo le risorse che – nell’ambito dei programmi della ricostruzione post-bellica – il Paese si apprestava a rendere disponibili per lo sviluppo della ricerca scienti�ca. Nel 1961 – a conclusione di una competizione assai vivace fra le diverse sedi universitarie sulle linee di sviluppo di una politica della ricerca �sica in Italia, nella quale si confrontarono proposte fortemente alternative – la lettera di Fermi trovò attuazione nella CEP (Calcolatrice Elettronica Pisana)4, realizzata grazie ad un �nanziamento proveniente principalmente dai Comuni e dalle Province di Pisa, Lucca e Livorno, cui si aggiunsero contributi signi�cativi della Società Olivetti5 e delle nascenti strutture organizzative della ricerca �sica che sarebbero poi sfociate nell’INFN. Protagonisti dell’impresa: Marcello Conversi, Giorgio Salvini, Adriano Olivetti, Alfonso Caracciolo di Forino, Antonio Grasselli, Giovan Battista Gerace6, che, da origini diverse, portarono, nel CSCE (Centro Studi Calcolatrici Elettroniche), organo di gestione dell’iniziativa, competenze scienti�che maturate in settori differenti e talora lontane l’una dall’altra, ma che – grazie E. Fermi, J. Pasta, S. Ulam, Studies of non linear problems, Document LA-1940 (May 1955); E. Fermi, Note e memorie (Collected papers), Vol. II, Roma 1965, Accademia Nazionale dei Lincei, The University of Chicago Press, 978-988. 2 Come raccontava lo stesso Fermi ad Enrico Persico; cfr., in proposito: E. Segrè, Enrico Fermi Physicist, Chicago and London 1970, The University of Chicago Press, 18. 3 Ad esempio, nel Politecnico di Milano, per iniziativa di Luigi Dadda, od altrove – come ricorda Fermi nella lettera ad Avanzi – nell’Istituto Nazionale per le Applicazioni del Calcolo, diretto da Mauro Picone. 4 Per un’analisi storica dell’impresa CEP cfr. M. Vanneschi (ed.), La CEP: storia, scienza e umanità dell’avventura informatica pisana, Ghezzano, Pisa 2009, Felici Editore. 5 Il programma iniziale, volto alla costruzione di un elettrosincrotrone da un miliardo di elettronvolt, fu poi realizzato a Frascati. 6 Per una storia della progettazione e della realizzazione della CEP – che vide protagonisti, oltre a quelli citati: Sandro Faedo, Gilberto Bernardini (a quel tempo Direttore dell’INFN), Giovanni Polvani (Presidente del CNR) �no alla conclusione dell’impresa – cfr. G. De Marco, La CEP nella storia dell’informatica in Italia, «AICA, Rivista di Informatica», 28, 3, 1998, 167-175. 12 Gli anni ’70 e la Scuola Normale anche a questa diversi�cazione – riuscirono a sopperire all’assenza di un retroterra culturale e tecnologico adeguato. D’altra parte, la natura composita delle differenti competenze ed una latente con�ittualità fra alcune di esse in merito alle priorità delle proposte avanzate, nonché l’aleatorietà di risorse �nanziarie certe, non contribuì alla stabilità dell’iniziativa, e sollecitò, direttamente ed indirettamente, un consolidamento attraverso l’intervento successivo di strutture accademiche, scienti�che ed industriali che si erano consolidate nel frattempo, in Italia e fuori d’Italia. Il CSCE concluse il suo mandato nel 1960 con la realizzazione della CEP. Sulle sue ceneri … accademiche nacque, a Pisa, il primo corso di Laurea in Scienze dell’Informazione che Sandro Faedo, matematico, succeduto ad Enrico Avanzi quale Rettore dell’Università di Pisa, realizzò quando l’IBM donò all’Università quella che poteva considerarsi allora una delle punte di diamante del calcolo elettronico: l’IBM 7090. In questo anti-climax dello Sturm und Drang degli anni del CSCE, a coordinare e gestire le varie attività scienti�che e didattiche programmate su una scala ben più ampia di quella immaginata all’inizio, venne preposto, nel 1964, il CNUCE (Centro Nazionale Universitario di Calcolo Elettronico), al quale afferirono università e istituti di ricerca di varia provenienza. Nel giro di pochi anni, il CNUCE riuscì, fra l’altro, a fornire – con grande impegno, coronato da maggiore o minore successo – il know-how informatico indispensabile ad ogni iniziativa scienti�ca, in senso lato, intrapresa dall’una o dall’altra delle istituzioni pisane7 – quali l’Università, la Scuola Normale Superiore, la Scuola S. Anna, etc. – oltre che da istituzioni esterne all’ambiente pisano. Alcune delle più rilevanti iniziative “nuove” scaturirono dal rapporto fra il CNUCE e l’Istituto Centrale per il Catalogo e la Documentazione, concepito con il proposito di affrontare «le problematiche della elaborazione automatizzata dei dati concernenti i beni archeologici … nel quadro dell’unità concettuale e contestuale del patrimonio culturale», con, in prospettiva, la creazione di banche dati disponibili alle istituzioni specializzate, come scriveva, nel 1991, Oreste Ferrari8, Direttore dell’Istituto Centrale per il Catalogo e la Documentazione. Alle quali è rigorosamente ristretto questo ricordo. O. Ferrari, La catalogazione dei beni archeologici e le tecnologie informatiche, «Archeologia e Calcolatori», 2, 1991, 13-17. In essa, Oreste Ferrari faceva alcune malinconiche considerazioni sui problemi di metodo che la collaborazione aveva incontrato sin dall’inizio: problemi resi ancora più ardui dall’istituzione dei “giacimenti culturali”, attivati dalla Legge 41/86, avviata – notava Ferrari – senza tener conto di quel programma preventivo di interventi che era pur facilmente desumibile dallo stato di avanzamento delle catalogazione che gli organi dell’amministrazione pubblica avevano realizzato almeno dal 1970 in poi. 7 8 13 E. Vesentini 3. La Scuola Normale Superiore e l’informatica storico-artistica Nell’ambito pisano, sono proprio “le problematiche della elaborazione automatizzata dei dati concernenti i beni archeologici” e, più in generale dei dati e documenti storico artistici “nel quadro dell’unità concettuale e contestuale del patrimonio culturale”, che segnano l’ingresso dell’informatica nella Scuola Normale Superiore: ingresso seguito peraltro con dissimulato scetticismo da alcuni ambienti accademici che, più o meno consciamente, concepivano il progresso scienti�co, nella Scuola, nella misura in cui esso potesse essere ricondotto, direttamente o indirettamente, ai percorsi tradizionali. L’iniziativa – ideata e lanciata da Paola Barocchi, storica dell’arte, allora Vice-Direttore della Scuola Normale – ebbe tuttavia un successo immediato, a seguito del quale essa si consolidò intorno al Centro di Elaborazione Automatica di Dati e Documenti Storico Artistici della Scuola Normale Superiore, intessendo importanti rapporti internazionali – con la Paul Getty Foundation, con lo Harvard University Center for Italian Renaissance Studies presso la Villa “I Tatti”, a Firenze, con il Warburg, etc. – e poté presto contare, oltre che sul CNUCE, su un hardware gestito direttamente od indirettamente dal personale tecnico interno alla Scuola. In un ambiente votato alle discipline tradizionali, il successo fu una sorpresa per molti. Non fu una sorpresa per chi – come Paola Barocchi – fu uno dei protagonisti più vivaci e convinti dell’impresa, concentrando, ovviamente, la sua attenzione sui temi più vicini ai suoi personali interessi scienti�ci contingenti, volti allo studio dei documenti del collezionismo mediceo, ma incoraggiando e favorendo iniziative in settori diversi. È stato promosso – scriveva Paola Barocchi9, illustrando una delle prime iniziative concrete intraprese dalla Scuola – sempre in collaborazione con I Tatti e l’Università di Siena, nonché con il CNUCE, con l’Istituto Centrale del Catalogo e della Documentazione del Ministero per i Beni Culturali e col valido sostegno della Regione Toscana, il primo Convegno Internazionale sull’applicazione della memorizzazione elettronica ai dati e documenti storico-artistici, svoltosi presso la Scuola Normale Superiore nei giorni 4-7 settembre 1978. Nei trent’anni trascorsi da allora, la visione di nuovi problemi, l’accesso a tecnologie dagli sviluppi imprevedibili, anche in settori lontani dalle prospettive del calcolo elettronico, trovano ancora riscontro nella lettera che Enrico Fermi scrisse al Rettore dell’Università di Pisa più di mezzo secolo fa. Edoardo Vesentini Accademia Nazionale dei Lincei 9 P. Barocchi, F. Martorana, Aspetti della memorizzazione elettronica applicata ai dati e documenti storico-artistici, «Centro di Elaborazione Automatica di Dati e Documenti Storico Artistici, Bollettino d’informazioni», 1, 1, 1980, 27-39. 14 Gli anni ’70 e la Scuola Normale ABSTRACT The Author focuses on the role played by the Scuola Normale Superiore in Pisa during the 1970s and 1980s in the development of computer applications in archaeology and art history. The roots of this activity can be traced to the post-war period in the 1950s; these were years full of constructive optimism which, during the 1960s led to the design and construction of the CEP (Calcolatrice Elettronica Pisana), to the �rst academic Degree in Computer Science at the University of Pisa, and to the creation of CNUCE (Centro Nazionale Universitario di Calcolo Elettronico). This latter was founded in order to coordinate the various scienti�c and educational activities and support computer-based research also in marginal and newly established �elds. Several important initiatives resulted from the cooperation with the Istituto Centrale per il Catalogo e la Documentazione, directed by Oreste Ferrari. Computer Science was introduced at the Scuola Normale Superiore as an approach to the problems related to the automatic processing of archaeological and art history data and documents, thanks to Paola Barocchi and the creation of the Centro di Elaborazione Automatica di Dati e Documenti Storico Artistici, which established important international relationships with the Paul Getty Foundation, the Harvard University Center for Italian Renaissance Studies at Villa I Tatti, the Warburg Institute, etc. 15 Archeologia e Calcolatori 20, 2009, 17-26 INFORMATICA ARCHEOLOGICA E NON ARCHEOLOGICA 1. Introduzione A me tocca oggi l’onorevole ma delicato compito di dare un senso generale agli interventi e alle manifestazioni che si susseguiranno in questa giornata, ed anche, devo dire, di rispondere ad una domanda che sento aleggiare su di noi: è davvero necessario, o anche soltanto utile, ripercorrere le esperienze passate dell’Informatica Archeologica, di là dall’ovvio interesse storico di conoscere quanto è stato compiuto dai pionieri della disciplina, e dal romantico affetto che ogni studioso nutre per le origini della propria disciplina? In un ambiente, come quello dell’informatica, in cui con rapidità impressionante si evolvono e cambiano anche radicalmente strumenti tecnologici e modi di ottenere certi risultati, e sorgono possibilità e potenzialità un momento prima non immaginabili, a che giova riandare ad esperienze ormai superate che possono apparire anche ingenue, e comunque di nessun momento in confronto alle esigenze delle attività presenti? Per rispondere a questa domanda richiamerò preliminarmente due punti, che dovrebbero dare una base alle argomentazioni che seguiranno: 1) Questo incontro, anche nel titolo, presuppone che l’Informatica Archeologica sia una disciplina con suoi propri fondamenti teorici. 2) Essa d’altra parte si riconosce non separata, sul terreno più generale, dall’Informatica Umanistica, perché soltanto in questo ambito più vasto è possibile valutare correttamente alcune delle caratteristiche delle applicazioni archeologiche. E dunque non parrà improprio se richiamerò i risultati di una sia pur sommaria e breve indagine storica sugli sviluppi dell’Informatica Umanistica nel suo complesso (Orlandi 2002). Secondo quanto ho esposto altrove (Orlandi c.s.) lo sviluppo dell’Informatica Umanistica si può dividere in quattro fasi: – Periodo dei precursori (fino al 1960). È un periodo affascinante, naturalmente, ma le sue caratteristiche sono irrilevanti per il nostro argomento. – Periodo delle applicazioni pionieristiche (1960-1970). Un certo numero di intraprendenti studiosi delle discipline umanistiche inizia a sperimentare in profondità le capacità delle macchine. Si notano già applicazioni in ambito archeologico, con l’apparizione del grande Jean-Claude Gardin, che comincia a cercare linguaggi formali utili a trattare fenomeni non testuali, in particolare oggetti d’interesse archeologico, con strumenti automatici. – Periodo degli esperimenti e delle ricerche (1970-1990). È questo il momento che a mio giudizio va considerato con più attenzione. Gli studiosi diventa17 T. Orlandi no coscienti del fatto che da un lato l’oggetto stesso delle proprie ricerche subisce radicali cambiamenti in presenza del nuovo strumento, non solo per le sue valenze di carattere pratico, operativo, ma soprattutto sotto l’aspetto metodologico; dall’altro che lo strumento è qualcosa di assai diverso da una banale macchina, ed ha nel suo stesso funzionamento un aspetto teorico che invita ad usarlo in modo meno super�ciale di quanto si fosse fatto fino allora. Senza dimenticare la sintesi pionieristica di Paola Moscati (1987), interessa soprattutto rilevare come Jean-Claude Gardin (in particolare 1980, 1991) e Mario Borillo (1984) sviluppino la visione della stessa Informatica Umanistica come un nuovo linguaggio rigoroso, formalizzato, che può e deve essere reso adatto a descrivere fenomeni archeologici, storici, e letterari. Il grande merito di Gardin sta nell’aver compreso che con l’avvento delle macchine computazionali si apriva un terreno di indagine affascinante, nel quale i principi di funzionamento di quelle macchine potevano suggerire linee di condotta nelle ricerche, che a loro volta venivano ad incidere sulle metodologie archeologiche. Non si dimenticherà che erano quelli i tempi della cosiddetta New Archaeology, le cui problematiche erano del tutto estranee all’informatica, ma segnalavano un’esigenza di rinnovamento a cui in sostanza Gardin dava una risposta. Erano anche i tempi dell’infatuazione per la cosiddetta intelligenza arti�ciale, che comunque invitava a ri�ettere sui meccanismi intimi del ragionamento, nella fattispecie archeologico. Il percorso teorico di Gardin assume un valore essenziale, indipendentemente dal consenso che si voglia dare alle sue soluzioni e alle sue proposte, a partire dalla concezione di vocabolari archeologici aderenti a regole formali (Gardin 1976 e ss.; cfr. anche, successivamente, le realizzazioni di GuimierSorbets 1990), alla dialettica fra descrizioni e spiegazioni, con la relativa spirale (che richiede che non si chiuda mai il rapporto fra i due momenti, al contrario di come vengono normalmente concepite le ricerche informatizzate), al confronto fra metodologie formali computazionali e metodologie umanistiche. La maggior parte delle ricerche di questo periodo fu purtroppo destinata a rimanere, almeno fino ad oggi, senza conseguenze strutturate e riconosciute, a causa soprattutto della refrattarietà e dell’ignoranza informatica del mondo accademico umanistico, non soltanto in Italia, ma in tutto l’ambiente internazionale. – Periodo del trionfo della tecnologia (1990 ad oggi). Gli incredibili avanzamenti della tecnologia mettono nelle mani degli studiosi (anche in senso non �gurato, se pensiamo ai computer portatili) strumenti di una potenza ignorata dai più grandi main frame degli anni precedenti, e sono oltretutto già dotati di software più o meno incorporati, che fanno dimenticare i semplici ma essenziali principi su cui il loro funzionamento si basa, e limitano il loro apprezzamento ai programmi che essi offrono, eclatanti dal punto di vista 18 Informatica archeologica e non archeologica dell’utente �nale, col risultato di focalizzare l’attenzione sul risultato visibile, e non sulle procedure sperimentali che dovrebbero essere l’oggetto della ricerca scienti�ca anche per le discipline umanistiche. Dunque intorno al 1990 noi collochiamo una crisi per la quale si rinuncia a ri�ettere sull’incontro fra l’informatica nel suo aspetto più teorico e il mondo delle ricerche umanistiche, e ci si limita a sfruttare le risorse tecnologiche, diciamo così, a scatola chiusa, per ottenere dei miglioramenti, anche molto importanti, nella presentazione dei risultati, senza approfondire le opportunità che la computazione come automazione di procedimenti logici può offrire alle discipline umanistiche, e in particolare all’archeologia. Il fatto è che per apprezzare questo tipo di posizione occorre prendere atto che le opportunità a cui alludo fanno riferimento ad una interazione fra l’informatica e le discipline umanistiche in quanto tali nella loro generalità, piuttosto che a ciascuna di esse in particolare. Questo comincia ad essere evidente se si ri�ette sul fatto che l’utilità dei diversi pacchetti applicativi che tutti conosciamo è trasversale rispetto alla specializzazione di chi li usa. Che il word-processor serva a tutti è fin troppo ovvio; meno ovvio ma ugualmente vero è che i sistemi di information retrieval, di analisi statistica, di trattamento delle immagini trovano applicazione senza con�ni. Ma questo non è che una presa di coscienza super�ciale, per quanto evidente, di quanto cerchiamo di affermare. Per comprendere le nuove possibilità che l’informatica propone anche nell’ambito delle discipline umanistiche, occorre giungere alla comprensione dei principi più profondi per i quali avviene questo fenomeno; altrimenti si rimane su una constatazione simile a quella per cui la stampa o la fotogra�a sono altrettanto utili ad un archeologo che ad un �lologo. Quello che conta è che le possibilità offerte dall’informatica derivano da processi in qualche modo intelligenti, ovvero logici, e sembra riduttivo cercare di avvalersene senza sfruttare questa loro caratteristica. La constatazione che uno stesso apparecchio possa elaborare dei testi, trattare delle immagini, gestire delle basi di dati, fare interagire tutte queste realtà secondo la volontà di chi le produce e di chi ne usufruisce ha due aspetti complementari. Il primo è quello super�ciale e visibile, preparato dai tecnici delle diverse applicazioni, al servizio degli studiosi che li istruiscono sui dati che gli vengono forniti. Il secondo è quello per cui tutti quei dati vengono ridotti in un primo tempo ad un’unica realtà invisibile, il codice binario, e sottoposti poi ad una serie di procedimenti. Il fatto che la macchina, mediante tali procedimenti, sia capace di far assumere a dati omogenei qualunque aspetto sia consono alle più diverse realtà deve essere oggetto di attenta considerazione. Questi procedimenti erano più evidenti in tempi passati, quando lo studioso era alle prese con macchine di più dif�cile e complicato sfruttamento, 19 T. Orlandi che tuttavia lo mettevano maggiormente a contatto con i principi secondo i quali le macchine agivano. Questo lo incoraggiava a non perdere di vista quei principi nel progettare le applicazioni che egli desiderava. Man mano che le macchine sono diventate più user friendly si è considerato solo il fine che si voleva raggiungere, lasciando ai tecnici la preoccupazione di come ottenerlo. Molti sono perfettamente soddisfatti di un tale stato di cose. Ma i più avvertiti sono invece delusi della via che è stata in tal modo intrapresa. Ecco dove un ripensamento di quanto è accaduto appare necessario per tornare ad una considerazione più teorica dell’uso delle macchine informatiche, ed ecco il signi�cato, a me pare, di giornate come questa. Il nocciolo di quanto mi premeva sottoporre oggi alla vostra attenzione è tutto qui. Resta tuttavia il compito di indicare più concretamente alcuni punti nei quali un tale atteggiamento può essere vantaggioso, senza pregiudizio per i risultati che si sono raggiunti, ma ponendo l’attenzione su problemi meno evidenti che si possono affrontare con maggiore riguardo agli aspetti metodologici del nostro operare. 2. La concezione delle basi di dati L’organizzazione di una banca dati non è necessariamente legata a questo o quel pacchetto gestionale, ma piuttosto ad un lavoro teorico e metodologico che individui un rapporto fra la formalizzazione della sua struttura e la realtà che essa sarà chiamata a riprodurre e su cui si faranno le analisi in modo automatico. L’umanista che progetta una banca dati prende di solito come punto di partenza (perché l’ambiente e le precedenti esperienze cartacee lo invitano a fare questo) due fattori: 1) il programma di gestione che userà; 2) la “scheda” dei dati che dovrà immettere. Questo atteggiamento (non possiamo chiamarlo metodo, perché è un modo di operare basato su elementi psicologici e vecchie abitudini piuttosto che sulla ri�essione metodologica) è oggi da mettere a confronto con uno diverso, che tiene conto del patrimonio degli studi (ancor prima che dei programmi) riguardanti il sistema relazionale di gestione delle banche dati (Atzeni, Batini, De Antonellis 1983, con bibliogra�a). In effetti questo sistema si basa piuttosto su una visione teorica che non semplicemente operativa, e dunque non è legato in linea di principio alle realizzazioni tecniche, che ne conseguono. Esso prevede la costituzione di una pluralità di archivi (contrariamente al singolo archivio in cui vengono inseriti i dati nel modello gerarchico), che vengono espressi sotto forma di “tabelle”, e questo sistema consente di utilizzare le singole tabelle o i singoli archivi come parte di un sistema complesso, anche diverso da quello per il quale sono stati concepiti, purché essi siano stati concepiti correttamente in ambito relazionale. 20 Informatica archeologica e non archeologica Siamo cioè in linea perfettamente coerente con la necessità di scambio di dati fra studiosi che li possano utilizzare per scopi diversi, ed in contesti diversi. Il sistema relazionale può essere svincolato dai programmi che vengono usati in concreto per gestirlo in modo automatico, e mette in crisi il tradizionale concetto di scheda, se non come di un mezzo per introdurre i dati in maniera rapida e facile, non in relazione all’architettura dell’archivio, ma in relazione a come i dati si presentano materialmente allo studioso. Soprattutto il sistema relazionale è migliore, perché la realtà è più vicina ad una struttura relazionale che non ad una struttura gerarchica. La struttura dunque di una banca dati relazionale riprodurrà in modo più fedele ciascuno degli oggetti della ricerca, anche perché ne manterrà i rapporti con gli altri oggetti su un piano parallelo, e non verticale, così come nella realtà vi sono piuttosto relazioni multiple sullo stesso piano che relazioni di dipendenza di un attributo ad un oggetto. Il sistema relazionale presuppone dunque la dichiarazione di come lo studioso vede la struttura dei dati. Purtroppo è raro vedere una tale dichiarazione nelle realizzazioni che vengono proposte, soprattutto in rete. 3. I problemi della codifica L’attenzione degli studiosi interessati alla metodologia si concentra soprattutto sul trattamento dei dati, e sulla conseguente formalizzazione del ragionamento archeologico. Meno sul passaggio iniziale di de�nizione e descrizione, o rappresentazione, dei dati, cioè quello che intendiamo appunto per codi�ca, e che viene in certo modo ritenuto ovvio, e quasi banale. Si nota per esempio che nella storia dell’archeologia lo spazio dato al metodo di descrizione degli oggetti è quasi nullo rispetto a quello dato ai vari metodi di interpretazione. La codi�ca non consiste semplicemente nel modo di trasferire all’interno di una memoria magnetica i dati da sottoporre agli appositi programmi di un computer, così come sono già preparati sulla carta. Questo passaggio (che propriamente noi chiameremmo di “transcodi�ca”, cioè di puro passaggio da un codice all’altro) si risolve semplicemente nell’uso corretto della tastiera, o comunque degli strumenti utilizzati per l’input dei dati. Anche questo semplice passaggio non è esente da problemi, perché vi sono molti tipi di tastiera etc., che offrono molti tipi di corrispondenza fra i simboli riportati (sui tasti) e le sequenze magnetiche (o sequenze di bit) prodotte nella memoria del computer. Ma questi problemi sono più banali. Prima ancora esiste un problema teorico della codi�ca, che è sempre stato conosciuto, ma di solito è stato trascurato perché risolto alla buona, in quanto precedentemente il messaggio archeologico era rivolto sempre a intelligenze umane, che compivano implicitamente grossi passaggi di interpre21 T. Orlandi tazione. Con il supporto cartaceo questo era consentito, perché i dati su carta possono essere letti solo da intelligenze umane, che compiono su di essi una serie di elaborazioni ovvie, e inconsce, prima di entrare nel merito scienti�co. I dati su supporto magnetico vengono invece analizzati da un computer, che non andrà mai oltre a ciò che sia perfettamente esplicito nei dati stessi. Si può dire che, come si può benissimo usare una lingua senza esplicitarne le regole grammaticali, ma se si vuole stabilire la correttezza di un testo che si pretende espresso in quella lingua, bisognerà chiarirne la struttura; così si può usare ef�cacemente della codi�ca, senza teorizzarla, solo �nché non sorga la necessità di discutere se un certo lavoro di codi�ca sia stato fatto correttamente o no. Il procedimento della codi�ca non riguarda solo un trasferimento di segni, cioè l’utilizzazione di un codice al posto di un altro ma anche la valutazione dei dati che si intendono codi�care. Infatti, per verificare la validità e la congruità di una codi�ca, occorrerà avere un’idea ben precisa non solo del codice, ma anche dei dati; e occorrerà che questi dati siano analizzabili come unità ben speci�cate. Scrive a questo proposito José E. Igartua (1991, 75): «A questo livello la codi�ca signi�ca de�nire il signi�cato delle parole e numeri che si inseriscono nel computer, in modo che la manipolazione dei simboli operata dalla macchina corrisponda ad una manipolazione dell’informazione che sia utile allo storico. Incoerenze e ambiguità che rimangano dopo che i dati sono stati resi “machinereadable” in�cierà l’analisi successiva e sarà dif�cile da rimediare». Si deve tener conto del fatto che non c’è un rapporto di necessità e dipendenza fra quello che possiamo memorizzare su supporto magnetico, per poi sottoporre a procedimento automatico, e quello che è rappresentato sulla tastiera per mezzo della quale vengono compiute le operazioni di input (lettere, numeri, parentesi, etc.). Il valore attribuito alle sequenze di bit che vengono memorizzate può anche non coincidere con quello previsto dalle convenzioni normalmente utilizzate (per esempio il codice ASCII). Tali modelli sono lontani dall’essere completi, e comunque non sono aderenti alle esigenze della ricerca umanistica, in particolare archeologica. In realtà, salvo il fatto che i dati devono essere discreti, la loro scelta e la scelta di come rappresentarli dipende esclusivamente dallo studioso. È evidente che questo comporta molti problemi, e solleva parecchie obiezioni. La più seria, per quanto posso vedere, è che in quel modo i dati tendono ad essere intimamente connessi ai giudizi su di essi da parte dello studioso che li ha raccolti e vagliati; e inoltre la loro codi�ca risentirà delle esigenze dettate dal software a sua disposizione. È opportuno notare che: a) la “soggettività” dei dati, quando non sia spinta a livelli estremi, del resto comunque non compatibili con un lavoro serio di ricerca, non è affatto in22 Informatica archeologica e non archeologica compatibile con i sistemi automatici, anzi ne è un aspetto essenziale. Potrei dire che il momento della codi�ca dei dati è un momento molto importante, proprio perché non può mai prescindere da un apprezzamento soggettivo di essi, guidato dai risultati della ricerca precedente; b) ad ogni modo in ambito informatico occorrerà compiere uno sforzo per rendere i dati utilizzabili in ricerche diverse da quelle che li hanno prodotti, e questo può essere ottenuto in due modi distinti ma interdipendenti: la massima semplicità e trasparenza nella loro codi�ca; il riconoscimento di un ambiente operativo comune ai ricercatori, estremamente aperto anche a programmi individuali, che fornisca uno standard utile allo scambio dei dati. Finalmente, sarà opportuno chiarire il passaggio fra il momento della scelta di un codice e quello della individuazione della corrispondenza biunivoca fra i simboli ottenuti con il codice scelto e gli elementi della realtà che vengono rappresentati da quei simboli. Si tratta di decisioni soggettive, mediante le quali si attua la corrispondenza fra gli elementi da codi�care e le unità complesse, e tutto questo va visto in rapporto ai differenti piani di rappresentazione della realtà. Infatti i procedimenti informatici possono essere applicati alla realtà, come si presenta direttamente allo studioso; ovvero a rappresentazioni di tale realtà. Sarà perciò possibile distinguere: 1. Rappresentazione diretta: è quella che avviene mediante immagini assunte come tali (fotogra�a, riprese televisive, disegni, etc.) ovvero mediante banche dati formate per mezzo di inchieste dirette, cioè con questionari a cui rispondono i diretti interessati. La rappresentazione per immagini è naturalmente usata pesantemente in archeologia, e in effetti alcuni progetti sono frutto anche di una ri�essione approfondita sui relativi risvolti in fase di ricerca. 2. Rappresentazione indiretta: in questo caso il punto di partenza è rappresentato da documenti scritti (anche letterari), i quali vengono codi�cati. La corrispondenza è dunque col documento, non con la realtà rappresentata dal documento. Questo signi�ca che nel valutare i risultati dei procedimenti informatici occorrerà tener conto sia dell’interpretazione di chi ha redatto i documenti, sia di chi li codi�ca. 3. Rappresentazione doppiamente indiretta: quando il documento su cui si lavora è un’opera storiogra�ca, da cui si ricavano notizie da codi�care, si opera una prima sintesi o scelta degli argomenti, oltre a codi�care e interpretare il documento. Quando il documento è un oggetto archeologico, occorre sia descrivere il documento in quanto tale, sia esplicitare le caratteristiche che lo rendono signi�cativo per l’indagine archeologica. La codi�ca è, per un verso, il momento iniziale di un procedimento di ricerca, quando venga attuato mediante metodi anche informatici. Ma, sotto un altro aspetto, rappresenta anche (e forse principalmente) il momento conclusivo di un procedimento precedente, che ha condotto ad individuare: i con�ni del 23 T. Orlandi materiale documentario che si vuole prendere in considerazione; le caratteristiche di quel materiale che determinano il suo interesse per la ricerca; la scelta di un linguaggio per esprimere i due punti precedenti; il modo di esprimere in tale linguaggio l’identi�cazione del materiale documentario e le sue caratteristiche. Risulta da questo che una codi�ca non sarà mai de�nitiva, perché è prevedibile che i risultati del procedimento di ricerca che ha dato origine alla codi�ca siano tali da far mutare almeno in parte la codi�ca, o almeno a rendere necessaria la codi�ca di ulteriori documenti o caratteristiche. Dunque la struttura della codi�ca deve essere aperta, in modo che si possa intervenire apportando aggiunte o modifiche. La codi�ca riveste dunque un’importanza assai maggiore di quella che di solito le si concede. C’è addirittura la possibilità (che riteniamo da evitare) che essa diventi totalizzante, cioè che riunisca in sé anche gli altri passaggi del trattamento automatico (l’analisi dei rapporti logici fra i dati, e la veri�ca della correttezza teorica delle procedure di analisi e di sintesi). In conclusione, la codi�ca rappresenta la sintesi formale di quanto conosciamo dell’oggetto che vogliamo studiare. Essa deriva in prima istanza, cioè al momento della prima conoscenza che si ha dell’oggetto, soprattutto dalla dialettica fra le sue caratteristiche intrinseche (forma, dimensioni, materiale...) e la competenza archeologica dello studioso. Il confronto fra questi due elementi viene attuato con procedimenti sostanzialmente intuitivi, che determinano quali aspetti dell’oggetto prendere in considerazione e quindi codi�care. 4. Aspetti teorici Un terzo aspetto riguarda la effettiva discussione dei problemi teorici che solleva l’interazione fra archeologia e informatica. Qui si nota soprattutto la separazione fra il settore archeologico e gli altri, in primo luogo quello linguistico e testuale. Non sarà un caso che quest’ultimo, indubbiamente più avanzato rispetto agli altri, abbia in un certo senso monopolizzato l’Informatica Umanistica: porteremo ad esempio i due importanti volumi dei due Humanities Computing Yearbook (Lancashire 1988, 1991), che segnano in certo senso la conclusione del periodo aureo delle ricerche; e il recente Companion di Oxford, tutti focalizzati completamente sulle applicazioni linguistiche, in cui all’archeologia è dedicato uno spazio che direi insigni�cante. Per l’archeologia, esistono luoghi (la rete; ma anche riviste, in primo luogo questa rivista, «Archeologia e Calcolatori») in cui vengono annunciati e presentati i progetti informatici e anche vengono esposti punti di vista metodologici. Ma non c’è quasi mai una discussione che verta sul valore informatico di quei progetti. È questo un segnale della scarsa vitalità del settore, nonostante il numero sempre crescente di imprese che si avvalgono 24 Informatica archeologica e non archeologica di tecnologie informatiche. In effetti il settore stesso non viene pienamente riconosciuto come tale, anche se l’uso dell’informatica è considerato in qualche modo (questo modo non viene mai uf�cialmente speci�cato) come un valore aggiunto, per esempio nella valutazione di progetti di ricerca, in questo caso secondo una mia personale esperienza, diciamo così, istituzionale. Questo fa sì che vengano sempre considerati i risultati che si raggiungono o che ci si propone di raggiungere, ed eventualmente gli aspetti disciplinari, in questo caso archeologici, dei progetti, e mai la congruità, meglio ancora la prospettiva metodologica, dell’inserimento di strumenti informatici. Sarebbe importante invece suscitare e vivacizzare luoghi in cui discutere di questi problemi, come sta avvenendo, per esempio, nel Regno Unito soprattutto, ma anche in Olanda o negli Stati Uniti. Siamo in un momento, come mi sembra risulti da quanto ho esposto sopra, in cui più direzioni si aprono alla collaborazione tra informatici ed umanisti, alcune delle quali intrinsecamente sterili anche se apparentemente fruttuose, ma solo a breve termine. Probabilmente la storia farà il suo corso, e le vie distorte saranno raddrizzate strada facendo. Ma non sarà stato forse inutile che voci al momento inascoltate si siano levate per invocare una ri�essioni su problemi dif�cili ma di ampia portata. Tito Orlandi Accademia Nazionale dei Lincei BIBLIOGRAFIA Atzeni P., Batini C., De Antonellis V. 1983, La teoria relazionale dei dati, Torino, Boringhieri. Borillo M. 1984, Informatique pour les Sciences de l’Homme. Limites de la formalisation du raisonnement, Bruxelles, Pierre Mardaga (http://www.irit.fr/recherches/LILAC/Pers/Borillo/). Gardin J.-Cl. 1976, Code pour l’analyse des formes de poteries, établi en 1956, revisé en 1974, Paris, CNRS. Gardin J.-Cl. 1980, Archaeological Constructs. An Aspect of Theoretical Archaeology, Cambridge-Paris, Cambridge University Press-Editions de la Maison des Sciences de l’Homme. Gardin J.-Cl. 1991, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris, Editions de l’Ecole des Hautes Etudes en Sciences Sociales. Guimier-Sorbets A.-M. 1990, Les bases de données en archéologie. Conception et mise en œuvre, Paris, CNRS. Igartua J.E. 1991, The Computer and the Historian’s Work, «History and Computing», 3, 73-83. Lancashire I. (ed.) 1988, 1991, The Humanities Computing Yearbook 1988; 1989-90. A Comprehensive Guide to Software and Other Resources, Oxford, Clarendon Press. Moscati P. 1987, Archeologia e calcolatori, Firenze, Giunti. Orlandi T. 2002, Is Humanities Computing a Discipline?, «Jahrbuch für Computerphilologie», 4, 51-58. Orlandi T. c.s., Un ultimo bilancio dell’informatica umanistica, in Elaborare il sapere nell’era digitale. Atti del Convegno (Montevarchi 2007), in corso di stampa. 25 T. Orlandi ABSTRACT What is the use of re�ecting on the history of Digital Archaeology? Dividing the history of Digital Humanities in general into four stages, Digital Archaeology was born in the stage of “pioneers’ applications” (1960-70), and for some time it developed both in practice and in theory. The theory seemed especially interesting also for non digital Archaeology, but around 1990 technology suffocated the more complicated and dif�cult theoretical approach. The opportunity to go back to this approach is demonstrated in three special cases: the creation of databases, the encoding procedures, and the relations between archaeology and information science. 26 Archeologia e Calcolatori 20, 2009, 27-35 FROM ANARCHY TO GOOD PRACTICE: THE EVOLUTION OF STANDARDS IN ARCHAEOLOGICAL COMPUTING 1. Introduction Standards are essential to archaeological computing. From the earliest days of punched cards the discipline turned to computers and quantitative methods to help identify patterning in the archaeological record, and to systematise its data. Without standards there could be no patterning. However, there has also been some tension concerning the adoption of standards, with a feeling that standards can sti�e creativity and evolution. Caught halfway between the Sciences and the Humanities, most archaeologists were reluctant to adopt standardised systems. This led to what has been described as the “not-invented-here” syndrome, by which each researcher thought their own problem was unique and deserved a unique solution. However, archaeologists also recognised that the tendency to reinvent the wheel and an overall lack of vocabulary control were combining to create an archaeological Tower of Babel. Unfortunately, this rarely led to action. Early standards were imposed as much by the computing industry as by practitioners. Gradually, and with pressure from the worlds of libraries, museums and heritage management, archaeologists have adopted documentation standards – Dublin Core, CIDOC CRM, and MIDAS XML. However, these are still permissive standards – they lead to Guides to Good Practice, or Best Practice, but not Required Practice. This paper assesses the importance of standards initiatives and asks where we go from here. Do modern advances in natural language processing and data mining mean that databases and structured and controlled text have been superseded, or will we only reap the rewards of information technology if we learn how to describe our data in standard ways? Does the prospect of an interoperable Semantic Web render standards redundant, or does it depend upon standards if it is to function effectively? 2. What do we mean by standards? In the English language the word standard can mean «something to which others are expected to conform», but it can also mean «the degree of excellence required for a particular purpose» – something can be of low or high standard. This association may not just be coincidental. Something that conforms to a standard may also be assumed to be of high standard – having been done with care and attention to detail. 27 J.D. Richards Before we go further we should therefore be careful to de�ne what we mean by standards. There are three broad types that have relevance in archaeology: 1. Technical standards: hardware and software. 2. Content standards: data recording systems. 3. Metadata standards: data documentation. 2.1 Technical standards During the infancy of archaeological computing there was much concern with hardware and software standards. In the early days of technology there were many competing and incompatible computer systems, and many competing software applications. This also led to a fear that archaeologists operating in isolation were wasting energy by continually re-inventing the wheel, but that it was also leading to a situation where their data could never be integrated and shared. Whether we like it or not, the market dominance of Microsoft has to a large extent solved this problem. Most archaeologists are now familiar with some form of Windows-based operating system, and most of us use a PC or an Apple computer which can emulate a PC. Whereas early surveys of archaeological computer usage (Richards 1986; Booth, Grant, Richards 1989) revealed an astonishing array of different applications programs, the market has also led to the dominance of particular software venders. The Microsoft Of�ce suite dominates the spreadsheet, word-processor and database market. In more specialist areas there are also world-leading suppliers – AutoDesk for CAD, ESRI for GIS and so on. Even if one chooses to use another product the dominance of particular products ensures that any manufacturer will provide export facilities in standard �le formats, such as DXF, or an ESRI shape�le. None of this came about because archaeologists were able to choose and agree on the best solution – standards were forced upon us – and the rest of the world – by the free market. 2.2 Content standards Archaeologists have also been concerned with data recording standards. The development of computerised database systems has gone hand-in-hand with the standardisation of manual recording systems. The question of whether we should all record our excavations in the same way, with the same boxes, and the same codes, has occupied a great deal of attention. On the one hand this links to the idea of quality control and those minimum recording standards that should apply if one is destroying a site by excavation. There is also the issue of comparability of data and the question that unless data are recorded using the same parameters then it will never be possible to compare them. On the other hand there is the view that there is no such thing as an objective 28 From anarchy to good practice: the evolution of standards in archaeological computing archaeological record – one records or observes those factors that are strictly relevant to the research question under examination. In one form this view is similar to that which argues that every project is unique and that something “not invented here” will not be useful. However, there is also an argument that this diversity is a strength, and that the discipline will stagnate if we are all forced to use the same recording systems (Richards 1985). In practice we have witnessed the development of a number of standard data recording systems, but not a single system that everyone uses. Large organisations have tended to promote particular ways of doing things. For a long time in England variants of the English Heritage CEU Delilah site recording system competed with the DUA single context system (Jefferies 1977; DUA 1980). Through time these systems have tended to come closer together (see, for example, Roskams 2001). Whilst preserving some unique features they have de�ned a lowest common denominator of recording �elds across which comparison is possible. Occasionally new projects and new ways of doing things have led to the appearance of new systems – as in the site recording system developed by Framework Archaeology employed at Heathrow (Beck 2000). The internationalisation of archaeology has also led to overseas innovations being adopted, such as the adoption of the Swedish Monuments Board Intrasis recording system in other countries, including the UK1. Similarly, we have seen a smaller number of monument inventory systems emerge from the wide range of individual sites and monuments records systems (see, for example, papers in Rahtz, Richards 1989; Robinson 2000). Once again though, this has largely been the result of commercial dominance (for example by the Exegesis HBSMR system in England)2, rather than �tness for purpose, and a discipline as small as archaeology cannot support many rival systems at a commercial level. Some level of standardisation is essential to the discipline. Archaeology is about the search for patterning – the repeated and consistent re-occurrence of a range of attributes may de�ne a type of pottery or a form of burial for example. It is how Childe de�ned a culture as regularly reoccurring and associated variables (Childe 1929, v-vi). Without standards there can be no patterning. Unless we use the same terms to describe an artefact there can be no artefact types, no typologies, and no classi�cation – an activity which is fundamental to the discipline. As soon as archaeologists used the �rst punched card machine they imposed standards. The pottery sherds recorded could only be meaningfully compared if there was agreement on the attributes to be measured and on standardised ware descriptions (Richards, Ryan 1985). 1 2 http://www.intrasis.com/. http://www.esdm.co.uk/HBSMR.asp. 29 J.D. Richards However, the fashion in the 1970s and 1980s for the development of universal archaeological databases (Chenhall 1971; Arroyo-Bishop 1989) has now given way to a greater realism, and an appreciation that centralised standardised systems will never be adopted in a world where there are diverse practitioners, and geographical, historical and political drivers behind diversity. There is now greater emphasis on distributed data systems, and upon interoperability, supported by the development of documentation standards (e.g. Kilbride 2004). 2.3 Metadata standards During the 1980s and 1990s the emphasis on standardised recording systems was replaced by greater concern with documentation standards. The rise of the Internet has highlighted that one does not have to use the same computer or even the same application to communicate with other computers and other applications. Networks of computers can talk to one another and share information, and a user can access a range of data sets without leaving their web browser. There has been a realisation that it is not really important which machine or programme is used, but that proper documentation of the archaeological content is much more important to allow computers to talk to one another. Metadata standards have emerged as the key standards which allow data sets to be interoperable, and make their discovery over the Internet possible. Many of these new standards have emerged from the library world and are international in scope. The Dublin Core element set is an ISO standard with scope for archaeological extensions3. Similarly the CIDOC-CRM is a cross-discipline high level ISO standard which seeks to de�ne types of data elements, and the relationship between them4. If datasets are ever meaningfully to be integrated and compared it provides an essential mapping. It provides the infrastructure for an archaeological Semantic Web. Metadata standards are generally �exible and permissive. They are standards about data, they do not determine the data itself (Wise, Miller 1997). Thus the ADS Guides to Good Practice series does not dictate how one should record something; rather it says that if you are going to record something this is what you should record about it if anyone else is going to be able to �nd and reuse your data5. http://dublincore.org/. http://cidoc.ics.forth.gr/. 5 http://ads.ahds.ac.uk/project/goodguides/g2gp.html. 3 4 30 From anarchy to good practice: the evolution of standards in archaeological computing 3. Standards in action However, to undertake meaningful cross-searching of disparate data sets two other things are essential. Firstly, one needs agreed technical standardscommunications protocols, such as Z39.50 (Miller 1999)6 or OAI-PMH7. Secondly, one still needs some level of agreement about content standards and vocabulary control. The painstaking work of the Data Standards Unit at English Heritage and of the Forum for Information Standards in Heritage (FISH)8 group in developing agreed thesauri of Monument Types and Period terms now starts to bear rewards when one integrates monument inventories for different regions in applications such as ADS ArchSearch9 or the English Heritage Gateway10. For artefact types the Museum Documentation Association artefact thesaurus11 or Getty Art and Architecture thesaurus12 have similar importance. Archaeology is generally more advanced than other humanities disciplines in its adherence to standards (Richards, Hardman 2008). Generally, historians do not comply with content and metadata standards. If standards are a measure of how scienti�c a discipline is, then Archaeology is de�nitely further towards the scienti�c end of the spectrum, with greater emphasis on the importance of testing and re-use of other people’s data. However, even within the discipline there is considerable variation in standards compliance. It is easier to integrate several animal bones databases, or a number of monument inventories, than it is to integrate the databases of a number of pottery or lithic specialists for instance. This has implications for identifying the low-hanging fruit for a number of cyber-infrastructure or eScience projects now under consideration (Kintigh 2006; Snow et al. 2006). But to achieve interoperability at a European level much more standards work is required (Hansen 1992; Kilbride 2004). The variability in European languages, and archaeological concepts, creates special problems (Oberländer-Târnoveanu 2005). The ADS ARENA13 project dodged the language issue by mapping local classi�cations to the English Heritage thesaurus (Kenny, Kilbride, Richards 2003; Kenny, Richards 2005). The Council of Europe has developed a Bronze Age thesaurus with mapping between a limited number of European languages (Barber et al. 1995; Council http://www.loc.gov/z3950/agency/. http://www.openarchives.org/OAI/openarchivesprotocol.html. 8 http://www.�sh-forum.info/. 9 http://archaeologydataservice.ac.uk/. 10 http://www.heritagegateway.org/. 11 http://www.mda.org.uk/archobj/archcon.htm. 12 http://www.getty.edu/research/conducting_research/vocabularies/aat/index.html. 13 http://ads.ahds.ac.uk/arena/. 6 7 31 J.D. Richards of Europe 1999). To undertake a comprehensive thesaurus project would require many decades of investment. 4. Do we still need standards? But is all this standards investment really worth it? In the 2000s most archaeologists will turn to Google to cross-search Internet resources. As everyone knows, Google indexes unstructured free-text data and returns the most relevant hits. Does it matter that no standards may have been applied in the classi�cation used, as hopefully all occurrences will be returned? Or will they? In 2007 the Archaeology Data Service embarked on the Archaeotools project14, with funding under the AHRC-EPSRC-JISC eScience programme, and in collaboration with the Natural Language processing group of the Department of Computer Science at the University of Shef�eld (Jeffrey et al. 2009 and forthcoming). The project aims to replace the “type-and-hope” search engine philosophy with a more reliable “point-and-click” approach, allowing users to browse large datasets. In the �rst phase of the project over one million Dublin Core metadata records for archaeological sites and monuments have been indexed according to pre-de�ned ontologies. The resulting faceted classi�cation interface classi�es the sites according to three primary facets – what, when, and where – each based on mapping the record to a standardised thesaurus. The degree of concordance of the records to the thesauri provides an interesting index of how far each resource included within the one million record database has complied with standardised thesauri. In the second phase of the Archaeotools project techniques of natural language processing have been employed to search for “what”, “when”, and “where” terms included in the thesauri within 1000 grey literature reports, and integrate the index within the faceted classi�cation browser, providing access to the unstructured grey literature alongside the more structured Dublin Core metadata database records. In the UK, as elsewhere in Europe, gaining access to grey literature reports of developer-funded archaeological �eldwork is extremely dif�cult. At the Archaeology Data Service we are creating an online library of grey literature15. However, cataloguing and indexing this library by hand would be a major task. In Norway the Museums Documentation Project used an extensive labour force over many years to manually mark-up the key index terms within historical archaeological archives in XML (Holmen et al. 14 15 32 http://ads.ahds.ac.uk/project/archaeotools/. http://ads.ahds.ac.uk/catalogue/library/greylit/index.cfm. From anarchy to good practice: the evolution of standards in archaeological computing 2004). It is not feasible to extend such a labour-intensive manual approach on a large scale. However, if the process can be automated then the dream of an archaeological Semantic Web becomes a reality (Richards 2006). Once again, standards are critical to achieving a high success rate in automatically extracting index terms from the grey literature reports, as the more the reports adhere to standardised vocabulary the higher the success rate. 5. Conclusion In summary, there are three types of standards. At the bottom, and least in�uenced by the Heritage sector, are technical standards. These include �le formats, communication and computer standards. In the middle are content standards. This is the area within which the Heritage sector can exercise innovation, and must do so to stop stagnation. Finally there are the metadata standards that support resource discovery and integration. As Steve Stead said at an AHRC ICT Methods Network workshop held in October 2007: «The pragmatic result of any work on Standards should be that our data is consistent, our process documented and our documentation explicit. If we achieve that then our work will survive as the profession as a whole will be able to reuse its results. If we fail in any part of this then our data is damned and can be safely deleted at the end of the project as it is no use to man nor beast» (Stead 2007). In conclusion, archaeological computing standards have evolved enormously in the last 40 years. Far from making them redundant, the Internet Age and the development of sophisticated search algorithms give data documentation standards fresh importance. At �rst sight one might assume that the power of search engines such as Google means that structured data and the use of pre-de�ned terms have become super�uous. On the contrary, and as anyone who has discovered hundreds of false hits when undertaking a free text search of the Internet will know, the Semantic Web can only function if the meaning and relationship of data items is mapped to pre-de�ned standardised ontologies that carry international agreement. Julian D. Richards Department of Archaeology University of York REFERENCES Arroyo-Bishop D. 1989, The ArchéoDATA Project, in Rahtz, Richards 1989, 69-86. Austin A., Richards J.D., Pinto F., Ryan N. 2002, Joined up writing: an Internet portal for research into the historic environment, in G. Burenhult (ed.), Archaeological Informatics: Pushing the Envelope CAA2001, BAR International Series 1016, Oxford, Archaeopress, 243-251. 33 J.D. Richards Barber M., Regteren Altena J.F. van, Brandt R. 1995, European Bronze Age Monuments: A Multilingual Glossary of Archaeological Terminology. A Pilot Project Covering Denmark, France, the Netherlands, and the United Kingdom, Amersfoort. Beck A. 2000, Intellectual excavation and dynamic Information Management Systems, in G. Lock, K. Brown (eds.), On the Theory and Practice of Archaeological Computing, Oxford, Oxbow Books, 73-88. Booth B.K.W., Grant S.A.V., Richards J.D. (eds.) 1989, Computer Usage in British Archaeology: Second Edition 1989, Birmingham, IFA Occasional Paper 3, Institute of Field Archaeologists. Chenhall R.G. 1971, The archaeological data bank: a progress report, «Computers and the Humanities», 5, 3, 159-169. Childe V.G. 1929, The Danube in Prehistory, Oxford, Clarendon. Council of Europe 1999, European Bronze Age Monuments - Glossary, Strasbourg. DUA 1980, Department of Urban Archaeology, Site Manual: Part 1, the Written Record, London, Museum of London. Hansen H.J. 1992, European archaeological databases: problems and prospects, in J. Andresen, T. Madsen, I. Scollar (eds.), Computing the Past. Computer Applications and Quantitative Methods in Archaeology, Aarhus, Aarhus University Press, 229-237. Holmen J., Ore C.-E., Eide O. 2004, Documenting two histories at once: digging into archaeology, in Magistrat der Stadt Wien - Referat Kulturelles Erbe - Stadtarchäologie Wien (eds.), Enter the Past: The E-way into the Four Dimensions of Cultural Heritage, BAR International Series 1227, Oxford, Archaeopress, 221-224. Jefferies J. 1977, Excavation Recording: Techniques in Use by the Central Excavation Unit, London, Department of Environment. Jeffrey S., Richards J.D., Ciravegna F., Waller S.J., Chapman S., Zhang Z. 2009, Digging up Data: The Archaeotools Project, Faceted Classi�cation and Natural Language Processing in an Archaeological Context, Philosophical Transactions of the Royal Society A, 367, 2507-2519. Jeffrey S., Richards J.D., Ciravegna F., Waller S.J., Chapman S., Zhang Z. forthcoming, When ontology and reality collide: the Archaeotools project, facetted classi�cation and natural language processing in an archaeological context, in Proceedings of the CAA 2008 Conference, Budapest, Archaeolingua. Kenny J., Kilbride W.G., Richards J.D. 2003, Enter the ARENA: preservation and access for Europe’s archaeological archives, in M. Doerr, A. Sarris (eds.), CAA2002: The Digital Heritage of Archaeology. Computer Applications and Quantitative Methods in Archaeology 2002, Heraklion, Crete, Archive of Monuments and Publications Hellenic Ministry of Culture, 349-353. Kenny J., Richards J.D. 2005, Pathways to a shared European information infrastructure for Cultural Heritage, «Internet Archaeology», 18 (http://intarch.ac.uk/journal/issue18/kenny_index.html). Kilbride W.G. 2004, The Danube in prehistory in the digital age: towards a common information environment for European archaeology, «Archeologia e Calcolatori», 15, 129-144. Kintigh K.W. (ed.) 2006, The promise and challenge of archaeological data integration, «American Antiquity», 71, 567-578. Miller A.P. 1999, Z39.50 for All, Ariadne 21 (http://www.ariadne.ac.uk/issue21/z3950/intro. html). Oberländer-Târnoveanu I. 2005, Multilingual access to Cultural Heritage resources, «Internet Archaeology», 18 (http://intarch.ac.uk/journal/issue18/oberlander_index.html). Rahtz S.P.Q., Richards J.D. (eds.) 1989, Computer Applications and Quantitative Methods in Archaeology 1989, BAR International Series 548, Oxford. 34 From anarchy to good practice: the evolution of standards in archaeological computing Richards J.D. 1985, Standardising the record, in M.A. Cooper, J.D. Richards (eds.), Current Issues in Archaeological Computing, BAR International Series 271, Oxford, 93-102. Richards J.D. (ed.) 1986, Computer Usage in British Archaeology, Birmingham, IFA Occasional Paper 1, Institute of Field Archaeologists. Richards J.D. 2006, Archaeology, e-publication and the semantic web, «Antiquity», 80, 970-979. Richards J.D., Hardman C. 2008, Stepping back from the trench edge: an archaeological perspective on the development of standards for recording and publication, in M. Greengrass, L. Hughes (eds.), The Virtual Representation of the Past, Digital Research in the Arts & Humanities, Ashgate, 101-112. Richards J.D., Ryan N.S. 1985, Data Processing in Archaeology, Cambridge, Cambridge University Press. Robinson B. 2000, English Sites and Monuments Records - Information, Communication and Technology, in G. Lock, K. Brown (eds.), On the Theory and Practice of Archaeological Computing, Oxford, Oxbow Books, 89-106. Roskams S. 2001, Excavation, Cambridge, Cambridge University Press. Snow D.R., Gahegan M., Giles C.L., Hirth K.G., Milner G.R., Mitra P., Wang J.Z. 2006, Cybertools and Archaeology, «Science», 311 (5763), 958. Stead S. 2007, AHRC ICT Methods Network Workshop. Space and Time: Methods in Geospatial Computing for Mapping the Past, Welsh E-Science Centre, Cardiff University, 10-11 October 2007 (http://www.methodsnetwork.ac.uk/redist/pdf/act24report.pdf). Wise A., Miller A.P. 1997, Why metadata matters in archaeology, «Internet Archaeology», 2 (http://intarch.ac.uk/journal/issue2/wise_index.html). ABSTRACT This paper reviews the importance of standards in archaeological computing and traces their development, and the tensions surrounding their deployment. Three categories of standards are de�ned: technical, content and metadata standards. Standards are shown to be particularly important to current initiatives which seek to achieve interoperability between distributed electronic resources. If we are to achieve the potential advantages of a Semantic Web for heritage data over traditional search engine technologies, standards are essential. The paper introduces the Archaeotools project, which is seeking to create a faceted browse interface to archaeological resources. It concludes that data standards and ontologies are essential to the success of such projects. 35 Archeologia e Calcolatori 20, 2009, 37-46 WWW.BEAZLEY.OX.AC.UK FROM APPARATUS OF SCHOLARSHIP TO WEB RESOURCE THE BEAZLEY ARCHIVE 1970-2008 1. Introduction We are all people of our time. My academic career began when computers began moving from the Sciences into the Humanities. Although I knew that I would be a classical archaeologist from the age of twelve, I had a natural interest in science and systematic methodologies. I was going to like computers. What has made my experience unique is my job; when Sir John Beazley (Fig. 1) died his executor and successor to the professorship at Oxford asked me to “look after” his archive. My entire career has been inextricably connected with it. This means that a tradition of scholarship in one institution, even one faculty, can be traced over a century – from Beazley’s creation of a personal apparatus of scholarship, that was rooted in 19th century German academia, to today’s web resource that serves schools as well as senior scholars, museums, collectors, and a global public. The Archive’s success is, however, due not to who we are or where we are, but to what we study – the art of ancient Greece and Rome – and to how Beazley recorded data about it from 1908. Today there are two archives: Beazley’s bought by the university in 1964, and the electronic resource that began in 1979 (Fig. 2). The aims of both are Fig. 1 – Sir John Beazley (1885-1970). 37 D. Kurtz Fig. 2 – The Beazley Archive web site. the same: advancement of knowledge and public service. Public service is, I think, largely a result of my nationality and early life. An American from the mid-west, who was given a scholarship to study at Oxford University, I arrived in awe of the wealth of resources of an ancient European university, and I remain in awe. Since I was given an opportunity I have wanted to share it with others. You will have the impression that I had an ideal job in an ideal place; success was inevitable. Since an objective of this meeting is to share experiences I would now like to explain how dif�cult it has been to sustain the Archive, and to transform an apparatus of scholarship into a research centre with a heavily-used web site. The challenges along the way have been great. The greatest for me, as for anyone trying to sustain a computer project in the Humanities even now, is funding. A classical archaeologist, however, has other challenges. The subject stands between archaeology and art history. Oxford boasts the largest Faculty of Classics in the world and classical scholars, at least in Oxford, tend to privilege texts over objects. For decades I tried to persuade them that computers were a good thing and, like my predecessors in classical archaeology, to persuade them that material culture is as important to the study of classical antiquity as the language and literature. The potential of ICT has now been widely accepted but the appreciation of material culture can still be undervalued. 38 The Beazley Archive 1970-2008 2. 1970-1979 Before anyone can begin a computer project the material needs to be in good order. Beazley’s archive consisted of 100s of 1000s of photographs and notes on classical art, 10s of 1000s of gem impressions and many 1000s of drawings, books and off-prints. While all of this was in Beazley’s home it was in his personal order, but during the 1960s his health declined and order descended into chaos. In 1970, the year he died, the material was hastily packed and transported to Cast Gallery of the Ashmolean Museum. Why? The professor of classical archaeology was also its curator. In the early 1960s a gallery had been built behind the museum for the plaster casts of antique sculpture that had been removed from displayed at its entrance (Fig. 3). The new building had some empty storerooms, and Beazley’s archive was moved into them. It remained there for more than 30 years, largely in the packing cases used to move it in 1970. For decades we had no money, no space – not even natural light or ventilation. Fig. 3 – Ashmolean Museum, Cast Gallery. 39 D. Kurtz Fig. 4 – The Ioannou School of Classical and Byzantine Studies. Then, in the spring of 2007, the Archive was reunited with its academic base – the Faculty of Classics – and given much of the top �oor of the Faculty’s new Ioannou School for Research in Classical and Byzantine Studies (Fig. 4). The �rst decade of the Archive’s life in the university was uncertain and chaotic. Computers came at the very end, in 1979. This was so early for computing in the Humanities that the university was eager to work with us. Susan Hockey and Lou Burnard – two giants of early humanities computing – wrote our �rst programmes in Famulus �les, which most of you have probably never heard of. This �rst decade was spent alone and unpaid in a dreary basement – not in this light and airy space – putting things in order and making accessible that part of the archive that was unique – the photographs of ancient Greek pottery. 3. 1980-1989 The second decade was given over to the creation of the pottery database because that was Beazley’s area of special expertise. You might expect that we began with his large collection of photographs. We did not, because imaging equipment was embryonic and networks were incapable of delivering images. We began instead in libraries with pencils and paper, creating text records. Our data �elds were largely the ones Beazley had used in publications from the 1920s. Because he gave us “authority lists” and an internationally accepted 40 The Beazley Archive 1970-2008 Fig. 5 – The Beazley Archive. Athenian pottery 625-300 BC. vocabulary we could populate the database quickly. We have always used senior post-doctoral researchers and they have worked closely with me and Sir John Boardman. For much of this decade we received grants from the J. Paul Getty Trust in Los Angeles – a then young organisation that was keen to collaborate internationally. Since Beazley stopped actively working in the early 60s we took 1960 as a start date for data collection. Our researchers spent hours in libraries recording vases unknown to Beazley and adding new data about those he knew, and even more hours inputting the data. They focused on Athenian �gure-decorated pottery made between 625 and 300 BC (Fig. 5). This is a large body of material – an estimated 150,000 objects – with rich decoration about life in classical antiquity. It was ideal for electronic classi�cation: large numbers and well-established parameters. 4. 1990-1999 By 1990, the beginning of our third decade, we had a large, well-structured database of Greek pottery with text records available online through the rather primitive Gandalf service. This meant that we were well placed to participate in EU R&D projects that were beginning to use European cultural heritage to develop telecoms networks for image transmission. 41 D. Kurtz Fig. 6 – The Beazley Archive. Sculpture and plaster casts. Between 1992 and 1996 we participated in four EU projects that gave us opportunities to work with IBM, Nokia, Telefonica, FranceTelecom, British Telecom and some of Europe’s greatest museums – the Uf�zi, Prado, Musée d’Orsay, and State Museums of Berlin. These projects brought signi�cant funding and huge challenges: a project like RAMA (Remote Access to Museum Archives) was truly visionary; only now can technology begin to realise it. In retrospect I can see that without this EU funding the Beazley Archive would not have survived: it was still too early for most humanists to value ICT. During the 90s we also scanned Beazley’s photographs of pottery – about 150,000 b/w photographs – and we created more databases on other types of material, initially plaster casts of classical sculpture (Fig. 6). Since we were housed in a museum basement full of casts this was an obvious thing to do and it had great potential for the Collection and Reception of classical art. Later we turned to documentation of engraved gems for a similar practical reason: Sir John Beazley and Sir John Boardman had collected 10s of 1000s of impressions – exact copies – of gems carved from antiquity to the present (Fig. 7). These were like tiny plaster casts. Soon we had more than twenty databases with different types of material. Since we wanted users to be able to extract data from all of them we needed a database that could do this. Greg Parker, the Archive’s Technical Director, who had worked with me on the RAMA project, carried out the programming. RAMA is the mother of CLAROS to which I shall soon turn. 42 The Beazley Archive 1970-2008 Fig. 7 – The Beazley Archive. Gems. While we were scanning images and broadening our subject range, the web was developing. Since we had been online with Gandalf from the early 80s, and were working with telecoms companies in the early 90s, we were well aware of these developments and that explains why our web site had begun by the mid 90s. By 2000 we had created thousands of static web pages in different formats. By the end of our third decade our databases and our web pages were in urgent need of modernisation. 5. 2000 onwards As we entered our fourth decade we gave priority to validating and updating our records and to transferring the 1000s of static web pages into Cascading Style Sheets. We continued to enhance our scholarly databases and to add many thousands of colour digital images. We also undertook major new projects. The digitisation for the web of more than 300 volumes of Corpus Vasorum Antiquorum and the creation of an underlying database with a �velanguage search facility was a major activity between 2001 and 2004 (Fig. 8). Our earlier work on plaster casts was also transformed during these years into a new web site: http://www.plastercasts.org/ (Fig. 9). 43 D. Kurtz Fig. 8 – http: // www.cvaonline.org/. Fig. 9 – http:// www.plastercasts.org/. In 2001 we began to envisage CLAROS as a modern RAMA with distributed databases and a single search engine (Fig. 10). I had worked with Lexicon Iconographicum Mythologiae Classicae from the 80s, and with Sculpture Research Archive in Cologne from the 1990s; both had large datasets. Cologne was already working with the German Archaeological Institute. Our small group has stayed together without any funding. At the beginning of the decade we assumed that CLAROS would use our thesauri of terms translated into different languages, but ICT changes 44 The Beazley Archive 1970-2008 Fig. 10 – http:// www.clarosnet.org/. Fig. 11 – The CLAROS data web. rapidly, and from 2007 we realised that this approach was old-fashioned. The second generation web – the Semantic Web – was coming and so was image recognition that could enable users to search without words. The University of Oxford was developing expertise in both of these areas. In 2007 it had also established an e-research centre where Humanities groups like the Archive could work with ICT leaders. 45 D. Kurtz In the summer of 2008 we began a CLAROS proof-of-concept dataweb project with Beazley, Lexicon Iconographicum Mythologiae Classicae, the Cologne sculpture archive, and the Lexicon of Greek Personal Names in Oxford. The last is a natural bridge between text and image in classical studies (Fig. 11). This diagram suggests a possible structure. We expect to use different types of searching, with satellite maps and timelines, image recognition and some arti�cial intelligence. Our assets at the outset are very large, highly structured and intellectually coherent and our subject is intelligible to a worldwide audience. CLAROS is not only a model to be extended to other datasets, it is also an ideal test bed for developing the next generation of the web. Donna Kurtz Beazley Archive, Classical Art Research Centre Oxford ABSTRACT Over nearly four decades the Beazley Archive has developed from a personal archive, whose origins were rooted in 19th century classical scholarship, to a state-of-the-art electronic resource that can be used anywhere, at any time by anyone. The challenges along the way are noted and the ways they were met, in the hope of inspiring others to persevere. The �rst decade was “organisational”, the second saw the adoption of ICT, the third was dominated by participation in EU R&D projects in telecommunications, and the fourth by the Vision of CLAROS – Classical Art Research Online Services. Since this lecture was given in autumn 2008 the CLAROS Vision has become a reality: by August 2009 more than two million records and images were integrated virtually using CIDOC-CRM. By adopting an ISO programme developed under the aegis of UNESCO for ICOM, the International Council of Museums, and by enhancing it with Open Source software, CLAROS offers a platform that any museum or research institute with digital assets can use free of charge for the public bene�t. As the Beazley Archive approaches its �fth decade, it looks forward to collaborating for the advancement of scholarship and dissemination of results to the global community. 46 Archeologia e Calcolatori 20, 2009, 47-59 ESPERIENZE DOCUMENTALI SUL TERRITORIO DAGLI ANNI ’80 AD OGGI. ALCUNE CONSIDERAZIONI Vorrei iniziare questo breve rapporto nel ricordo di Sabatino Moscati e con riferimento all’incontro di studi che egli promosse con il titolo di “Calcolatori e Scienze umane”. Eravamo nei primi anni ’90 e non sfuggì al suo spirito indagatore, rivolto a tutti i campi delle Scienze dell’antichità, la necessità di proporre un primo bilancio sui risultati – de�niti “spettacolari” – che il fortunato incontro tra le aree della ricerca umanistica e quelle dell’informatica ad essa applicata già erano in grado di mostrare. Un bilancio che veniva anticipato come positivo, ma che in pari tempo riscontrava già “lacune, disfunzioni, ritardi”. E per il settore dell’informatica rivolta all’archeologia del territorio, Moscati volle af�darmi il compito di un rapido sguardo preliminare: non certo un consuntivo, bensì l’identi�cazione di come la topogra�a antica e cioè la ricostruzione storicizzata delle presenze dell’uomo sul territorio avesse reagito a questo nuovo tipo di approccio che di giorno in giorno andava modi�cando le tradizionali metodologie di studio su ciò che dell’antico si era conservato nelle nostre città e nei loro contesti. Nell’occasione ebbi la possibilità di mostrare, tra l’altro, un primo lotto di ricerche e pubblicazioni prodotte, a partire dagli anni centrali dell’ ’80, dal gruppo di lavoro formatosi nell’ambito della redazione della Carta Archeologica d’Italia, sull’abrivio delle esperienze di Giuseppe Lugli e di Ferdinando Castagnoli (Sommella 1990)1. In quella sede suggerivo come, rispetto a un problema che coinvolge l’intera super�cie nazionale, sia per le proporzioni dell’impresa che per i tempi tecnici della ricerca, la soluzione non potesse intervenire se non attraverso adeguate strutture operative e soprattutto mediante un ef�cace sistema di accesso ai dati. Esigenze, queste, che solo il corretto uso delle tecnologie informatiche poteva garantire con modalità più rapide di quanto non fosse stato fatto a partire dagli anni immediatamente successivi alla creazione della apposita Commissione risalente agli anni successivi a Roma Capitale. È infatti noto che l’idea di una Carta Archeologica d’Italia venne formulata nel 1885, in occasione della prima riunione della Direzione di Antichità e Belle Arti del Ministero della Pubblica Istruzione. Dopo un lungo periodo di gestazione ed un dichiarato fallimento dell’impresa, nel 1923 la Carta Archeologica d’Italia, soprattutto grazie all’impegno del Lugli, divenne una delle iniziative scienti�1 Cfr. i riferimenti bibliogra�ci alla �ne del testo. 47 P. Sommella che promosse, sotto l’egida dell’Accademia dei Lincei, dall’Unione Accademica Nazionale, con il nome di Forma Italiae (Castagnoli 1974). Nel 1926 uscì il primo volume della collana editoriale dal titolo AnxurTerracina. Da allora, e con l’intervento postbellico del patrocinio dell’Union Académique Internationale di Bruxelles (Forma Orbis Romani), la Forma Italiae ha pubblicato 45 volumi ed oggi, grazie all’intervento della Commissione Internazionale da me coordinata, si è saldata all’iniziativa della T(abula) I(mperii) R(omani). Dico questo soltanto come spunto per sottolineare che la Forma tratta di prototipi, cioè di ricerche/caposaldo in varie zone dell’Italia, alle quali dovrebbe ovviamente seguire una indagine a tappeto ai �ni della copertura integrale del territorio nazionale. E qui il condizionale è d’obbligo perché, non ostante più volte si sia avvertita, anche in sedi uf�ciali, l’indispensabilità di una Carta Archeologica d’Italia, operativa ai �ni della tutela, della valorizzazione e della corretta piani�cazione, ancora ci si muove in un clima di sperimentazione episodica e quasi sempre mal coordinata. Numerose sono, infatti, le proposte che sono state avanzate riguardo alla ricerca archeologica applicata, in specie a partire dalla �ne degli anni ’80 del secolo scorso (Pasquinucci, Menchelli 1989); ma solo nell’ultimo quinquennio qualcosa si è cominciato a muovere, almeno a livello speditivo, anche a livello degli organi uf�ciali, cui dovrebbe competere l’omologazione del sistema informatizzato delle conoscenze archeologiche territoriali e cioè il Ministero per i Beni Culturali e Ambientali ed i suoi Enti periferici, ovvero le Soprintendenze nelle varie regioni italiane. D’altro canto nessuno ha mai messo in dubbio le �nalità operative, oltre che indirizzate alla ricerca storico-archeologica, di questo tipo di cartogra�a critica analizzata anche secondo modelli complessi oggi applicabili grazie all’evolversi delle tecnologie informatiche (La cartogra�a dei beni storici 1994). Ad esempio lo scopo che sottende la Forma Italiae e le imprese ad essa analoghe – e cioè le redazioni di veri e propri catasti archeologici, utili per la ricerca storica ma fondamentali anche per la tutela dell’eredità culturale dell’antico – fornisce un solido e allo stesso tempo sempre più appropriato strumento di approccio alla conoscenza globale e puntuale di un territorio poiché si basa più che sugli scavi, necessariamente limitati e costosi, sull’accurata analisi diretta delle testimonianze presenti in ampie aree. Se dunque il consenso tecnico-scienti�co verso tale tipo di ricerca è ormai diffuso anche in chiave locale, credo che rimangano valide le domande che mi ponevo oltre 20 anni fa riguardo alle dif�coltà del dialogo tra i vari sistemi informativi e dunque tra i titolari degli apparati conoscitivi e delle risposte omogenee che la ricerca dovrebbe dare alle esigenze differenziate nel campo delle molteplici utenze (Sommella 1989). Sono tuttora convinto che troppo spesso si cada ancora da un lato nella trappola dei dati cartogra�ci simbolici perché predisposti su menu tematici e, dall’altro, in quella delle planimetrie 48 Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni vincolate da scale pre�ssate. Una risposta esaustiva non può che collegarsi direttamente alla documentazione rilevata e misurata, e in conseguenza allo sganciamento dalle costrizioni del fattore di scala: non può in de�nitiva che prescindere dal riporto tradizionale su una cartogra�a di base e puntare all’inserimento documentale in un livello GIS grazie alle coordinate geogra�che. Ritengo, comunque, che l’uso del mezzo informatico sia ancora considerato integrativo e non determinante nella maggior parte delle documentazioni territoriali. Solo alcuni picchi della ricerca topogra�ca vedono infatti il passaggio “automatico” delle informazioni dalla fase della lettura diretta sul terreno a quella della progettualità operativa prescindendo dall’incombere della tentazione dell’interpretazione specialistica e dalla lettura selettiva derivante dagli interessi delle varie categorie degli attori della ricerca, quegli archeologi che per loro formazione non possono che anteporre ai signi�cati funzionali quelli culturali sia d’ambito urbano che territoriale. Come osservavo al ricordato Convegno linceo (Sommella 1992), «è il mezzo informatico che oggi può riprodurre alla dimensione ottimale per le diverse utenze il dato archeologico o monumentale che, analizzato e quindi memorizzato attraverso la sintesi dello specialista, viene reso disponibile nei formati calibrati alle più disparate esigenze di studio o operative. Il colloquio tra l’apparato cartogra�co e la descrizione del sistema schedogra�co garantisce altresì l’integrazione dei dati di localizzazione con quelli analitici tarati sui diversi livelli, da quello amministrativo al tecnico-scienti�co, ivi comprese le valenze connesse alla valorizzazione anche per una individuazione del potenziale recupero economico». Ancor prima, in un incontro organizzato a Lecce nel 1987 grazie alla tempestiva lungimiranza dei colleghi di quella Università ed in particolare di Francesco D’Andria, avevo avuto occasione di entrare in argomento con speci�co riguardo alla cosiddetta archeologia urbana ovvero quella tipologia di ricerca nei contesti urbanizzati che già da decenni era all’apice delle necessità di collaborazione tra indagini specialistiche e vita delle città con premesse antiche (Sommella 1987a). E lamentavo il perpetuarsi dello scollamento tra quelli che sono gli aspetti caratterizzanti la ricerca storico-archeologica e il recupero dei documenti in un sistema aperto e sensibilizzato di progettazione urbanistica, basato sul reale e non sul simbolico, rispettoso dei contesti delle varie epoche e non soltanto interessato, come spesso avviene, ai lacerti monumentali a volte discriminati su parametri di importanza apparente. Concludevo come dovesse altresì osservarsi un ritardo operativo sul piano di un generalizzato sistema di censimento documentario di base e soprattutto sulla formazione del personale tecnico-scienti�co al �ne di garantire un numero di specialisti suf�ciente al quadro delle esigenze locali, in aumento ogni anno a causa del decollo contemporaneo dei piani particolareggiati nei centri storici di maggior rilievo e tradizione (Sommella 1987b). Osservazione alla quale 49 P. Sommella v’è oggi risposta visibile nell’offerta didattica dei settori archeologici delle Università italiane nei quali l’archeologia informatica stenta tuttavia a trovare una sua collocazione anche e soprattutto ai �ni del corretto inserimento dei giovani nel mercato del lavoro. Non sfugge, per altro, come sia ancor valido l’assunto di Roland Martin al Colloquio Internazionale di Tours di parecchi decenni or sono, quando egli si domandava se ci fosse ancora spazio per discutere sul tema dell’archeologia nei centri storici: «Si tratta di de�nire l’oggetto stesso di ciò che si chiama in breve archeologia urbana: archeologia nel centro urbano? Archeologia della città? Speci�cità eventuale dei metodi di scavo in un centro urbano? Esigenze particolari degli scavi in città? Problemi giuridici e amministrativi? Conservazione e valorizzazione dei resti in un tessuto urbano?» (Martin 1972). È comunque evidente come si preferisse de�nire questo tipo di indagine nel suo aspetto più immediato e cioè nello scavo, restando invece inespresso, e dunque quasi sempre irrisolto, il problema di fondo, sull’acquisizione prioritaria – e cartogra�camente circostanziata – degli aspetti documentali, seguita solo in seguito da sintesi formali e sostanziali relative ad un centro antico in cui si erano sovrapposte pagine e pagine di una vita urbana quasi sempre ininterrotta. L’incontro di Lecce fu una tappa importante per gli iniziali scambi d’idee tra diversi gruppi di lavoro ma in effetti erano ormai più di tre anni che nel Laboratorio di Topogra�a antica dell’Università di Roma “La Sapienza” ci si era dedicati allo studio delle città italiane con continuità di vita, dando inizio alla fortunata serie di pubblicazioni corredate in prima istanza da planimetrie informatizzate e in seguito da veri e propri SIT dedicati (Sommella 1987c). Fu negli anni ’90 che questa prima sperimentazione trovò un giusto ritmo di ricerca e di edizione: in particolare fu nel volume iniziale della serie “Venusia e il suo territorio” che venne applicato il metodo della topogra�a di un intero comprensorio ponendo a disposizione di una vasta utenza, accanto alla ricostruzione dell’antico assetto socio-politico, prodotti cartogra�ci operativi ed utilizzabili anche in fase progettuale. Il volume trentasettesimo della Collana della Forma Italiae riassunse infatti due signi�cati particolari nella storia di questa serie editoriale: il primo concerneva la ricostruzione del paesaggio antico nel settore regionale in cui la ricerca si era svolta mentre il secondo era più speci�catamente connesso con la metodologia dello studio sia negli aspetti della topogra�a applicata che in quelli dell’elaborazione informatizzata dei dati (Azzena, Tascio 1996). La scelta di un’area della Basilicata, quella del Vulture, per una serie di indagini territoriali da pubblicare in più volumi della Forma, rispose non solo all’esigenza di proseguire su un tema già iniziato con la pubblicazione su Siris-Heraclea del 1967 ma soprattutto a quella di conoscere una intera gamma delle realtà archeologiche, notoriamente differenziate nelle diverse 50 Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni aree della regione, ai �ni della ricostruzione della storia di un comprensorio secondo linee globali e con parametri di completezza che la geometrica scansione delle Tavolette IGM non aveva �no ad allora consentito. Si trattava dunque di superare i vincoli della pubblicazione cartogra�camente delimitata per giungere ai complessi quadri di sintesi storico-culturale senza tradire le ragioni operative e gli scopi di una base di utilità progettuale che la cartogra�a archeologica informatizzata aveva ormai ben presenti. Nel caso del Vulture le tematiche della ricerca furono identi�cate nel territorio di un centro coloniale di fondamentale importanza durante il processo della romanizzazione mediorepubblicana dell’Italia antica. Ripeto, tuttavia, che ciò non volle certamente cancellare il criterio �no ad allora seguito nell’ambito della Collana, cioè quello del censimento integrale dei beni culturali antichi di un territorio: e dunque ferma restando la logica del catasto delle testimonianze sia dal lato archeologico che da quello archivistico-bibliogra�co, la linea seguita fu di studiare comprensori secondo criteri di insieme organicamente selezionati in modo da assemblare le varie Tavolette IGM in un’unica cartogra�a recante i risultati della ricerca globale di un continuum territoriale. Il tema aggregante per l’area del Vulture fu riconosciuto nella necessità di disegnare i limiti della colonia latina di Venusia, caposaldo del 291 a.C. nella politica territoriale di Roma verso il Sud-Est italiano come Atri sarà nel 289 verso le coste orientali. Il più evidente vantaggio di una tale organizzazione editoriale fu quello di evitare doppie redazioni in volumi pertinenti a zone con�nanti ovvero di eliminare – almeno in gran parte – un sistema di pubblicazioni cartogra�che “a chiazze” spesso con gli ovvi problemi derivanti alla ricostruzione storica globale. Non sfugge come tale programma abbia comportato la necessità di una continuità �nanziaria sia per la parte della ricerca sul terreno che per quella relativa alle fasi di stampa: è così che all’iniziale contributo del Consiglio Nazionale delle Ricerche si aggiunse il merito – ormai quasi univoco – dell’Università di Roma “La Sapienza” e dell’Unione Accademica Nazionale che tuttora funge altresì da tramite con l’Union Académique Internationale di Bruxelles sotto la cui egida (Projet 6 Tir/For) si pone l’iniziativa delineata da Rodolfo Lanciani nel lontano 1919. Si diceva come a partire dall’ultimo decennio dello scorso secolo varie imprese scienti�che abbiano lavorato sui temi dell’individuazione e della documentazione delle testimonianze culturali mobili e immobili presenti sul territorio delle regioni italiane (Azzena 1997). Ne deriva che numerose sono state anche le edizioni con titoli che si richiamano alla cartogra�a archeologica, dagli “Atlanti” ai “Compendi”, dalle “Carte degli insediamenti storici” alle “Carte storiche, archeologiche, monumentali e paesistiche”, etc. Un buon segno è inoltre quello che vede l’interessamento pubblico in un settore di 51 P. Sommella ricerca per anni relegato tra i “supporti complementari” dell’archeologia e della progettazione. Sul piano nazionale i risultati di ricerche in corso, le relative iniziative editoriali, le carte archeologiche pubblicate in contesti sia critici che univocamente documentari, sono ormai sotto gli occhi di tutti. L’ottica comprensoriale è quella predominante, intendendo nel termine una valenza positiva per gli aspetti operativi e soprattutto per il coinvolgimento delle forze politiche e culturali più fortemente interessate ed interessabili a questi ambiti di ricerca. Se non altro ciò è valido come lettera di intenti se è vero che spesso nella fase editoriale di queste iniziative si legge una premessa in cui si accenna all’opportunità, alla necessità, alla indifferibilità che tali opere siano recepite come strumenti urbanistici. Le carte archeologiche d’ambito regionale, o comunque con limiti amministrativi, sono dunque una realtà nei nostri studi e se sempre si presentano con lo scopo della conoscenza della strati�cazione antropizzata del territorio molto spesso rapportano le carte di distribuzione delle evidenze archeologiche a quelle funzionali alla attuale de�nizione della progettazione d’uso. Il fatto poi che si sia spesso cercato di etichettare lavori di questo tipo nell’ambito dei più generici “Repertori” piuttosto che in quello delle più speci�che “Carte archeologiche”, mi sembra più specioso che sostanziale poiché a volte gli autori non si esimono dal sottolineare come anche tali opere possano dare un contributo per la conoscenza e quindi per la difesa del patrimonio dei Beni Culturali. Parimenti nell’ambito di una cartogra�a a grande scala con tematismo storico-archeologico, vari esempi di redazione di carte basate sul 100.000 con indicazione delle coordinate possono citarsi. Ben consapevole che il metodo era già noto nella tradizionale cartogra�a archeologica della British School at Rome degli anni ’50, oltre alla “Carta Archeologica della Sicilia F.249” curata da C.A. Di Stefano e G. Mannino non potrebbero non essere riportate le Carte Archeologiche del Veneto e della Lombardia, esempli�cazioni nelle Marche, ed il caso modenese prototipo del sistema regionale emiliano, da ricordarsi per la predisposizione all’informatizzazione e dunque adatte ad un uso in tempo reale nei Piani Territoriali Regionali. Di alcune iniziative toscane fu capo�la la “Carta archeologica della Provincia di Siena” relativa al Chianti senese (AA.VV. 1995-2004). È partendo da tale pubblicazione che vorrei tornare per un momento sulla gamma di utilizzo dei repertori schedo-cartogra�ci o Atlanti che dir si voglia. È infatti indubbiamente vero che agli Enti delegati all’amministrazione del territorio, anche nella forma gestionale dei Beni Culturali, il plafond informativo di una schedatura bibliogra�ca generalizzata non può che essere di una qualche utilità. Però è anche incontrovertibile l’osservazione dell’in�ttirsi del tessuto conoscitivo che deriva dalla sovrapposizione dei dati della ricerca diretta sul territorio applicata alla base archivistico-bibliogra�ca: non possiamo dimenticarci che il ritenere esaustivo il riporto cartogra�co a grande scala dei soli dati 52 Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni di quest’ultima categoria può ingenerare confusione sia dal lato piani�catorio che da quello della ricostruzione storico-archeologica comprensoriale. Altresì indubbio fu il merito dell’“Atlante dei Siti archeologici della Toscana” (Torelli 1992) il quale riprendeva l’antica proposta di R. Bianchi Bandinelli per una Carta Archeologica dell’Etruria alla scala 1:100.000. Evidenziai il mio apprezzamento per questa impresa (Sommella 1998): annotando, però, come il campo editoriale della documentazione archeologica dovesse conservare una precisa gerarchia, mantenendo una diversa funzionalità per i vari livelli cartogra�ci, da quelli 1:1.000.000 (ad es. nel formato della Tabula Imperii Romani), all’1:100.000 delle cartogra�e nazionali, agli ingrandimenti 1:25.000 (o, ove mancante, all’1:50.000) delle carte comprensoriali, per giungere alle scale CTR, etc. Poiché in più punti dell’Atlante si tendeva a sottolinearne la differenza con le Carte Archeologiche, notai che aldilà delle vecchie discussioni avrei ritenuto più utile che in una pubblicazione apparsa a quasi un decennio di distanza dalle prime applicazioni del mezzo informatico nei lavori di sintesi cartogra�ca – avendo constatata la validità di queste ultime – se ne sfruttasse la potenzialità: soprattutto rilevavo come fosse quanto meno discutibile che ci si confrontasse, nelle scelte editoriali, con strumenti datati e con ben preciso ruolo nella storia dell’indagine topogra�ca ma ormai superati ed anzi sostituiti dalle nuove tecnologie di supporto sia alla ricerca che alla pubblicazione. E, si badi, non intendevo certamente indicare le nuove linee della tecnica cartogra�ca applicata alla topogra�a storica nella sua fase di identi�cazione da telerilevamento, posizionamento mediante GPS, trasferimento dati e schedatura diretta senza passaggi cartacei bensì ad un più semplice e generalizzato uso di un database bibliogra�co con collegamento tra la scheda e il numero identi�cativo sulla carta. Nel caso dell’Atlante si doveva infatti, a mio parere, lamentare un prodotto cartogra�co decisamente di retroguardia volendosi giusti�care in tal modo un riversamento di informazioni bibliogra�che o d’archivio non circostanziate topogra�camente. In merito potrebbe essere esempli�cativo il confronto della cartogra�a di un settore del citato Atlante con la surricordata carta della stessa area (Provincia di Siena) redatta per le cure dell’Università di Siena anche avvalendosi dell’inserimento dei dati del terreno. Partendo dunque da questo confronto, ciò che invita a considerare l’inopportunità di pubblicare i dati archivistico-bibliogra�ci a scala topogra�ca piuttosto che geogra�ca, nell’ambito di una cartogra�a troppo settoriale, è il fatto che nell’unità di super�cie di due Tavolette, a fronte di una cinquantina di schede dell’Atlante si pongono oltre 150 punti archeologici nella Carta del Chianti senese (mi riferisco ad es. al caso del quadrante II del F.113). La forbice si allarga ancor più nelle zone prive di tradizione cartogra�ca se si pensa che nelle ricerche della mia Cattedra nel Vulture il citato rapporto di 1:3 tra il noto bibliogra�co e i dati del survey allarga di oltre dieci volte il gap conoscitivo. 53 P. Sommella Ovviamente ciò che è qui posto in discussione è la localizzazione areale su carte di dettaglio. Penso che resti valida una considerazione fatta in altre occasioni e cioè che il dato della ricerca è uguale per tutti i sistemi cartogra�ci che lo contengono e che ormai prescindono – o dovrebbero prescindere – dai simboli, sia nella fase della documentazione che in quella dell’interpretazione, restando così il solo vincolo della correttezza dell’informazione di partenza e dunque della particolare cura posta in fase d’immissione dei dati (Sommella 1990a). Sono sempre le stesse le informazioni che possono trasformarsi da punti archeologici a valenza geogra�ca in dettagli non simbolici nella traduzione automatica di scala secondo un’ottica scienti�ca rispettosa della lettura oggettiva ma soprattutto disponibile alle richieste differenziate provenienti dai diversi ambiti di utenza. Al contrario, �nché il suddetto punto archeologico sarà un quadratino o un circoletto o un triangolo sia nelle carte tematiche sia in quelle operative per l’uso a scala urbanistico-territoriale, avremo una incompatibilità di base tra l’interpretazione specialistica e l’utenza specializzata (Azzena 1999). A questo punto vorrei ritornare sui concetti distintivi di una carta archeologica, frutto delle indagini dirette sul terreno, rispetto ad un repertorio bibliogra�co contestualizzato su una cartogra�a anche a grande scala, e rispetto soprattutto ad una carta tematica di supporto ad un Atlante storico. Ci si potrebbe chiedere il perché di queste righe conclusive, ma due recenti esperienze mi hanno posto di fronte all’evidenza di una reiterata confusione sui vari ambiti di queste categorie documentarie: gli specialismi degli studiosi a volte costituiscono vere e proprie barriere che ostacolano l’osmosi informativa in quanto sottopongono alla critica metodologica generalizzata iniziative che non sono comparabili per loro stessa natura e che dunque dovrebbero essere valutate entro i limiti che potremmo de�nire con il termine di “minimo comune multiplo”. Sulla prima non mi dilungo. Si tratta della Carta Archeologica di Roma che dopo decine di anni ha ripreso in qualche modo un suo percorso editoriale anche se in modo poco coordinato (Tomei, Liverani 2005). Non è certamente fatto ignoto come nei casi di piani�cazione di opere pubbliche entro la cerchia delle mura di Aureliano, ci si rivolga tuttora alla base conoscitiva e soprattutto dislocativa delle preziose tavole della Forma Urbis Romae di Rodolfo Lanciani, un documento scienti�co ma anche una base piani�catoria che, non ostante tutto, porta piuttosto bene i suoi anni. Un mezzo di acquisizione globale di dati, quello di un secolo fa, �n dall’inizio redatto per un’utenza che ancor oggi ne sottolinea l’unicità e l’utilità, ma che fu anche un modello di lavoro metodico che seguiva dichiaratamente il �ne di “conservare” più che di “interpretare” l’informazione, in specie in un momento drammaticamente distruttivo come quello della Roma dell’ultimo trentennio dell’800. A fronte di quell’opera colossale né i tre fogli �nora usciti della Carta Archeologica di Roma, pubblicati dal Ministero della Pubblica Istruzione (Direzione Generale delle Antichità e Belle Arti) negli anni 1962-1977 per le cure 54 Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni dell’Istituto Geogra�co Militare, né la riedizione integrata di quella iniziativa con i Supplementa al Lexicon Topographicum Urbis Romae usano il titolo nel senso di un livello cartogra�co operativo. Si tratta infatti di documenti di alto signi�cato specialistico, ma certo non riversabili in un GIS funzionale a causa del riporto simbolico: costretti nei margini di un livello archeologico topogra�camente poco circostanziato, queste pubblicazioni non rispondono esaustivamente alle domande che la piani�cazione delle opere pubbliche (infrastrutture comprese) chiede ormai in formati direttamente inseribili nella progettazione computerizzata. In effetti ci si potrebbe chiedere quante cartogra�e archeologiche anche recenti siano in grado di dettagliare il dato altimetrico e in particolare il riferimento tra il quotato antico e quello moderno, criterio ormai indispensabile per un uso progettuale dei layer archeologici su cui cito ad es. il recente contributo alla cartogra�a del Celio (Consalvi 2009). Mi soffermo invece qualche riga in più sul recente caso di un intervento di studiosi dell’area storica nei campi della ricerca archeologica applicata. Se da un lato è ormai sostenuta da più parti la necessità di una indispensabile convergenza di competenze appartenenti a diversi specialismi verso le tematiche storico-archeologiche e si concorda sul fatto che la moderna ricerca debba giovarsi del concorso di più ricercatori con molteplicità di competenze nell’ambito delle medesime problematiche, certamente va tenuto ben presente che i diversi punti di osservazione devono essere pertinenti al livello di preparazione degli osservatori. Il terreno del “contenzioso” è stato il Foglio K-32 della Tabula Imperii Romani da me edito con la collaborazione di vari studiosi nell’ambito di una serie di cui credo sia ben nota la lunga storia e soprattutto il portato metodologico (Sommella 2006a). Si tratta, per riassumere brevemente, di un sistema schedogra�co basato su una cartogra�a attuale a scala molto piccola (1:1.000.000), che oggi si propone di abbandonare la vecchia tendenza all’ibridismo del riporto simbolico e cerca di modernizzare – anche ampliandone l’accesso informatizzato – la gestione delle testimonianze archeologiche contestualizzabili, relative al mondo romano tra la �ne della Repubblica e il tardo Impero. Abbandonate le originarie posizioni di cartogra�a storica la TIR si pone dunque su una moderna linea di supporto cartogra�co informatizzato del dato reale contestualizzato per coordinate, base riassuntiva di informazioni utilizzabili per le grandi ricostruzioni storiche ma anche disponibile, sotto la lente d’ingrandimento del GIS dedicato, per gli utilizzi da parte della piani�cazione urbanistico-territoriale. Non è più tra gli scopi della TIR, e tanto meno risultavano evidenze in tal senso nel Foglio K-32, il ricostruire la geogra�a antica dell’area presa in considerazione (Sommella 2006b). Il fatto stesso che la base della TIR sia stata l’International Map of the World, avrebbe dovuto rendere edotto qualunque lettore utente del GIS – sot55 P. Sommella teso in rete all’edizione cartacea nell’indirizzo http://www.formitaliae.it/ – che la Tabula è andata sempre più situandosi su posizioni diversi�cate da quelle degli Atlanti storici tra i quali il ruolo di capo�la è oggi tenuto dal Barrington Atlas of the Greek and Roman World edito nel 2000 per le cure della Princeton University Press sotto la direzione di R. Talbert (2000). Nella schiera dei responsabili dell’ingente Atlante spicca il nome di W. Harris che per l’appunto, in una recensione a sua �rma, critica il volume K-32 (Harris 2008). Non è questa la sede per entrare nel merito – e del resto si è già risposto – ma si vuole solo sottolineare il fatto che se tra lo specialismo degli storici e quello degli archeologi deve subentrare la collaborazione devono altresì stabilirsi delle regole che agevolino il corretto passaggio delle informazioni tra i diversi settori (Guzzo 2002; AA.VV. 2003). Non è certamente un buon inizio il fatto che si critichi una carta archeologica perché nella carta documentaria di sintesi non si ricostruisce la geogra�a antica senza prendere coscienza che la identi�cazione dell’assetto geomorfologico antico rientra in una delle tante carte tematiche che di necessità corredano le analisi di dettaglio dei territori studiati. E sottolineo le cartogra�e di dettaglio perché è lì e non nei grandi quadri di sintesi del tipo della Tabula Imperii che si pretende lo studio degli antichi percorsi �uviali o delle antiche linee di costa che naturalmente non possono invece mancare negli Atlanti storici (Talbert 1992). Se non si provvede immediatamente a chiarire le diverse aree delle competenze e dunque gli scopi di ogni progetto sia di ricerca che editoriale la confusione impedirà presto il riconoscimento del reale dal ricostruito e la distinzione tra gli assetti antichi e quelli moderni. A puro titolo di risposta �nalizzata ad un ristabilirsi di un clima distensivo tra diverse aree di specialismi – e dunque in chiave di boutade – potremmo chiederci se uno studioso pertinente ad una qualsiasi area antichistica potrebbe anche soltanto dubitare se privilegiare per la piani�cazione di una viabilità di grande impatto nel territorio dell’antica Alba Fucens un foglio di un Atlante storico (ad es. il Barrington) con l’indicazione dell’antico lago fucente o non piuttosto una cartogra�a del tipo Tabula Imperii Romani che nel modello informatizzato potrebbe essere ingrandita �no all’indicazione degli attuali limiti di proprietà della ripartizione fondiaria ottenuta dal prosciugamento del Fucino. Per concludere con qualche parola di �duciosa apertura verso il rapporto tra utenza e ricerca si sottolinea l’opportunità di un momento di discussione sugli attuali orientamenti che concernono i vari contributi alla fase dell’indagine applicata. Ci si riferisce al fervore degli interventi di ricerca sul territorio che caratterizza questi ultimi anni. Si tratta di attività che si svolgono secondo parametri spesso non omogenei, che vedono unità operative legate ad ambiti scienti�co-accademici (Università, Consiglio Nazionale delle Ricerche, Centri di ricerca, etc.), accanto ad esperienze di realtà amministrative che operano 56 Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni sia in modo autonomo che in convenzione (Regioni, Province, Comuni, etc.), ovvero nella prospettiva sempre più ef�cace di Consorzi multisinergici. Unità operative che in generale si collegano all’attività istituzionale degli Organi periferici del Ministero per i Beni e le Attività culturali, le Soprintendenze da cui i ricercatori dovrebbero trarre le linee del coordinamento. Conoscenza, dunque, come presupposto alla valorizzazione ed anche all’investimento economico, con spazio per l’intervento privato (Sommella 2002). È propria di questi tempi la quaestio sulla produttività del Bene Culturale: ne è risultato coinvolto anche l’aspetto della coerenza tra l’investimento nella ricerca topogra�ca e la conseguente creazione di una cartogra�a archeologica di dettaglio da utilizzare ai �ni della conservazione. Una conservazione non passiva cioè priva di investimenti, bensì attiva, consapevole della unicità storica e dunque del valore universale del documento, comunque degna di risorse che non dipendano solo dalla rilevanza economica del documento stesso. Dovendo trarne delle conclusioni, siamo comunque di fronte a precisi indizi circa il raggiungimento di un livello di guardia per quanto riguarda il futuro della catalogazione dei Beni Culturali presenti sul territorio e giunti �no a noi: potrebbe rivelarsi irreparabile il procrastinare un progetto topogra�co globale (troppe sono ancora le zone d’Italia “mute” per assenza di indagini!) con una ricerca coordinata che, in ogni caso, non dovrebbe servire a pilotare in chiave di valutazione commerciale eventuali criteri selettivi per la dismissione del Bene stesso. Paolo Sommella Accademia Nazionale dei Lincei BIBLIOGRAFIA AA.VV. 1995-2004, Carta Archeologica della Provincia di Siena, voll. I-VI, Siena, NIE. AA.VV. 2003, I modelli nella ricerca archeologica. Il ruolo dell’informatica, Atti del Convegno Internazionale (Roma 2000), Contributi del Centro Linceo Interdisciplinare Beniamino Segre, 107, Roma. Azzena G. 1997, Questioni terminologiche - e di merito - sui GIS in archeologia, in A. Gottarelli (ed.), Sistemi Informativi e reti geogra�che in archeologia: GIS-INTERNET, VII Ciclo di Lezioni sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena, 1995), Firenze, All’Insegna del Giglio, 33-43. Azzena G. 1999, Dal rilievo archeologico all’Atlante storico: un percorso possibile, in Archeologia senza scavo. Nuovi metodi d’indagine per la conoscenza del territorio antico, Atti della XXVIII Settimana di Studi Aquileiesi (Aquileia 1997), Trieste, 241-251. Azzena G., Tascio M. 1996, Il Sistema Informativo Territoriale per la Carta Archeologica d’Italia, in M.L. Marchi, G. Sabbatini, Venusia, Forma Italiae 37, Firenze, Leo S. Olschki, 281-297. Castagnoli F. 1974, La Carta Archeologica d’Italia e gli studi di topogra�a antica, in Ricognizione archeologica e documentazione cartogra�ca, «Quaderni dell’Istituto di Topogra�a Antica dell’Università di Roma», 6, 7-17. 57 P. Sommella Consalvi F. 2009, Il Celio orientale. Contributo alla Carta archeologica di Roma. Tav. VI, sett. H, Roma, Quasar. Guzzo P.G. 2002, Natura e storia nel territorio e nel paesaggio, Roma, L’Erma di Bretschneider. Harris W.H. 2008, «Bryn Mawr Classical Review», 2008.02.49. La cartogra�a dei beni storici, archeologici e paesistici nelle grandi aree urbane dal censimento alla tutela, Atti del Convegno (Roma 1990), Roma 1994, Quasar. Martin R. 1972, Atti del Colloque international sur la cartographie archéologique et historique (Paris 1970), Tours. Pasquinucci M., Menchelli S. (eds.) 1989, La Cartogra�a archeologica. Problemi e prospettive. Atti del Convegno Internazionale (Pisa 1988), Pisa, Università degli Studi di Pisa. Sommella P. 1987a, Cartogra�a archeologica computerizzata, in F. D’Andria (ed.), Informatica e Archeologia Classica, Atti del Congresso Internazionale (Lecce 1986), Lecce, Congedo Editore, 17-30 Sommella P. 1987b, Premessa a G. Azzena, Atri, Città antiche in Italia 1, Roma. Sommella P. 1987c, in AA.VV., La collana “Città antiche in Italia” e il progetto per la cartogra�a archeologica di Padova, «Quaderni di Archeologia del Veneto», 3, 217221. Sommella P. 1989, Forma Italiae. Un progetto scienti�co e uno strumento operativo, in Pasquinucci, Menchelli 1989, 291-305. Sommella P. 1990, Informatica e topogra�a storica: cinque anni di esperienza su un secolo di tradizione, «Archeologia e Calcolatori», 1, 211-236 (collab. G. Azzena e M.Tascio) Sommella P. 1992, Tecnologie avanzate e Beni Culturali. La cartogra�a, in Calcolatori e Scienze umane. Atti del Convegno (Roma, Accademia Nazionale dei Lincei-Fondazione IBM, 1991), Roma, ETAS, 25-32. Sommella P. 1998, Rec. a Atlante dei Siti archeologici della Toscana, «Bonner Jahrbücher», 198, 527-530. Sommella P. 2002, Dopo Lanciani, in M.P. Guermandi (ed.), Rischio archeologico: se lo conosci lo eviti, Atti del congresso Internazionale di Studi su cartogra�a archeologica e tutela del territorio (Ferrara 2000), Firenze, All’Insegna del Giglio, 20-28. Sommella P. (ed.) 2006a, Tabula Imperii Romani F. K-32, Roma, Quasar. Sommella P. 2006b, Saper leggere la TIR (Foglio K-32). A proposito di una recensione di W.V. Harris, «Mediterraneo Antico», 9, 2, 391-414. Talbert R.J.A. 1992, Mapping the classical world: major atlases and map series 1872-1990, «Journal of Roman Archaeology», 5, 5-38. Talbert R.J.A (ed.) 2000, Barrington Atlas of the Greek and Roman World, Princeton-Oxford, Princeton University Press. Tomei M.A., Liverani P. 2005, Carta archeologica di Roma. Primo Quadrante, Roma, Quasar. Torelli M. (ed.) 1992, Atlante dei siti archeologici della Toscana, voll. 1-2, Firenze-Roma, L’Erma di Bretschneider. ABSTRACT In the early 1990s the Author brought attention to the fact that the Carta Archeologica d’Italia – due to the entity of the project which involved all of the national territory and the time required for the relative research – was in urgent need of a structural updating, through an effective system of access to the results. These demands were of a nature that only a correct use of computer technologies could guarantee in real operational time. In that period, only a few advanced experimental peaks of topographic research actually included the automatic 58 Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni transition of information from the phase of terrain reading to that of operational planning feasibility. Since then, many scienti�c projects have been devoted to locating and documenting tangible and intangible cultural heritage in Italy. However, we still have to deal with the problem of adopting common platforms to share information and make use of cartographic systems in a GIS environment, regardless of the symbols being used in the documentation phase as well as in the interpretive phase. The same information can be turned from geographical points into plan details, through an automatic scale conversion and with a scienti�c perspective available for the requirements of different user environments. The Author concludes by remarking on the urgent need of a convergence of competences from specialised sectors. Nevertheless, modern research, while taking advantage of the co-operation of a wide range of experts, should always consider that results coming from different points of observation pertain to the observers’ speci�c �eld and should not be “invasive” but respectful of their methods. 59 Archeologia e Calcolatori 20, 2009, 61-73 THE GOLDEN YEARS FOR MATHEMATICS AND COMPUTERS IN ARCHAEOLOGY (1965-1985) 1. Introduction For twenty years, from 1965 and 1985, Archaeology was the major �eld of application of mathematics and computers, as in other Natural, Social and Human Sciences. At the same time, applications involving Physics were also being used in Archaeology. In this paper we attempt to reconstruct the history of these twenty years, the main actors, their contribution to the evolution of Archaeology, the reason for the shift towards Computing Archaeology and the present potential comeback resulting from these techniques (Fig. 1). 2. 1945. A worldwide context for the development of scientific research Between the two world wars, the progress of a quantitative movement in Anthropology, Sociology and Psychology also in�uenced other sectors of the Social and Human Sciences, in particular Archaeology. Similarly, the in�uence of quanti�cation in the Earth Sciences (Geology, Taxonomy, Ecology, etc.) became very important in prehistoric Archaeology. The researchers helping the war effort (operational research), based on fundamental research, applied the methods and tools developed during the war, promoting quantitative approaches and mathematics. The foundation and the development of large European research organizations were inspired by the model of the USSR Academy of Sciences: the CNRS in France, the CNR in Italy, and of course other institutions in all the Eastern and Central European countries located behind the iron curtain. The very large number of researchers recruited between 1945 and 1965 for those institutions augmented fundamental and applied research for the next thirty years until about 1975, when the recruitment of researchers was limited. 3. 1945-1965. The general development of a quantitative movement in Social and Human Sciences and in Archaeology: statistics and graphics without computers During the period from 1945 to 1965, Archaeology was the �eld of a very dynamic quantitative movement, using elementary statistics and graphics, to solve the main classical questions that are at the origin of the methods we now use for processing archaeological data. 61 F. Djindjian The names below represent a partial list of several of the main contributors from the USA and Europe: Mielke (1949) Cultural facies Brainerd, Robinson (1951) Seriation Spaulding (1953) Typology and statistics (χ²) Bordes, Bourgon (1953) Cumulative diagram for cultural facies Clark, Evans (1954) Nearest Neighbour Analysis and spatial analysis Bohmers (1956) Graphics and statistics for typology Meighan (1959) Seriation De Heinzelin (1960) Typology and statistics Vescelius (1960) Sampling Ford (1962) Graphics for seriation Clarke (1962) Matrix Analysis Vertes (1964) Statistics and graphics Laplace (1966) χ² test and “Synthetotype” for cultural facies Angel (1969) Prehistoric demography At the same time, other preliminary research works dealt with the formalization and recording of data for the purpose of archaeological data banks, using punch card machines (Gardin 1958). 4. 1960. The computer liberates the researcher from manual computing After the laboratory experimental machines (1946-1950), the �rst products appeared in the 1950s: 1951, Univac 1 (Remington Rand); 1952, Gamma 2 (Machines Bull); 1952, IBM 701 (IBM). In 1955, the Fortran language was developed on the IBM 704, the �rst scienti�c computer. The �rst business computer, IBM 1401, developed in 1959, was followed in 1964 by the IBM 360, the �rst of the fully compatible upgraded IBM machines. Starting in 1960, the �rst computers for academic research were installed in computer centres of the universities for general purposes. It was a heroic time for researchers who were obliged to develop their own software in binary language, assembly language and then Fortran language for scienti�c programs. Fortunately, the computer departments in the universities started to develop the �rst packages, offering users the �rst statistical software (SPSS, Osiris, BMDP). Not just limited to elementary statistics, statistical tests or graphics, the packages were also offering tools to develop sophisticated algorithms like numerical taxonomy (Sneath 1957; Sokal, Sneath 1963), Factor Analysis, Quantitative Geography (Haggett 1965). At the same time, it was also the very beginning of mapping (Bertin 1967, Sémiologie graphique) and maps were printed by special dedicated machines (“traceurs”) until the end of the 1970s. 62 The golden years for mathematics and computers in archaeology (1965-1985) 5. Many other scientific influences During this period, many other types of research in�uenced the �elds of the Human and Social Sciences, for example: – System dynamics of J.W. Forrester: 1961 (Industrial dynamics), 1969 (Urban dynamics), 1971 (World dynamics). It is interesting to note the relationships with the disputed 1972 “Limits to growth” of the club of Rome, recently updated in 2004. – Mathematical Ecology (Pielou 1969); – Catastrophe theory (Thom 1972); – Mathematical modeling including Multi-agent system (Doran 1981); – Sampling (Desabie 1966; Cochran 1977); – Expert systems (Dendral 1965; Mycin 1972); – Quantitative Geography (Chisholm 1962; Haggett 1965; Berry 1967); – Physical and chemical analysis (Archaeometry, name given in 1958); – Quantitative environmental studies. 6. 1970. The revolution of multidimensional data analysis The mathematical foundations of multidimensional data analysis have been well known since the beginning of the 20th century (Principal Component Analysis by Pearson 1901). But the computations for obtaining the eigenvalues during the process of diagonalising the matrix were too long to be used without computers. This was the reason why, around 1930, their development was limited to Psychometry (Spearmann, Thurstone, Guttman, Burt) by the de�nition of special questionnaires, simplifying the computations. From 1960 to 1970, the �rst computerised algorithms appeared which were at the origin of a new revolution of Statistics. The multidimensional data analysis techniques included several different techniques: – The Cluster Analysis techniques, �guring, mainly by a tree, the similarities between objects described by numerous variables and producing clusters of objects. 1963 is the year of the �rst publication of the famous book by R.R. Sokal and P.H.A. Sneath Numerical Taxonomy. – The scaling techniques, reducing a multidimensional space of data to a one or two dimensional scale; the most famous of them is the Non-metric Multidimensional Scaling by J.B. Kruskal (from Bell labs), �rst published in 1964. – The “Factor” Analysis techniques, a family of techniques based on the diagonalization of a matrix of correlation or association between individuals or variables, including Principal Component Analysis (Pearson 1901), Factor Analysis (Spearman 1904), Discriminant Analysis (Mahalanobis 1927; Fisher 1936), Correspondence Analysis (Benzécri 1973). 63 F. Djindjian 7. 1966-1976. The quantitative revolution in Archaeology Around 1966, several papers marked the start-up of the quantitative revolution in Archaeology: – Hodson, Sneath, Doran (1966): Cluster Analysis on Münsingen �bulae; – Doran, Hodson (1966): Multidimensional scaling on upper Palaeolithic assemblages; – Binford, Binford (1966): Factor Analysis on Mousterian assemblages; – Archer, Archer 1963; Kuzara, Mead, Dixon 1966; Hole, Shaw 1967; Crayton, Johnson 1968; Elisseef 1968; Renfrew, Sterud 1969: Seriation algorithms; – Renfrew, Cann, Dixon (1968): Characterization and exchange of obsidian around the Mediterranean sea (Archeometry). In 1970, the Conference of Mamaia (Romania) Mathematics in the Archaeological and Historical Sciences was the place where famous statisticians met Archaeology: Rao, Kruskal, Kendall, Sibson, La Vega, Lerman, Wilkinson, Solomon, Doran, Ihm, Borillo, Gower, and where archaeologists also showed that they knew how to use statistics: Moberg, Spaulding, Cavalli-Sforza, Hodson, Orton, Hesse, Ammerman, Goldmann. The Conference of Mamaia also showed the �rst use of data analysis in Archaeology and historical texts (Multidimensional scaling, Cluster Analysis). The period from 1966 to 1976 is the time of the precursors, most of them were often trained in both Archaeology as well as Science and computers: – USA: A.C. Spaulding, G.L. Cowgill, A.J. Ammermann, C.S Peebles, R. Whallon, E. Zubrow; – UK: J.D. Wilcock, J. Doran, Cl. Orton, I. Graham, D.G. Kendall; – Italy: A. Bietti; – Germany: I. Scollar, P. Ihm, A. Zimmermann; – Netherlands: A. Voorrips, H. Kamermans; – Russia: P. Dolukhanov; – France: F. Djindjian; – Australia: I. Johnson; – Denmark: T. Madsen; – Belgium: A. Gob. The next generation arrived in the period from 1976 to 1986, all of them being archaeologists: P. Moscati, A. Guidi, F. Giligny, S. Shennan, C. Gamble, J.A. Barceló, H. Hietala, K. Kintigh, K. Kvamme, J.M. O’Shea, S. Scholtz-Parker, S. Van der Leew, etc. 1966-1976 is the period of the greatest development of Quantitative Archaeology: – Quantitative Archaeology (Doran, Hodson 1975); 64 The golden years for mathematics and computers in archaeology (1965-1985) – Environmental Archaeology (Butzer 1970); – “Spatial” Archaeology (Hodder, Orton 1976; Clarke 1977); – Simulation in Archaeology (Clarke 1972; Hodder 1978; Sabloff 1981); – Image processing in Archaeology (Scollar 1975); – Harris matrix (Harris 1975); – Demography (Hassan 1973, 1981; Masset 1973); – Site catchment analysis (Vita-Finzi, Higgs 1970; Higgs 1975; Zubrow 1975) ; – Sampling in archaeological surveys and excavations (Mueller 1975; Cherry, Gamble, Shennan 1978); – Mathematical models (Doran 1970, 1981). 8. Archaeology, Classical Archaeology and New Archaeology The development of mathematics and computers in Archaeology has received varying degrees of acceptance, depending on the nature of the different theoretical approaches. Prehistoric Archaeology has preferred multidimensional data analysis for typometry, culture identi�cation, spatial intrasite analysis, environmental studies. Classical Archaeology has given a signi�cant impulse to data bank edition for epigraphy, to cultural resource management and to GIS implementing intersite spatial analysis. Processual Archaeology or New Archaeology, oriented towards Anthropology, functionalism and cultural ecology, had a preference for deductive models implementing statistical tests and mathematical modeling. Post-Processual Archaeology, of course, does not need any scienti�c method. 9. A case study: typometry Artefact classi�cation or typology is one of the basic methods of Archaeology. Until 1950, the classi�cation was the result of a visual observation of artefacts, preferably spread out upon a large table. The analogy with numerical taxonomy in Natural Sciences involves the formalization of a description of artefacts (attributes) which permits a classi�cation on the basis of similarities between artefacts, quanti�ed from the measurements in the description. Numerous statistical approaches have been proposed; the main ones are cited below: – Attribute analysis (Spauling 1953) is based on the use of χ² tests for measuring the association between attributes. – Matrix analysis (Tugby 1958; Clarke 1962) is based on the reorganization of the rows and columns of a matrix of presence-absence or percentages to reveal a partition inside the matrix, demonstrating the evidence of several types. 65 F. Djindjian – Biometry (Bohmers 1956; de Heinzelin 1960) is based on the use of Laplace-Gauss elementary statistics to reveal the existence of multi-modal peaks in histograms or separated point clouds in diagrams, to isolate types. – Numerical taxonomy (Hodson, Sneath, Doran 1966) is based on the use of techniques of Cluster Analysis to identify archaeological types. – Typological Analysis (Djindjian 1976) is an improvement of numerical taxonomy techniques. The Typological Analysis is based on a R + Q Correspondence Analysis and/or Principal Component Analysis associated with a Cluster Analysis. The Multiple Typological Analysis (Djindjian 1991) is based on several Typological Analyses applied on homogeneous intrinsic variables (morphology, technology, decoration, gripping, raw material, etc.) and a �nal one applied to the matrix of the clusters resulting in the previous analyses. – Morphology analysis (pattern recognition) is based on multidimensional data analysis techniques applied to the digitalization of the pro�le of artefacts. Different codings of pro�le measures have been tested and proposed: Sliced method (Wilcock, Shennan 1975), Tangent-pro�le technique (Main 1986), Extended sliced method (Djindjian et al. 1985), B-spline curve (Hall, Laflin 1984), Fourier series (Gero, Mazzula 1984), Centroïd and cyclical curve (Tyldesley et al. 1985), Two-curves system (Hagstrum, Hildebrand 1990), etc. 10. A case study: seriation Seriation is certainly the most original method in Archaeology for determining the chronological order of artefacts (from a description) and mainly between closed sets, particularly the burials in a cemetery (from an inventory of types). It is the reason why so many algorithms have been proposed to solve the problem of the seriation: – Similarity matrix ordering (Brainerd, Robinson 1951; Bordaz 1970; Landau, de La Vega 1971); – Graphs (Meighan 1959; Ford 1962); – Matrix reorganization (Clarke 1962; Bertin 1973); – Incidence matrix direct ordering (Kendall 1963; Regnier 1977); – Computerised similarity matrix ordering (Asher 1963; Kuzara et al. 1966; Hole, Shaw 1967; Craytor, Johnson 1968); – Rapid methods on similarity matrix (Dempsey, Baumhoff 1963; Elisseef 1968; Renfrew, Sterud 1969; Gelfand 1971); – Multidimensional scaling (Kendall 1971); – Travelling salesman problem (Wilkinson 1971); – Reciprocal averaging method (Goldman 1971; Wilkinson 1974; Leroux 1980); – Correspondence Analysis (Djindjian 1976); – PCA (Marquardt 1978); 66 The golden years for mathematics and computers in archaeology (1965-1985) – Rapid method on incidence data matrix (Ester 1981); – Toposeriation (Djindjian 1984); – and others (Ihm 1981; Laxton, Restorick 1989; Baxter 1994; etc.). Today, Correspondence Analysis is the most popular and easy to use technique of seriation, delivering a double parabola (the Guttmann effect), ordering chronologically both objects (burials) and types. The technique is very robust; it is able to reveal errors in recording or excavation and inaccuracies of typology, and permits separation of the time scales from other non-time parasite scales. 11. A case study: typology, assemblage, culture and “system” When confronted with closed sets of artefacts, the archaeologist needs to compare them with others and to link the similarities between assemblages with time and space. It is the origin of the concept of culture which has many Fig. 1 – Proposed techniques for the typological analysis. 67 F. Djindjian analogies in archaeological literature (techno-complexes, assemblages, facies, industries, cultures). The archaeological methods proceed from artefacts to types (typology), and then from types to cultures, from a matrix of percentages of types in the archaeological layers, by searching partitions. The approach, generally limited to Prehistory and Protohistory records, starts from simple statistical techniques, inspired by Geology for the cumulative diagram of Bordes and Bourgon (1950) or based on histograms and χ2 tests for Laplace (1957) and its synthetotype method. The actual multidimensional scale of the problem has been well understood by Binford, Binford (1966) in their famous revision study of European Mousterian assemblages, refuted unfortunately by an incorrect use of their Factor Analysis. At the same time, the �rst use of a Multidimensional scaling algorithm by Doran, Hodson (1966) shows the potential of the multidimensional approach to solve the problem. The technical dif�culty was then to process both individuals (Q method) and variables (R method): several techniques were proposed around 1970, until the use of Correspondence Analysis applied either on contingency tables of types (Djindjian 1976) or Burt tables of attributes, thus avoiding the use of typologies (Djindjian 1980) (Fig. 1). 12. A case study: spatial analysis in Archaeology The beginning of spatial analysis in Archaeology is associated with the in�uence of Quantitative Ecology (Pielou 1969): Nearest Neighbor Analysis, tests on grid counting. Whallon (1973) and Dacey (1973) were the �rst to apply these techniques to artefact distribution on occupation �oors, for showing the evidence of concentrations. But rapidly, it was evident that the artefact distributions had a multidimensional component (lithics, ceramics, stones, bones, etc.) which could not be limited to a single one. The tests of spatial associations were then proposed in the 1970s as a technical improvement: Hodder, Orton 1976; Clarke 1977; Hietala, Stevens 1977; Hodder, Okell 1978; Berry et al. 1980, etc. But the only way was the use of Multidimensional spatial data analysis: – Local density analysis by Johnson (1976); – Spectral analysis by Graham (1980); – (X, Y) clustering by Kintigh, Ammermann (1982); – Unconstrained clustering by Whallon (1984); – Spatial structure analysis with topographical constraints by Djindjian (1988); – Spatial structure analysis of re�tted artefacts by Djindjian (1997, 1999). 68 The golden years for mathematics and computers in archaeology (1965-1985) Such methods are always in the state of the art of spatial analysis. But the rapid development of GIS now involves the need to implement spatial analysis techniques in the GIS packages, as an easy to use function. 13. A case study: mathematical modeling in the 1970s Various mathematical modeling techniques have been used in Archaeology, for example, algebraic and exponential equations, linear programming, stochastic process, gravity models, system dynamics, catastrophe theory, multi-agent system: – Population model of hunter-gatherer groups (Wobst 1974); – Fitting of logistic curves for demographic estimation of cities or regions (Ammerman et al. 1976): Y = A/(1 + Bexp(-kT)); – Population estimation of hunter-gatherer groups from surface and structure of dwelling areas (Hassan 1975): A = 0,7105 P exp 1,76; – Boundary models (Renfrew, Level 1979): I = C exp(a) – kd with a = 0,5, k = 0,01; – Subsistence models (Jochim 1976; Keene 1979); – Transition model from hunter-gatherer economy to farming and breeding economy (Reynolds, Ziegler 1979); – Stochastic models for random walk process (Hodder, Orton 1976); – Diffusion models of farming in Europe (Ammerman, Cavalli-Sforza 1973); – Cultural change models by the catastrophe theory of R. Thom: the collapse of Maya civilization (Renfrew, Cooke 1979); – Multi-agent systems and the Maya collapse (Doran 1981). 14. The 1980s: success During the 1980s, the ability of multidimensional data analysis techniques to solve many archaeological methods was at the origin of its progressive success. Among the numerous classic or prototypal techniques of data analysis, Correspondence Analysis and Principal Component Analysis, associated with an appropriate Cluster Analysis, appeared to be robust and easy to use techniques, even to non-mathematician researchers. Since then, Archaeology has played a major role among all the Human and Social Sciences, in showing how to integrate statistics into archaeological methods. Quanti�cation, statistics, data analysis were then embedded in archaeological methods as they were embedded in computer packages: – Survey (artefact surface collecting studies); – Stratigraphy analysis (Harris matrix); 69 F. Djindjian – Artefact analysis; – Stylistic analysis; – Taxonomy (Anthropology, Paleontology, Genetics); – Identi�cation of cultural systems; – Seriation/Toposeriation; – Intrasite spatial analysis (dwellings and funerary structures); – Paleoenvironmental studies; – Raw material procurement and craft manufacturing sources; – Intersite spatial analysis and landscape studies; – Any intrinsic and extrinsic structuring (general case). 15. The criticism against Quantitative Archaeology At the end of the 1980s, Quantitative Archaeology and Statistics no longer seemed to be widely used. Many reasons have contributed to explain this situation: – Quantitative Archaeology was passing from the �eld of research to the �eld of current use, corresponding to the publication of synthetic summary books (see bibliography). – The available archaeological data were exhausted by the quantitative movement and it was necessary to come back to a new data acquisition phase. – The ambitious objectives of the New Archaeology, often applied with a naïve approach and without enough mathematical and methodological knowhow, were increasingly considered a paradigm rather than an epistemology of Archaeology. – The development of microcomputers allowed the real development of Computing Archaeology and consequently the �eld of research shifted from mathematics and statistics to computing applications (data banks, GIS, Archaeological Information System, CRM, etc.) as occurred also in the other �elds. But general criticism concerning the quantitative movement in the Human and Social Sciences was also emerging, particularly concerning Structuralism, with the success in the USA of the French deconstructivism movement (Derrida, Foucault, etc.). The fashion of post-Processual Archaeology was then replacing Processual Archaeology. Some of the main criticisms of the movement suggest that we should focus on the following: – A measure is not knowledge (S.J. Gould, The Mismeasure of Man, 1981). – A structure is not a system (deconstruction of the concept of archaeological culture). 70 The golden years for mathematics and computers in archaeology (1965-1985) – All the archaeological models �t well (poor quality of models, complexity of civilizations, data failure). – The bias of the archaeological record does not allow any reliable quantitative or statistical process (Behavioral Archaeology). 16. 1990/2000: standardization, embedding and theorization Since 1990, the popularization of computers in Archaeology had involved not only a few enthusiastic archaeologists but, progressively, all of them. In the beginning, Computing Archaeology was mainly limited to Word, Excel, PowerPoint, Illustrator, Photoshop and a statistical package; but very quickly, the use of a DBMS, a huge interest for GIS and multimedia data banks, and the discovery of Virtual Reality were developed. Computing Archaeology has become not only the strategic weapon of the most dynamic researchers but also the professional tool for CRM (Culture Resource Management) and Rescue Archaeology. Internet may be considered as a revolution of productivity in Archaeology, for communication, on-line libraries, Google assisted retrieval systems, etc. The decline of the scienti�c in�uence (Physics, Mathematics, etc.) in Social and Human Sciences becomes more and more evident, relayed by the Environmental Sciences (which have replaced the “old” Natural Sciences), boosted by the fear of the change of the earth climate and environment. Statistical techniques are always present but they are increasingly embedded into computerized applications (Statistical packages, GIS, VR, etc.) and Archaeological methods (typometry, spatial analysis, raw material procurement, seriation, Harris matrix management, archaeological surveys, etc.): “Techniques are changing, methods are going on” (Djindjian 1991). A further step has been the attempt to integrate Quantitative Archaeology in every Archaeological construct, with the objective of edifying a general theory of archaeological knowledge or Epistemology (Djindjian 2002). It is also the end of a factice opposition between the methods of Mathematics (for example Djindjian) and the methods of Semiotics (for example Gardin): – Quantitative Acquisition Qualitative – Statistics Object identi�cation Semiotics – Structures Structuring Logic – System Modeling Discourse The two approaches may converge in a three step cognitive model as inspired by Peirce: – Acquisition Qualitative and quantitative acquisition – Structuring Data Analysis – Reconstitution Logic discourse and models 71 F. Djindjian 17. 2010? Archaeology is changing! The regional importance of cultural resource management, the rapid development of Rescue Archaeology as the prime budget and the �rst recruiter for young archaeologists, along with the specialization of archaeological research are all professionalizing Archaeology. This context is promoting the elaboration of state of the art archaeological techniques and methods and the availability of computerized tools, which allows the emergence of standards (recording, reporting, thesaurus, etc.), good practices and productivity. Quantitative Archaeology exists, embedded into application software, statistical packages and archaeological methods, but also through the conceptualization and the formalization of the archaeological projects. Quantitative Archaeology has come back, because Archaeology is more and more a multidisciplinary Science, integrating Exact Sciences, Natural Sciences, Social and Human Sciences, Engineering, where the quantitative approaches are natural. François Djindjian Université de Paris 1 Panthéon-Sorbonne CNRS – UMR 7041 ArScAn REFERENCES* Borillo M. 1977, Raisonnement et méthodes mathématiques en archéologie, Paris, CNRS. Borillo M. 1978, Archéologie et calcul: textes recueillis, Paris, Collection 10/18. Clarke D.L. (ed.) 1972, Models in Archaeology, London, Methuen. Clarke D.L. 1977, Spatial Archaeology, London, Methuen. Djindjian F. 1991, Méthodes pour l’Archéologie, Paris, Armand Colin. Djindjian F., Ducasse H. (eds.) 1987, Data Processing and Mathematics Applied to Archaeology, Ecole d’été Valbonne-Montpellier, Mathématiques et Informatique appliquées à l’Archéologie, «Pact», 16. Djindjian F., Moscati P. (eds.) 2002, Proceedings of the Commission 4 Symposia, XIV UISPP Congress (Liège 2001), «Archeologia e Calcolatori», 13. Doran J.E., Hodson F.R. 1975, Mathematics and Computers in Archaeology, Edinburgh, Edinburgh University Press. Earle T.K., Ericson J.E. (eds.) 1977, Exchange Systems in Prehistory, New York, Academic Press. Gardin J.-Cl. (ed.) 1970, Archéologie et calculateurs: problèmes sémiologiques et mathématiques, Paris, CNRS. Hassan F.A. 1981, Demographic Archaeology, New York, Academic Press. * A selection of major publications between 1970 and 1991, in chronological order. To avoid giving a list of references which is too long, the papers cited in the text will not be listed here. It is possible to read the references in the bibliography of Djindjian 1991. 72 The golden years for mathematics and computers in archaeology (1965-1985) Hietala H. (ed.) 1984, Intrasite Spatial Analysis in Archaeology, Cambridge, Cambridge University Press. Higgs E.S. 1975, Palaeoeconomy, Cambridge, Cambridge University Press. Hodder I. (ed.) 1978, Simulation Studies in Archaeology, Cambridge, Cambridge University Press. Hodder I., Orton C. 1976, Spatial Analysis in Archaeology, Cambridge, Cambridge University Press. Hodson F.R., Kendall D.G., Tautu P. (eds.) 1971, Mathematics in the Archaeological and Historical Sciences. Proceedings of the Anglo-Romanian Conference (Mamaia 1970), Edinburgh, Edinburgh University Press. Ihm P. 1978, Statistik in der Archäologie, Archaeophysica 9. Jochim M.A. 1976, Hunter-Gatherer Subsistence: A Predictive Model, New York, Academic Press. Les Dossiers de l’Archéologie, 42, 1980. Moscati P. 1987, Archeologia e Calcolatori, Firenze, Giunti. Mueller J.W. (ed.) 1975, Sampling in Archaeology, Tucson, The University of Arizona Press. Orton C. 1980, Mathematics in Archaeology, Cambridge, Cambridge University Press. Renfrew C., Cooke K.L. (eds.) 1979, Transformations: Mathematical Approaches to Culture Change, New York, Academic Press. Sabloff J.A. (ed.) 1981, Simulations in Archaeology, Albuquerque, University of New Mexico Press. Shennan S. 1988, Quantifying Archaeology, Edinburgh, Edinburgh University Press. Voorrips A. (ed.) 1990, Mathematics and Information Science in Archaeology: A Flexible Framework, Studies in Modern Archaeology, 3, Bonn. Voorrips A., Loving S.H. (eds.) 1986, To Pattern the Past, «Pact », 11. World Archaeology 1982, Quantitative Methods in Archaeology. ABSTRACT A major quantitative movement in all of the Social and Human Sciences known as Operational Research, started after the last world war with the application of mathematics developed for the optimization of war logistics. Since the 1960s, the fascinating progress of computer technology in the �eld of scienti�c research has ampli�ed the movement which saw the �rst applications to Archaeology around 1966. At the time, the success of a Quantitative Archaeology was associated with the revolution in multidimensional data analysis, which occurred with computerisation and improvements in the algorithms, mainly Multidimensional scaling, Factor Analysis, Principal Component Analysis, Correspondence Analysis and various Cluster Analyses. The Conference of Mamaia (Romania) in 1970, which may be considered as the �rst and most spectacular scienti�c event of this period of foundation, found expression in the book Mathematics and Computers in Archaeology by Doran and Hodson (1975). From 1975 to 1985, the quantitative movement experienced its �nest period with the transition from the research �eld to the application �eld, both for algorithms and software, and the diffusion of Correspondence Analysis, Principal Component Analysis associated with Cluster Analysis and their use by archaeologists. Numerous papers and books were published during that period. After 1985, the quantitative movement fell into disfavour, probably due to the “deconstruction” paradigm and the passing fashion of expert systems. Nevertheless, it is also possible to state that Quantitative Archaeology had now de�nitively entered into the standard methods of Archaeology. 73 Archeologia e Calcolatori 20, 2009, 75-84 ARCHAEOLOGICAL COMPUTING THEN AND NOW: THEORY AND PRACTICE, INTENTIONS AND TENSIONS 1. Introduction In line with the theme of this Conference, my aim here is to outline the historical development of archaeological computing although my particular focus is the relationship of this development with the role of theory in archaeology. To understand this relationship it is important to consider how understandings of theory in archaeology have changed, particularly since the 1960s. These changes in thinking have been fundamental to much of archaeological practice and have changing implications for how we do archaeology, how we think about life in the past and how we collect, structure and interpret data and draw conclusions. Embedded within this evolving matrix is the use of computers. Of course this is immediately problematic as the word “computers” includes a wide variety of philosophical understandings, uses and approaches, even so here I will attempt to consider how using computers interacts with theory. For example, can we unpick the complexities in both the development of computing and theory to identify similarities and in�uences, can we identify how, or if, computers restrict and/or enable certain understandings of theory and its application, what are the intentions behind any particular computerbased analysis? Since the early 1990s one area of computer usage in archaeology, the use of Geographic Information Systems (GIS), has grown exponentially re�ecting the importance of working with spatial data and spatial analyses of various kinds. Although this post-dates much of the theoretical debate taking place during the decades from the 1960s to 1980s, the use of GIS rekindled aspects of those debates albeit within a spatial context and will be used here to illustrate some of the tensions that still exist between archaeological computing and theory. Inherent within this discussion are sub-texts that will become clearer as I move through the paper. First of all the tension between quantitative and qualitative – using quantitative and qualitative data but perhaps more importantly attempting qualitative understandings and interpretations of the past. Computers are good with quantitative data and at one level all data are quantitative but much archaeological interest is in the qualitative aspects of life, material culture and landscapes. This tension can be seen as a part of the post-modern “crisis of representation” and I will attempt to demonstrate it through the use of GIS in archaeology: is it possible to represent within 75 G. Lock computer programs the more subjective and qualitative understandings of what it means to be human? Fundamental to much of what we do as archaeologists is scale, implicit in all archaeological work although rarely explicitly discussed or theorised, this is the second important sub-theme. We routinely move from pot sherds to questions of social and economic relationships, but to what extent is such multi-scalarity enabled or hindered by computer technology? Again, I will try to address this through GIS and the relationship with different theoretical approaches. 2. Historical development In the spirit of the Conference from which it derives, this contribution is intended to be an overview, and as such inevitably parts of the discussion have already been assigned to print elsewhere and in more detail, not least in Lock (2003). Even so, I am attempting to raise issues and move archaeological computing beyond its everyday practical applications which are not contexts isolated from theoretical issues but an integrated part of a holistic whole – theory and practice cannot and should not be separated (although, of course, explicit theory can be ignored, and often is). Indeed, it is frequently the tensions that are raised which are as important for the development of the discipline as addressing the original intentions of the analyses themselves. The traditional sequence in the development of archaeological theory is from Culture History to Processualism in the early 1960s, to Post-Processualism in the late 1970s/early 1980s, the latter two being a reaction to what went before (Trigger 1989). Fundamental to these changing views are the differences in the relationship between data and theory and interpretation (Hodder, Hutson 2003). Of course implicit within this are implications for methodology, for, if we have data on the one hand and interpretation on the other, then it is methodology which provides the framework for getting from one to the other. Not surprisingly then, methodology has changed considerably through these three approaches. Culture History was deeply empirical with people like Gordon Childe spending large amounts of time collecting data about artifacts and sites. Through inductive reasoning it was felt that interpretation would emerge from all of this data, and, with enough data and enough thinking, patterns of explanation would become clear (Childe 1925). This employed a one-way relationship, from data to theory/interpretation. Unhappy with the intrinsic subjectivity of Culture History, people like Lewis Binford in the 1960s argued for a more scienti�c “New Archaeology” largely based on inductive reasoning and the process of hypothesis testing (Binford 1964), subsequently to be called Processualism. This methodology 76 Archaeological computing then and now: theory and practice, intentions and tensions of setting up a hypothesis, accepting or rejecting it and then moving on to formulate another creates a two way relationship between data and theory. As we will see later, central to this approach was the use of quanti�cation, statistics and inevitably computers. By the late 1970s/early 1980s there was an increasingly strong reaction to quanti�cation by people who were more interested in the qualitative aspects of life in the past and the social and cultural context of archaeology in the present. Post-Processualism is a generic term for a whole range of approaches, sometimes called “interpretative archaeologies” (Thomas 2000), but in essence their relationship between data, interpretation and the individual in the present is much more �uid and non-deterministic. The so-called hermeneutic spiral creates a web of analytical relationships without a �xed or �nal result but rather an historical narrative which is explicitly situated within the cultural web of the author. Obviously the changes from Processualism to Post-Processualism had implications for the use of computers and the relationship between computers and theory. I suggest that this move can be characterized as one towards contextuality and speci�cally towards data-rich contextuality (Lock 1995). The 1960s saw an emphasis on the “scienti�c approach”, on positivism, i.e. moving towards “an answer”, and overall a reductionist archaeology. Through the 1980s we see a softening of positivism and an acceptance that there can be equally valid multiple interpretations of the same evidence, that archaeology is a humanist discipline rather than a science and as such requires rich contextualized data environments capable of producing a two-way narrative between data and author. This changing relationship is not a simple one and was partly driven by theoretical developments but was also mirrored by changes in technology, in many respects creating a re�exive environment suitable for theory to �ourish. While early technologies such as mainframe computers and multivariate statistics were data minimal and reductionist they did match some of the main theoretical concerns of the time which were also data minimal in requirements. Classi�cation and typology, popular in the 1960s and systems modelling in the 1970s, for example, only needed alpha-numeric input in the form of values for a series of variables (Doran, Hodson 1975). With the advent and rapid development of micro-computing and associated software through the 1980s, a data rich and data enriching environment became the norm. Exploratory, non-linear approaches were encouraged through the integration of a range of data types including text, images, spatial data and video enabling a non-con�rmatory dialogue with the data. A �nal point to be made within this historical overview is the importance of models, a term which has many de�nitions but here is taken at a general level to mean some form of simpli�cation of a complex reality to enable understanding. 77 G. Lock The importance of models has been recognized for a long time in archaeology by both Processualists and Post-Processualists. Clarke (1972) developed a classi�cation of models into heuristic, visualizing, comparative and organizational devices arguing that they were not “true” but part of the hypothesis generation and testing procedure which resulted in interpretation. Subsequently, Shanks and Tilley (1987) have acknowledge the central role that models play in the process of understanding describing them as heuristic �ctions. Of course the use of models and modelling was a fundamental part of archaeological reasoning before the use of computers. Interaction between the data model (variables recorded and the structure of data) and the theoretical model (methodologies to be employed) providing the link between an unknowable past and statements made about the past in the present. What is crucial about using a computer is the introduction of a third link in this chain, the digital model. It is within this that both the data and theoretical models have to be represented; if they cannot, then obviously a computer cannot be used. It is the complex web of interpretative links that are created between these three models that enable data richness to be developed and enabled within today’s technology, just as they were responsible for restricting them in the 1960s and 1970s. 3. The importance of scale: from landscape to the individual Scale is fundamental to much of this argument and while we all deal with scale in almost everything we do as archaeologists it is usually implicit rather than explicitly presented and discussed. Part of the problem with scale is that it can mean different things – being a concept, an analytical framework and a lived experience (Lock, Molyneaux 2006). The arguments in this paper focus on one important difference, that between analytical scale and phenomenological scale. Take, for example, the ditch of an Iron Age hillfort; this could be represented by an analytical scale of 1:20 in the drawing of its section showing the shape of its cut and the stratigraphy of its �ll. As archaeologists we all understand this convention and how to interpret the representation in terms of its construction, dating, �ll history and abandonment. Phenomenological or lived scale, however, is something completely different, as argued through Ingold’s idea of the “dwelling perspective” (Ingold 1993, 2000). These were monumental structures built to impress with the distance from the bottom of the ditch to the top of the rampart often being several times the height of a person – how would this size affect people who engaged with it either through its construction or through other encounters such as �rst seeing it? The sociality involved in building such a structure and the physicality of moving around it are the qualitative understandings based on the lived experience of scale (Lock 2007). 78 Archaeological computing then and now: theory and practice, intentions and tensions Scale also plays a central role in the changing methodologies and modelling of quantitative and qualitative approaches. Through the 1960s and 1970s there was a strong focus on the high-level economic modelling based on methodologies such as Central Place Theory (CPT) and Site Catchment Analysis (SCA). CPT, and its associated Thiessen Polygons, established site “territories”, site hierarchies and whole networks of social relationships based on economic interaction (Grant 1986). The economic potential of a site was claimed through its catchment and SCA similarly building into networks of social relationships (Ellison, Harriss 1972). The ultimate of these high-level analyses at the scale of social “systems” was Systems Theory itself, where the different elements of a “society” were often worked out through a computer simulation of interacting subsystems and feedback loops (Doran 1970). It is normal for the early adopters of a new technology to initially use it to carry on doing the things that they are used to doing, and so it happened to a large extent with GIS in archaeology. Economic in�uences were modeled through buffering, for example salt and �int resources around Beaker sites in Spain (Baena et al. 1995), and Thiessen Polygons around hillforts (Lock, Harris 1996). As this took place more than ten years after the �rst Post-Processualist writings, it is not surprising that GIS and its applications were criticized as being theoretically poor and substantially environmentally deterministic (Wheatley 1993; Gaffney, van Leusen 1995). The issues raised centred on the people: where are the individuals in these sorts of analysis? Even if prehistoric people could think spatially in terms of maps viewed from above, where everything is visible from a position of nowhere as in these analyses, they still spent most of their time experiencing their physical world from an individual embodied perspective. One emphasis of Post-Processualism is on this very human scale that is missing from the above, the phenomenology of landscape (Tilley 1994), experiencing the world through the human body and senses, often described as humanizing the landscape. In the early 1990s GIS-using archaeologists were quick to realize that the technology offered some potential for these approaches, �rstly through visibility studies, either line-of-site, binary viewsheds or the more sophisticated and subtle cumulative viewsheds, visibility indices and banded or Higuchi viewsheds (Wheatley, Gillings 2000). Similarly movement is very much at the human scale, through least cost paths, least cost surfaces and accessibility indices (Llobera 2000). Both visibility and movement techniques locate the analyst within the landscape thus immediately changing the scale from landscape to the individual while at the same time attempting qualitative understandings rather than quantitative analyses. Since the earliest applications, visibility and movement studies have become commonplace, in fact almost routine, within many GIS applications. A force within this “routinisation”, and perhaps a major force, is an element 79 G. Lock of technological determinism – both visibility analysis and movement studies are an integral part of many commercial GIS software packages, almost push-button solutions. But such ease of use can become a part of the problem rather than the solution, it can emphasise the existing tensions despite the good intentions of the analysis, and it can accentuate the gulf between the practice and theory of computer applications (Lock 2001). Ways of closing this gap and reducing these tensions are explored below through examples of GIS applications. My �rst example is based on the work of the Hillforts of the Ridgeway Project where we excavated three of the many Iron Age hillforts associated with the prehistoric trackway known as the Ridgeway (Gosden, Lock 2007). The Ridgeway runs east-west along the top of the scarp slope at the northern edge of the chalk downlands of central England. The Uf�ngton White Horse, the only prehistoric chalk cut �gure in England is associated with one of the hillforts, Uf�ngton Castle. One tension within viewshed analyses is that they are static whereas vision is often associated with movement thus producing visibility patterns that can change in both subtle and dramatic ways over short distances. This combination of visibility and movement we explored through attempting to assess the location of the hillforts, initially by generating a simulated Ridgeway through an east-west biased least cost path which matched very well with the modern Ridgeway (Bell, Lock 2000). At various locations along the modern Ridgeway, although not directly on it, are hillforts and it was remarkable that for each of these the simulated Ridgeway deviated from the modern path to go through the hillfort. This is particularly interesting because, when �rst constructed in the 7th/6th centuries BC, these sites had opposing east-west aligned entrances suggesting that the Ridgeway is older than the hillforts and they were located on the trackway to incorporate it running through the middle of each hillfort. By generating a series of near view viewsheds, one every 250 metres restricted to a maximum of 2 kilometres visibility range, along the Ridgeway and then accumulating them to produce a visibility index we attempted to simulate “walking along the Ridgeway”. Our interest here was to see whether the hillforts were located to be visible to people walking along the track, the logic predicted that if they were, their position would correlate with the high visibility areas of the index. There is no such correlation, so local, short range, visibility does not seem to have been important within the choices that determined the positioning of the hillforts. Visibility, of course, is more complex than as suggested by a simple binary viewshed, not least because it works differently at different scales and is often, though not always, reciprocal (Wheatley, Gillings 2000). Shifting scale to explore the long range visibility to and from the hillforts, 80 Archaeological computing then and now: theory and practice, intentions and tensions the results are interestingly different with Uf�ngton Castle having the largest panoramic view, and being very visible within its landscape, whereas others are not and have much more restricted views. As mentioned, the Uf�ngton White Horse is next to the hillfort, perhaps a tribal icon meant to be seen and, as suggested by excavation, was a central religious place perhaps serving a wide area (Miles et al. 2003). While visibility and movement move the application of computers and GIS beyond the high-level socio-economic modelling typi�ed by CPT and SCA, they still fall short in representing recent theoretical developments. These are initial moves towards a human scale and the representation of qualitative understandings although, of course, there is much more to being human than just seeing and moving. Another focus of Post-Processual interest is the archaeology of practice and the idea that it is through doing things and engaging with the material world that we construct understandings of it. This is interesting here because it chimes with the often claimed multi-scalar potential of GIS. For example, practice can be identi�ed at the individual level, perhaps breaking a pot and discarding the sherds in a pit, at the group level if it happens often in a similar way across a site, and at a regional level if it happens at many sites. The connections between recognising practices and GIS functionality have been explored using one of the hillforts on the Ridgeway as an example (Daly, Lock 2004). At Segsbury Camp, within a single excavation trench containing a roundhouse and pits, a single pit is linked to the �ll layers within it and pottery and other artifact counts within those individual layers. The idea here is to try and identify repeated practice, in this case the deposition of various sorts of artifacts in pits. If this is repeated in pits across Segsbury, and in pits within other hillforts, these scales of behaviour could constitute group practices, in this case ritual behaviour in the form of votive offerings. As mentioned above, attempts to go beyond visibility and movement in any sort of theorised way are rare and my second example of how this may be approached is the work of Vuk Trifković and his case-study of the Mesolithic and Neolithic sites in the Iron Gates Gorge on the River Danube in Serbia (Trifković 2005, 2006). Here the focus is very much on humanizing the landscape: how can GIS be used to link people, landscapes and archaeological theory, how can GIS become central within constructing the narratives of past life that are expected within archaeological interpretations today? One important aspect of this work is the use of banded, or Higuchi, viewsheds which give a much more subtle understanding of visibility than a basic binary viewshed where something is either in view or not. Landscape features have different visibility characteristics at long, mid and short ranges of viewing. Using Ingold’s ideas of taskscape (Ingold 1993, 2000), that is landscapes becoming meaningful through activities, daily routine and practice, 81 G. Lock it is possible to link people’s activities with different qualities of visibility. Resources such as lithics, wild boars and deer can be mapped through their distributions and territories and then peoples’ movements to reach those resources can be modelled. Integral to this modelling are changing visual characteristics, so, for example, the areas where boars could be hunted as seen from near and far distances. Another important aspect of this work in terms of assimilating theory into practice, is linking the scales of the individual, the household and the landscape through the GIS-based integration of excavated data and landscape reconstruction. For example, at the site of Vlasac the details of individual burials and the plans of houses were used to connect people with their surrounding landscape, both in terms of resources and the tasks involved in exploiting those and in terms of prominent visual characteristics. The orientations of some houses and graves were found to align on very visually dominant cliffs at mid and far distances established through banded viewsheds. Similarly, the “view” from certain graves was interesting in being focussed on the river, perhaps continuing connections established in life through �shing and the importance of the river. Aspects of an individual’s biography can be constructed through skeletal evidence, grave goods and domestic architecture, connected through the multi-scalar functionality of GIS with the landscape around to try and model a richer understanding of past life and death. 4. Conclusion My conclusion is really one of reiterating various points made above. Firstly I would like to emphasize that theory, whether explicit or implicit, is central to archaeological computing. It is through the construction of a thoughtful relationship between theory and the technology that the boundaries of that technology are pushed and extended. The intentions of an analysis should not be determined by what the technology will do but by the archaeological questions being asked and the form of the resulting narrative being sought. This will inevitably produce tensions as the match between GIS and other computer technologies with much recent archaeological theory is not an easy one. These tensions should be made explicit, however, they should be discussed and published, for it is addressing the tensions which will move GIS applications beyond the routine push-button analyses that will dominate if not. Within this general argument I have tried to show that the two subthemes of scale, and incorporating qualitative understandings, are not only central but are beginning to be approached. Gary Lock University of Oxford 82 Archaeological computing then and now: theory and practice, intentions and tensions REFERENCES Baena J., Blasco C., Recuero V. 1995, The spatial analysis of Bell Beaker sites in the Madrid region of Spain, in Lock, Stančič 1995, 101-116. Bell T., Lock G. 2000, Topographic and cultural in�uences on walking the Ridgeway in later prehistoric times, in Lock 2000, 85-100. Binford L. 1964, A consideration of archaeological research design, «American Antiquity», 29, 425-41. Childe V.G. 1925, The Dawn of European Civilization, London, Kegan Paul. Clarke D.L. (ed.) 1972, Models in Archaeology, London, Methuen. Daly P., Lock G. 2004, Time, space and archaeological landscapes: establishing connections in the First Millennium BC, in M.F. Goodchild, D.G. Janelle (eds.), Spatially Integrated Social Science, Oxford, Oxford University Press, 349-365. Doran J.E. 1970, Systems theory, computer simulations and archaeology, «World Archaeology», 1, 289-298. Doran J.E., Hodson F.R. 1975, Mathematics and Computers in Archaeology, Edinburgh, Edinburgh University Press. Ellison A., Harriss J. 1972, Settlement and land use in the prehistory and early history of southern England: a study based on locational models, in Clarke 1972, 911-962. Gaffney V., van Leusen P.M. 1995, GIS, environmental determinism and archaeology, in Lock, Stančič 1995, 367-382. Gosden C., Lock G. 2007, The aesthetics of landscape on the Berkshire Downs, in C. Haselgrove, R. Pope (eds.), The Earlier Iron Age in Britain and the Near Continent, Oxford, Oxbow Books, 279-292. Grant E. (ed.) 1986, Central Places, Archaeology and History, Shef�eld, Department of Archaeology and Prehistory, University of Shef�eld. Hodder I., Hutson S. 2003, Reading the Past. Current Approaches to Interpretation in Archaeology, Cambridge, Cambridge University Press (3rd edition). Ingold T. 1993, The temporality of landscape, «World Archaeology», 25, 152-171. Ingold T. 2000, The Perception of the Environment: Essays on Livelihood, Dwelling and Skill, London, Routledge. Llobera M. 2000, Understanding movement: a pilot model towards the sociology of movement, in Lock 2000, 65-84. Lock G. 1995, Archaeological computing, archaeological theory and moves towards contextualism, in J. Huggett, N. Ryan (eds.), Computer Applications and Quantitative Methods in Archaeology 1994, BAR International Series 600, Oxford, 13-18. Lock G. (ed.) 2000, Beyond the Map: Archaeology and Spatial Technologies, Amsterdam, IOS Press. Lock G. 2001, Theorising the practice or practicing the theory: archaeology and GIS, «Archaeologia Polona», 39, 153-164. Lock G. 2003, Using Computers in Archaeology. Towards Virtual Pasts, London, Routledge. Lock G. 2007, Wessex hillforts after Danebury: exploring boundaries, in C. Gosden, H. Hamerow, P. De Jersey, G. Lock (eds.), Communities and Connections. Essays in Honour of Barry Cunliffe, Oxford, Oxford University Press, 341-356. Lock G., Harris T.M. 1996, Danebury revisited: an English Iron age hillfort in a digital landscape, in M. Aldenderfer, H.D.G. Maschner (eds.), Anthropology, Space and Geographic Information Systems, New York, Oxford University Press, 214-240. Lock G., Molyneaux B. (eds.) 2006, Confronting Scale in Archaeology: Issues of Theory and Practice, New York, Springer. 83 G. Lock Lock G., Stančič Z. (eds.) 1995, Archaeology and Geographic Information Systems: A European Perspective, London, Taylor & Francis. Miles D., Palmer S., Lock G., Gosden C., Cromarty A.M. 2003, Uf�ngton White Horse Hill and its landscape: Investigations at White Horse Hill, Uf�ngton, 1989-95 and Tower Hill, Ashbury, 1993-4, Oxfordshire, Oxford Archaeology, Thames Valley Landscapes Monograph 18, Oxford. Shanks M., Tilley C. 1987, Re-Constructing Archaeology. Theory and Practice, Cambridge, Cambridge University Press. Thomas J. (ed.) 2000, Interpretive Archaeology. A Reader, London, Leicester University Press. Tilley C. 1994, A Phenomenology of Landscape. Places, Paths and Monuments, Oxford, Berg. Trifković V. 2005, The Construction of Space in Early Holocene Iron Gates, Oxford, Unpublished DPhil Thesis, University of Oxford. Trifković V. 2006, Persons and landscapes: shifting scales of landscape archaeology, in Lock, Molyneaux 2006, 257-271. Trigger B. 1989, A History of Archaeological Thought, Cambridge, Cambridge University Press. Wheatley D.W. 1993, Going over old ground: GIS, archaeological theory and the act of perception, in J. Andresen, T. Madsen, I. Scollar (eds.), Computing the Past. Computer Applications and Quantitative Methods in Archaeology 1992, Aarhus, Aarhus University Press, 133-138. Wheatley D.W., Gillings M. 2000, Vision, perception and GIS: developing enriched approaches to the study of archaeological visibility, in Lock 2000, 1-27. ABSTRACT This paper is a brief and personal historical overview of the development of archaeological computing and its relationship with changing archaeological theory. I outline the changes in theoretical approaches through the 1960s to 1980s and how these relate to archaeological data, methodologies, the use of models and interpretation. Two sub-themes within the paper are the importance of scale and the representation of qualitative, as well as quantitative, data and interpretations. Through the use of Geographic Information Systems (GIS) applications in archaeology, I discuss various aspects of recent theoretical approaches and how they have been represented through archaeological computing. Because this is not an easy relationship, I suggest that the intentions of an analysis will inevitably produce tensions between practice and theory. It is by confronting these tensions that the discipline of archaeological computing will move forward beyond technologically determined push-button solutions. 84 Archeologia e Calcolatori 20, 2009, 85-94 STRUMENTI “TRADIZIONALI” E NUOVE TECNOLOGIE PER LA COMUNICAZIONE IN ARCHEOLOGIA 1. Introduzione Il tema al centro di questo Convegno è un’occasione preziosa per ri�ettere sulla storia di una disciplina che, pur essendo relativamente recente, ha contribuito in modo fondamentale agli sviluppi dell’archeologia moderna, a partire dalle profonde interazioni con il dibattito sviluppatosi nel corso della “rivoluzione processuale” per arrivare agli esiti più recenti, segnati dal complesso rapporto con le tecnologie della realtà virtuale e della comunicazione. In questo intervento desidero fare riferimento in particolare all’interazione tra tradizione e innovazione nella comunicazione dei risultati della ricerca archeologica, ripercorrendo le esperienze svolte nell’ambito del Laboratorio di Informatica per l’Archeologia (LIA) dell’Università del Salento1. Può essere utile partire dalla presentazione dei risultati di un progetto recente, il progetto LandLab, che ci ha permesso di sviluppare varie esperienze nell’ambito delle tecnologie informatiche per la comunicazione, ma anche di ri�ettere sulle varie accezioni che la comunicazione, questo termine così di moda oggi, può assumere in archeologia2. Il nome del progetto fa riferimento, sintetizzandoli, ai concetti chiave su cui si è basato il lavoro dell’ampio gruppo di lavoro coinvolto: Laboratorio per la ricerca, formazione e comunicazione dei paesaggi archeologici. Un ruolo importante è stato assegnato agli strumenti per comunicare, a vari livelli di approfondimento e con diverse modalità, i contenuti della ricerca. In particolare, le due applicazioni webGIS realizzate nell’ambito del LandLab rappresentano un esempio di come gli strumenti di studio e ricerca tradizionali per l’archeologia, vale a dire la raccolta di dati e catalogazione, si siano evoluti verso modalità di diffusione dei risultati che sfruttano la rete Internet come canale di divulgazione. http://lia.unile.it/. Progetto co�nanziato da Ministero Istruzione Università e Ricerca, Dipartimento per la Programmazione, il Coordinamento e gli Affari Economici, Servizio per lo Sviluppo ed il Potenziamento dell’Attività di Ricerca, Uf�cio IV, nell’ambito del Programma Operativo Nazionale 2000-2006, “Ricerca Scienti�ca, Sviluppo Tecnologico, Alta Formazione”, Misura II, “Società dell’Informazione per il Sistema Scienti�co Meridionale”, Azione b. Soggetto attuatore: Università degli Studi di Lecce (Dipartimento di Beni Culturali, Dipartimento di Ingegneria dell’Innovazione, Coordinamento SIBA), in collaborazione con CNR/IBAM e Museo Archeologico Regionale “Antonino Salinas” di Palermo, sotto la direzione scienti�ca del prof. Francesco D’Andria. Sito web: http://landlab.unile.it/. Cfr. presentazione in D’Andria, Semeraro 2006. 1 2 85 G. Semeraro 2. Gestione dei dati di scavo Il progetto LandLab ci ha permesso di affrontare in modo nuovo l’antico problema della gestione dei dati di scavo. Si tratta di un tema legato alla nascita dell’informatica archeologica, poiché le banche dati per la gestione dei dati di scavo si collocano fra le prime applicazioni, avviate già negli anni Settanta (Djindjian 1984; Moscati 1987). Nell’Università di Lecce (ora del Salento) tale tema è stato affrontato agli inizi degli anni Ottanta attraverso l’implementazione di un progetto (BDAr), sviluppato grazie alle risorse hardware e software allora disponibili presso il Centro di Calcolo dell’Università di Lecce (CECUS): un Database Management System gerarchico (il DL1) e una piattaforma hardware costituita da un mainframe IBM 4331 (Semeraro, Mangia 1987). La fase in cui BDAr viene realizzato coincide, in Italia, con un periodo che vede più in generale una grande attenzione verso i problemi dell’analisi descrittiva dello scavo e della prospezione, come ri�esso della più matura sensibilità verso le problematiche metodologiche legate all’approfondimento stratigra�co (Parise Badoni, Ruggeri Giove 1984). Come dominare e af�nare la tecnica dello scavo, come documentare sono in quel periodo temi forti, molto presenti all’attenzione degli studiosi, come chiaramente documentato da una serie di iniziative editoriali che arricchiscono il quadro della manualistica disponibile in lingua italiana relativa alle tecniche di scavo. Faccio riferimento a questo clima, per richiamare lo stretto legame che univa in quelle fasi la metodologia della ricerca archeologica e la nascente disciplina dell’informatica archeologica. BDAr, uno dei primi sistemi elaborati in Italia, è il risultato di un’attenzione molto spinta verso un tipo di strutturazione dei dati fortemente orientato verso l’archeologia quantitativa. Al pari dei progetti nati in quel periodo, esso si confronta, inoltre, con il grande, e ancora irrisolto, problema della “comunicazione interna” alla comunità degli archeologi, quello del linguaggio da utilizzare nel trasferimento dell’informazione, a cominciare dalla terminologia tecnica, dai lessici. Molta parte del lavoro svolto negli anni successivi si è concentrato sui temi della strutturazione dei dati, del linguaggio descrittivo, con l’obiettivo di af�nare sempre più, grazie alle tecnologie informatiche, gli strumenti della catalogazione. Il Progetto Strategico CNR 251100, attivato a Lecce nel 1991 (presentazione dei risultati in D’Andria 1997), e i successivi progetti CNR (Progetto Finalizzato Beni Culturali, Progetto Mezzogiorno) hanno rappresentato strumenti fondamentali per lo sviluppo di tali metodologie. La comunicazione, intesa anche come condivisione dei dati, passa attraverso la costruzione di un lessico comune. Su questo aspetto si è lavorato intensamente negli anni Novanta, curando in particolare i lessici dei materiali più 86 Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia frequentemente rinvenuti negli scavi, come la ceramica (Caggia, Melissano 1997; Semeraro 1997). È importante accennare qui, anche se non è possibile sviluppare più ampiamente la discussione, al rapporto molto stretto esistente fra la stesura dei lessici e gli sviluppi metodologici che hanno coinvolto l’archeologia, sempre più orientati verso il metodo contestuale (Semeraro 2004). Non più solo codici atti a garantire una buona trasmissione delle informazioni (funzione preminente della codi�ca informatizzata), i lessici del sistema che si andava implementando erano, soprattutto, strumenti di supporto all’analisi dei contesti, in un’ottica attenta alla funzione, pratica e simbolica, che gli “oggetti”, come la ceramica, rivestono nei contesti archeologici. L’integrazione con i sistemi di cartogra�a numerica prima e con il GIS poi (dal 1995) ha permesso in�ne di mettere a punto uno strumento completo e complesso, per la documentazione, l’analisi e l’interpretazione dello scavo. L’ultima tappa su cui desidero soffermarmi – quella realizzata grazie al progetto LandLab – ha permesso di implementare la versione on-line WODOS3, che simula, limitatamente alla visualizzazione, tutte le funzioni dei GIS di scavo, permettendo di consultare in modo contestuale rilievi gra�ci e documentazione descrittiva (D’Andria, Semeraro 2006; Semeraro 2007, 2008). Lasciando da parte gli aspetti tecnici e la descrizione dell’architettura del sistema, è opportuno, invece, sottolineare l’utilità dell’applicazione web ai �ni della comunicazione “interna” alla comunità degli archeologi. Mi riferisco non solo alla possibilità di condividere i dati della ricerca all’interno di gruppi di ricerca vasti, articolati e dislocati in aree geogra�che diverse. Molto attraente appare, infatti, la possibilità di utilizzare lo strumento della comunicazione on-line, accanto alla pubblicazione tradizionale, per rendere pubblici i dati analitici dello scavo, quali le liste dei materiali, le quanti�cazioni, gli elenchi di US, le descrizioni: tutti i dati di base che pur essendo fondamentali per la ricostruzione delle sequenze stratigra�che possono essere omessi in una pubblicazione, dati anche i costi rilevanti che l’editoria specialistica presuppone. La rete è oggi forse il supporto più “durevole”: probabilmente è quello che può fornire maggiori garanzie di conservazione dei dati a fronte di supporti digitali (materiali) come CD e DVD, che possono nel tempo subire danni materiali, con relativa perdita dei dati registrati. In questo senso risponde all’esigenza – sempre più diffusa oggi in Europa e avvertita negli ultimi anni anche in Italia – di utilizzare il web come “repository” per i dati digitali inerenti il territorio. La versione on-line ha consentito inoltre di ripensare le modalità di accesso ai dati, fornendo nuove e più agili funzioni di ricerca dei contenuti. Anche in questo va indicato un notevole avanzamento rispetto al database e alle sue rigidità (cfr. osservazioni in Semeraro 2008). 3 http://gis.lia.unile.it/wodos/. 87 G. Semeraro 3. GIS e dinamiche insediative Ad esigenze di comunicazione verso la comunità scienti�ca risponde anche l’altro applicativo web realizzato grazie al LandLab, il webGIS degli insediamenti4. Anche questa applicazione si con�gura come la “reingegnerizzazione” di una più tradizionale banca dati collegata ad un GIS e �nalizzata al censimento dei dati relativi agli insediamenti preromani in Italia meridionale (D’Andria 1999). L’applicazione informatizzata (Semeraro 2002) si collegava ad una delle linee di ricerca più signi�cative del settore archeologico dell’Università del Salento (prima Università di Lecce), rivolta all’analisi delle dinamiche insediative nei territori dell’Italia meridionale. Studiare gli insediamenti appariva la strategia d’indagine che più ef�cacemente poteva reagire alla stagnazione della ricerca sul mondo indigeno, troppo spesso risolta nello studio dei fenomeni funerari. Spostare l’attenzione sugli insediamenti ha comportato una serie di scelte inerenti le modalità di organizzazione dei dati. Allo scopo di acquisire elementi di valutazione circa il ruolo delle singole realtà insediative all’interno del complesso sistema inerente l’Italia meridionale, si è affrontato un lavoro �nalizzato a valutare le estensioni – reali o stimate – di ogni sito archeologico, attraverso una lunga e non sempre agevole opera di collazione di tutti i dati noti, provenienti da varie fonti di documentazione (scavi, ricognizioni di super�cie, segnalazioni occasionali, etc.). Su questa base è stato possibile elaborare una serie di carte tematiche tese a descrivere la varietà dei rapporti dimensionali all’interno delle diverse aree geogra�che e in relazione ai vari periodi cronologici, come base per valutare la presenza e l’articolazione di fenomeni di “gerarchizzazione” delle realtà insediative. Nell’impianto generale del lavoro si è inoltre dato spazio all’inquadramento geogra�co-territoriale, attraverso il collegamento ad una banca dati cartogra�ca, completa dei dati relativi alla geomorfologia del territorio. Questo strumento ha consentito di formulare una serie di osservazioni su larga scala (D’Andria 1999, 2002; D’Andria, Semeraro 2003), ma soprattutto si è rivelato un utile serbatoio di dati sull’Italia meridionale nelle fasi preromane. Il passaggio alla versione web è stato possibile grazie alle risorse messe a disposizione dal progetto LandLab5. L’impianto concettuale ha subito alcune modi�che, funzionali ad arricchire i contenuti della banca dati e ad ottenere una maggiore �essibilità delle operazioni di ricerca. Mentre il progetto iniziale era limitato alla schedatura degli insediamenti complessi, nella versione 4 5 88 http://landlab.unile.it/html/preromano.html. http://gis.lia.unile.it/insediamenti/. Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia on-line si è esteso il censimento a tutte le “evidenze” archeologiche (compresi i rinvenimenti isolati di strutture e aree di frammenti) note da bibliogra�a. L’obiettivo, perseguito all’interno di una revisione generale delle strutture di catalogazione e di formalizzazione dei dati, è quello di svincolare il più possibile il modello dei dati dalla tipologia speci�ca dei contenuti, in modo da renderlo adattabile anche ad altri contesti storico-culturali. Si è inoltre sviluppato un modello di archiviazione e consultazione dei dati contenuti nelle fonti letterarie e dei dati epigra�ci6. Per quanto riguarda l’analisi dei dati territoriali, si è arricchita notevolmente la base di dati cartogra�ci attraverso la rielaborazione degli strumenti disponibili per l’analisi dei dati geologici e geomorfologici. Tali scelte hanno comportato un aumento quantitativo dei dati da gestire; di conseguenza si è ride�nita l’area geogra�ca di applicazione, con la decisione di concentrare sull’analisi dei dati relativi alle tre province di Lecce, Brindisi e Taranto, la nuova versione della banca dati. Il sistema on-line è diventato un utile strumento di consultazione di una messe notevole di dati, dotato di modalità di accesso e di ricerca che permettono di sfruttare pienamente i contenuti. Oltre che per il pubblico degli specialisti, l’applicativo rappresenta una risorsa importante anche per gli enti locali, per gli amministratori, le istituzioni addette alla piani�cazione territoriale e alla valorizzazione dei beni culturali. 4. Comunicazione multimediale Vorrei concludere facendo in�ne riferimento alla comunicazione verso il pubblico dei non addetti ai lavori7, la sempre più ampia comunità di persone attente ai fenomeni culturali, verso la quale è necessario rivolgere maggiore attenzione nello sforzo di raccontare l’archeologia attraverso linguaggi e modalità di comunicazione idonee. Tecnologie avanzate sono state sperimentate negli applicativi �nalizzati alla didattica museale attraverso la progettazione di totem interattivi8, caratterizzati dalla presenza di uno schermo per la proiezione e di una “tastiera” dove scorre l’apparato didattico di approfondimento (schede e immagini) (Figg. 1-2). I �lmati vertono sulla ricostruzione dei paesaggi archeologici, a partire dalla ricerca sul terreno (Il mestiere dell’archeologo), �no alle ricostruzioni tridimensionali animate (Fig. 3)9. Per la fruizione di questa tipologia di 6 Questa parte del progetto è stata curata dal gruppo di ricerca guidato dal prof. Mario Lombardo (Università del Salento). 7 http://landlab.unile.it/html/comunicazione_multimediale.html. 8 http://landlab.unile.it/html/didattica_museale.html: sezione a cura di D. Borra, No Real, Torino. 9 Cfr. trailer sulla home page del sito LandLab (http://landlab.unile.it/). 89 G. Semeraro �lmati è stato realizzato un tipo di “totem” autostereoscopico che permette di percepire una visione tridimensionale senza far ricorso agli occhiali stereoscopici (Fig. 1a). I paesaggi archeologici ricostruiti sono stati identi�cati fra quelli oggetto di studio da parte del gruppo di ricerca interdisciplinare. Alcune applicazioni hanno riguardato una serie di contesti particolarmente signi�cativi per ricostruire le dinamiche insediative e la dimensione cultuale delle società che occupavano la Puglia meridionale durante le fasi preromane (�lmati 3D su insediamenti messapici)10. Il tempio C di Selinunte è stato oggetto di uno studio approfondito, partito dall’analisi di tutti gli elementi della copertura11 e da un aggiornato rilievo analitico12 realizzato con le tecniche tradizionali. Le raf�nate ricostruzioni elaborate presso l’Istituto dei Beni Archeologici e Monumentali del CNR (IBAM), a cura di F. Gabellone, restituiscono ora una visione del monumento basata per la prima volta su uno studio puntuale dell’architettura di questo capolavoro13 (Fig. 4). Un applicativo realizzato per uno dei totem interattivi, il “periscopio”, permette di apprezzare la ricostruzione del tempio all’interno di un ambiente virtuale in cui lo spettatore si immerge. Oltre al risultato �nale, va segnalata l’attenzione riservata al problema “�lologico” del rapporto fra ricostruzione virtuale e dati di partenza. Apparati destinati a rendere edotto il fruitore del “livello di af�dabilità” della ricostruzione corredano gli applicativi (Fig. 5). Abbiamo voluto con questi affrontare la s�da della comunicazione verso il pubblico dei non specialisti, un tema di grande attualità, con il quale bisognerà confrontarsi sempre più nel futuro. Gli archeologi non possono sottrarsi a questa s�da, demandando agli esperti della comunicazione, in nome della superiorità della tecnologia, l’intero processo che porta alla realizzazione di un prodotto multimediale, perché il rischio è quello, già evidente in alcune realizzazioni diffuse attraverso la grande distribuzione, di permettere la circolazione di informazioni non corrette o dai contenuti travisati. Anche qui si ripropone un tema, e un problema, già affrontato agli albori dell’informatica archeologica, quello della creazione di pro�li scienti�ci adeguati, di professionalità capaci di funzionare come “interfaccia” tra due discipline lontane. Nel caso della comunicazione multimediale il problema è ancora più ampio, anche perché è complicato dagli aspetti commerciali di un Cfr. trailer Vaste, Cavallino sulla home page del sito LandLab (http://landlab.unile.it/). Ricerca a cura di C. Marconi e R. Pumo, svolta in collaborazione con il Museo “Salinas” di Palermo. 12 A cura di C.M. Amici (Università del Salento): http://landlab.unile.it/html/pannelli/001_amici.jpg/. 13 http://landlab.unile.it/html/pannelli/017_gabellone.jpg. 10 11 90 Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia Fig. 1 – Totem con schermo 100’’ (a) e con video autostereoscopico (b) realizzati per il progetto LandLab, con schermo dedicato ad approfondimenti informativi. Fig. 2 – Esempio di scheda di approfondimento (dal �lmato Il mestiere dell’archeologo). 91 G. Semeraro Fig. 3 – Gli attori “virtuali” del �lmato 3D sull’insediamento ellenistico di Acquarica di Lecce. Fig. 4 – Ricostruzione tridimensionale del tempio C di Selinunte. 92 Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia Fig. 5 – Classi�cazione del grado di af�dabilità di una ricostruzione 3D: esempio tratto dal �lmato relativo al luogo di culto ellenistico di Vaste (Le). settore che appare piuttosto attraente per il mercato. Sarà pertanto necessario attrezzarsi investendo nella formazione, anche a livello universitario. Per gli archeologi si tratterà di trovare ancora una volta una risposta al bisogno di nuove tecnologie. Grazia Semeraro Dipartimento di Beni Culturali Università del Salento BIBLIOGRAFIA Caggia P., Melissano V. 1997, Il sistema per la gestione dei dati di scavo. Normalizzazione dei dati e vocabolari, in D’Andria 1997, 97-116. 93 G. Semeraro D’Andria F. (ed.) 1997, Metodologie di catalogazione per i Beni Culturali, «BACT», 1.1, Lecce Bari, CNR - Università di Lecce. D’Andria F. 1999, Ricerche recenti sugli insediamenti indigeni in Puglia e Basilicata, in S. Quilici Gigli (ed.), La forma della città e del territorio. Atti dell’Incontro di Studio (S. Maria Capua Vetere 1998), Roma, L’Erma di Bretschneider, 103-118. D’Andria F. 2002, Greek colonization and romanization from a native perspective, in P. Attema, G.-J. Burgers, E. van Joolen, M. van Leusen, B. Mater (eds.), New Developments in Italian Landscape Archaeology. Proceedings of a three-day Conference (Groningen 2000), BAR International Series 1091, Oxford, Archaeopress, 52-59. D’Andria F., Semeraro G. 2003, Applicazioni GIS alla ricerca archeologica. Modelli di formalizzazione dei dati, in I modelli nella ricerca archeologica. Il ruolo dell’informatica. Atti del Convegno (Roma 2000), Contributi del Centro Linceo Interdisciplinare Beniamino Segre, 107, Roma, 77-105. D’Andria F., Semeraro G. 2006, The LandLab Project. Multimedia laboratory for research, education and communication regarding archaeological landscapes, «Archaeological Computing Newsletter», 64, June, 19-22. Djindjian F. 1984, Informatique et archéologie: une introduction, «Rivista di Archeologia», 8, 131-136. Moscati P. 1987, Archeologia e Calcolatori, Firenze, Giunti. Parise Badoni F., Ruggeri Giove M. 1984, Norme per la redazione della scheda di saggio stratigra�co, Roma, ICCD. Semeraro G. 1997, Il sistema per la gestione dei dati archeologici. Aspetti metodologici, in D’Andria 1997, 33-56. Semeraro G. 2002, GIS and archaeology of the indigenous world in southern Italy, in P. Attema, G.-J. Burgers, E. van Joolen, M. van Leusen, B. Mater (eds.), New Developments in Italian Landscape Archaeology. Proceedings of a three-day Conference (Groningen 2000), BAR International Series 1091, Oxford, 107-110. Semeraro G. 2004, Forma e funzione: osservazioni sul rapporto fra nuovi sviluppi dell’archeologia e il linguaggio descrittivo, in P. Moscati (ed.), New Frontiers of Archaeological Research. Languages, Communication, Information Technology, «Archeologia e Calcolatori», 15, 161-183. Semeraro G. 2007, LANDLAB Project and archaeology on line. Web-based systems for the study of settlement patterns and excavations data in classical archaeology, «Archeologia e Calcolatori», 18, 243-254. Semeraro G. 2008, “Accedere” allo scavo archeologico. Sistemi (e problemi) di elaborazione dei dati, in G. De Felice, M.G. Sibilano, G. Volpe (eds.), Digitalizzare la pesantezza. L’informatica e il metodo della stratigra�a (Foggia 2008), Bari, Edipuglia, 39-54. Semeraro G., Mangia C. 1987, Progetto BDAR: Gestione di dati archeologici ed elaborazioni statistiche. L’esperienza di Otranto, in F. D’Andria (ed.), Informatica ed Archeologia Classica. Atti del Convegno internazionale (Lecce 1986), Galatina, 239-261. ABSTRACT This paper illustrates the main research projects implemented by the LIA (Laboratory of Archaeological Computing) at the University of Salento (Lecce, Italy) in the �eld of computer application to archaeology. This activity started in 1983 with the �rst excavation data management system. Further developments are linked with the use of GIS in the �eld of settlement studies and, more recently, with the implementation of two web-based applications, which represent the on-line versions of the older systems. The paper also presents the results of a research project, LandLab Project, in the �eld of multimedia communication. 94 Archeologia e Calcolatori 20, 2009, 95-109 THE BIRTH AND HISTORICAL DEVELOPMENT OF COMPUTATIONAL INTELLIGENCE APPLICATIONS IN ARCHAEOLOGY 1. Introduction Is it possible to build a machine to do archaeology? Will this machine be capable of acting like a scientist? Will this machine be capable of understanding how humans act, or how humans think they acted in the Past? These questions are rather original in Archaeology. They are even provocative, given the current fashion of post-modern and hermeneutic approaches. Nevertheless, the dream of an automated archaeology has existed latently in some hidden places of the archaeology. The so called “intelligent” machines incite instinctive fear and anger by resembling ancestral threats – a rival for our social position as more or less respected specialists. But robots are here, around us. So, why should we fear a machine classifying a prehistoric tool and deciding “intelligently” its origin, function and/or chronology? The debate is between what is considered an arti�cial way of reasoning (computer programs) and a natural way of reasoning (verbal narrative). Critics of computationalism insist that we should not confound scienti�c statements with predicate logic operations, since discursive practices or argumentations observed in a scienti�c text are not “formal”. By that reason, they are tributary, to a certain extent, from the Natural Language and the narrative structure (literary) of which scienti�c texts derive. Personally, I take the opposite approach: scienti�c problem solving stems from the acquisition of knowledge from a speci�c environment, the manipulation of such knowledge, and the intervention in the real world with the manipulated knowledge. The more exhaustive and better structured the knowledge base, the more it emulates a Scienti�c Theory and therefore the easier the solution is to the scienti�c problem, the more adequate the interpretations we will get. As its history proves, computational intelligence is not just about robots. It is also about understanding the nature of intelligent thought and action using computers as experimental devices. In the following pages I will consider whether this is also a possible “metaphor” to understand the way archaeologists think. 2. Machines who think The dream of an “intelligent” machine is very old in the history of Philosophy, and it is related to the progressive discovery that nature and hu95 J.A. Barceló man acts are not divine secrets, but could be broken down and understood systematically. Since Socrates, philosophers have often anthropomorphized a problem by imagining a demon accomplishing a task that was dif�cult to understand but seemed to be possible. In some cases, such a demon had a kind of mechanical nature. Maybe the most relevant “precedent” of computational intelligence was the logic imagined by Ramon Lull, a medieval mystic (13th. century), and one of Catalonia’s greatest poets. More than three centuries after the Ars Magna this book in�uenced Thomas Hobbes (1588-1679), who stated «by ratiocination, I mean computation. Now to compute is either to collect the sum of many things that are added, or to know what remains when one thing is taken out of another. Ratiocination, therefore, is the same with addition and subtraction». Hobbes wanted to account for all cognitive activities of the mind in terms of computation, and computation is calculated in terms of manipulation (transformation) of computable entities. Gottfried Wilhelm von Leibniz (1765) envisioned a universal calculus of reasoning by which arguments could be decided mechanically. «Everything proceeds mathematically...if someone could have a suf�cient insight into the inner parts of things, and in addition had remembrance and intelligence enough to consider all the circumstances and take them into account, he would be a prophet and see the future in the present as in a mirror». He seemed to see the possibility of mechanical reasoning devices using rules of logic to settle disputes. Many of the natural philosophers of the Enlightenment took similar views. Julien Offray de La Mettrie (1709-1751) was perhaps the �rst to suggest that “man is a machine”, more as a metaphor than as a mechanical possibility. We had to wait until 20th century for a new turn of the screw. In 1914, Bertrand Russell imagined recording instruments that could perceive the world in place of a human observer. Russell’s virtual observer eliminates the subjectivity of perception of what things really are. «There is no theoretical limit to what can be done to make mechanical records analogous to what a person would perceive if he were similarly situated» (Russell 1959). With early twentieth century inventions in electronics and the post– World War II rise of modern computers, possibilities gave over to demonstrations. As a result of their awesome calculating power, computers in the 1940s were frequently referred to as “giant brains”. As a consequence, in the middle of the 20th century, a handful of scientists began to explore a new approach to thinking machines based on their discoveries in neurology, a new mathematical theory of information, the engineering approach to control and stability mechanisms, and the availability of machines based on the abstract essence of mathematical reasoning. The �rst computer systems displaying cognitive capacities considered “intelligent” (language understanding, learning, reasoning, problem solving) 96 The birth and historical development of computational intelligence applications were presented in 1956, at the Dartmouth Conference. At the same time, John McCarthy coined the term Arti�cial Intelligence. McCarthy’s main assumptions were that if a machine can do a job, then an automatic calculator can be programmed to simulate the machine. Knowledge was viewed as something that could be stored, coded, matched, and displayed. An arti�cial brain could be built simply by telling it what it needs to know. It was hoped that if we could represent the knowledge necessary to describe the world and the possible actions in a suitable formalism, then by coupling this world description with a powerful inference machine one could construct an arti�cial agent capable of planning and problem solving. The turning point came with the development of knowledge-based systems in the 1960s and early 1970s. It has been explained as a “paradigm shift” in computational intelligence toward knowledge-based systems. The thousands of knowledge-based mechanisms or “expert systems” following it became visible demonstrations of the power of small amounts of knowledge to enable intelligent decision-making programs in numerous areas of importance. Although limited in scope, in part because of the effort to accumulate the requisite knowledge, their success in providing expert-level assistance reinforces the old adage that knowledge is power. But it was this advantage which at the end acted as their main handicap. Arti�cial Intelligence began to lose its holistic character towards a general theory of intelligence, acquiring a more “application” orientation. Knowledge-based systems were useful tools, although they do not simulate how humans think. About the same time, computer specialists began to realize that scienti�c reasoning can be described in terms of problem solving search (Langley et al. 1987; Thagard 1988; Wagman 2000). According to that view, scienti�c theories may be considered as complex data structures in a computational system; they consist of highly organized packages of rules, concepts, and problem solutions. The idea is that scienti�c knowledge directs problem solving search through a space of theoretical concepts. This speci�c knowledge matches against different possible regularities in the data and take different actions depending on the kind of regularity the system has perceived among external data. Some of this knowledge proposes laws or hypotheses, others de�ne a new theoretical term, and yet others alter the proposed scope of a law. Different data led to the application of alternative sequences of knowledge operators, and thus to different conclusions. Generating a scienti�c explanation would be then a type of problem solving search, in which the initial state consists of some knowledge about a domain, and the goal state is a hypothesis that can account for some or all of that knowledge in a more concise form. A space of instances and a space of hypotheses should then be used, with the search in one space guided by information available in the other. That is to say, the use of instances constrains 97 J.A. Barceló the search for hypothetical statements of the causal relationship. Hypotheses are evaluated through known instances of the causal relationship. In looking for appropriate instances of examples, scientists are faced with a problem solving task paralleling their search for hypotheses. They must be able to plan by making predictions about which observational (or experimental) results could support or reject various hypotheses. If a computer program could be developed to do what we usually call “science”, then an intelligent robot able to substitute us in the tedious task of studying ourselves should also be possible. In 1965, Herbert Simon predicted that machines would be capable of doing any work a man could do by 1985. When that date arrived, and the promised intelligent machines were still not available, a critical approach to the very idea of thinking machines began. This failure precipitated the separation and rivalry of the two founding disciplines: Cybernetics and Arti�cial Intelligence. Cybernetics fundamental ambition was to produce a physically touchable theory of that most unphysical entity: the mind itself. The cybernetics researchers began their investigation of nervous systems by creating automata creatures reproducing what we (animals) can do. The arti�cial intelligence community ignored this approach in their early work and instead set the sights directly on the “intellectual” side of human thought, in experiments running on large stationary computers dedicated to the mechanizing of pure reasoning. 3. Archaeological reasoning as computation The �rst requisite for an automated archaeology should be based on the dream of Hobbes, “rationalization as computation”. Formal logics, mathematics and computers have been used in archaeology, but the vast majority of their archaeological applications pertain to the domain of methodology or, even worse, to the design of data collections. In many cases, such efforts were not directed to the examination of the structures of archaeological reasoning and argumentation. Although computers and statistics began to be used in archaeology in the 1950s, we had to wait until the end of the 1960s, when “new archaeologists” began to explore Hobbes argument. In so doing they emphasized the need to make disciplinary assumptions formal and explicit. Such authors considered that computer methodology provided an expanding armory of analog and digital techniques for computation, experimentation, simulation, visual display and graphic analysis. In that sense, it ful�lled a second requirement for automated archaeology: Russell’s challenge for eliminating the subjectivity of perception and explanation in terms of some kind of externalized demon. Mathematical techniques, as sense-extending machine tools could either be used like the microscope to examine the �ne structure of low-level entities and 98 The birth and historical development of computational intelligence applications processes in minute detail, or like the telescope to scrutinize massive ensembles over vast scales. They also seemed to provide powerful hammer-and-anvil procedures to beat out archaeological theory from intransigent data; thus, on one hand these methods can be used to construct models and simulate their consequences over a range of states, identifying test-conditions; on the other hand, the computer may be used to analyze and test real data and measure their expectations under the model against the reality. Doran and Hodson (1975, 74, see also Doran 1970) already suggested that the question “Can a computer do this?” is almost always rephrased as “Can this procedure exactly be speci�ed?”. In his book, Analytical Archaeology (Clarke 1968, 512-513) David Clarke noted three ways to explore rationalization as computation in archaeology: 1. using descriptive statistics for concept de�nition and quanti�cation; 2. using analytical inductive statistics to handle relationship concepts; 3. using isomorphic systems of symbols arranged in axiomatic schemes, models or calculi to handle the regularities in complex data. The main problem in those years was that many scholars regarded mathematics and statistics as an analytical tool to be “used”, and not as a way to transform rationalization into computation. Only some limited aspects of archaeological reasoning were computationally formalized, like classi�cation and seriation. Some emphasis was placed on statistical hypothesis testing, but there was very poor application of mathematical formalism to the theoretical issues of archaeology, despite recognition of the value of axiomatically or formally expressed theory (Read 1990). The naive use of Hempelian hypothetico-deductive reasoning mechanism as a “method” to test hypotheses is a good example. Statistics was placed at some part of the reasoning cycle, leaving the rest of the explanatory process in traditional narrative terms. A cautious note by Doran and Hodson (1975), the founding fathers of quantitative archaeology, is very interesting in this regard. They found the claims for a “formalized” approach to archaeology greatly exaggerated and therefore dangerous. While they share some of the dissatisfaction with subjectivities in archaeological explanation at that time, the proposed solution – the hypothetical-deductive method – was considered as a bizarre mixture of naivety and dogmatism. Formalization was still regarded as an “alien” conception. A similar theme was iterated by Cowgill (1986, 369) in a review article titled Archaeological Applications of Mathematical and Formal Methods. There he referred to three broad categories comprised of «archaeological observations, analytical methods, and sociocultural theory», but then observed that although some anthropological reasoning was expressed directly in computational (mathematical) terms, most of it was still expressed in a subjective narrative way. 99 J.A. Barceló The �rst synthetic models of archaeological inference were proposed by D. Clarke (1972), M.B. Schiffer (1976), M. Borillo (1977), among others. They argued for the formalization of the acquisition of archaeological knowledge in terms of sets of laws, correlates and cultural and natural transformation processes. The cybernetic theory of the 50s and 60s provided the language necessary for that formalization. Instead of considering “archaeology” as a machine, “new archaeologists” regarded human society, and even the human individual (but not the archaeologist!) as a machine, forming a complex whole or “system”. Here, “machines”, “automata”, and “societies” were synonymous. Archaeologists were convinced that they should study the relationships between “components” to discover how the system worked in the past. The links between elements or subsystems were examined in terms of correlational structure (Clarke 1968). Only in the mid-1980s, a step forward towards a full formalization was made, when archaeologists realized the need to impose a concordance between the language of the model, the assumptions of the model and its interpretability (Carr 1985; Read 1985). The problem arising with axiomatization was not whether archaeologists have developed a theory that can be recast in axiomatic fashion but whether there are principles or relationships suitable for restatement as axioms for an axiomatic construction. The real fact is that archaeologists do not know exactly what archaeology is. 4. Simulating archaeologists Jean-Claude Gardin became a professional archaeologist by chance at the end of the 1950s, and consequently he always had an outsider’s view of what archaeologists do. Instead of a normativist approach to archaeology, suggesting the best way of constructing the archaeology we need, he took an analytic point of view, looking for ways of deconstructing what archaeologists believe they do. His purpose was to expose the logical �aws in argumentation and so to improve the logical execution of reasoning. This would allow the study of archaeological logic itself. According to Gardin, the concrete expression of reasoning in any dominion of science is the text where the author has expressed the mental operations that have led him/her from the observation of certain empirical facts, to the af�rmation of certain explanatory proposals. This methodology looks for the necessary bridges between facts and theses and the links between explanations. It has been called logicist analysis (Gardin et al. 1981). Its goal is to reduce the content of the text in its main components, studying their fundamental connections. The schematization of an archaeological paper is not an abstract or a summary of the paper, but a reformulation of its content in a condensed form. Gardin uses the word “condensation” as in physics: a 100 The birth and historical development of computational intelligence applications rearrangement of something into a more compact volume, without loss of substance. He and his colleagues “have deconstructed” numerous scienti�c works (mainly archaeological) in this way. This approach is precisely a framework for analyzing and modeling the questions and answers that bracket a scienti�c text, and there is an obvious intuitive link between meaning, questions, and answers. Gardin assumed that our theoretical constructs can be expressed in terms of a “calculus”. Archaeological theories can be formulated as computational structures with two components. The �rst one is a facts base, here understood as a set of declarative propositions that include not only descriptions of archaeological materials and their context, with associated archaeometric data, but also a large number of referential statements. Those statements are not usually regarded as “data”; they include primarily vast sets of analogies, “common sense”, shared belief, ideologies, etc. The second component is an inferential tree made up of rewrite operations, which reproduce the chain of inferences from the archaeological record (“facts”, represented as Po) to different explanatory statements (Pn). Between the extremes of the argumentation, there are intermediate theses (Pi). Scienti�c reasoning builds chains of oriented propositions Po, P1, P2…, Pn in terms of successive operations Pi --> Pi + 1. (Gardin 1980, 1991, 1993, 1994, 1998, 2003). “Rules” are the key; not laws, which are inviolate, but rules that can be changed and indeed are always changing in a re�exive relationship allowing the expert (human or machine) to accommodate new information. Given some empirical data (observations) about a particular archaeological case, and some bit of associative knowledge (If…Then) (hypotheses and interpretations considered valid in a Social, Anthropological or Historical Theory), the archaeological problem can be explained in terms of the knowledge stored in a series of rules. In other words, given some visual input and a candidate explanatory causal model, a correspondence can be established between them. This means that a small number of features are identi�ed as matching features in the input and the model. Based on the corresponding features, a decision rule linking visual features with their causal process (social activity) is uniquely determined. The recovered decision rule is then applied to the model. Based on the degree of match, the candidate causal event is selected or rejected. To be accepted, the match must be suf�ciently close, and better than that of competing solutions. The rules discovered by logicist analysis may be subjective, but they are explicit. Anyone can produce the same results, so that although the system is subjective, it will be consistent when different subjectivities (i.e. different individuals) use it. The acceptance of the assumptions on which the problem solution is based leads to consistency, and direct comparability between results produced by different people; this ful�lls the basic requirements of objective 101 J.A. Barceló data within the consensus reality of mutual users of the program. Therefore, logicist analysis can extract objective-like knowledge, but the complexity of the dynamic process is retained and the data is produced in the form of probabilities that can be compared as if they are objective data within a de�ned consensus reality. Analogies between logicist analysis and some aspects of arti�cial intelligence are patent, although both representation schemas evolved in parallel without further implications (Gardin 1980, 123-125, 1991; Gardin et al. 1987). Formal characteristics of Expert Systems technology appear to be very similar to the general structure of logicist analysis rewrite rules. The “deconstruction” of a scienti�c text in terms of rewriting operations agrees with the “extraction” of the expert knowledge in terms of production rules. In the same way that the knowledge engineer tries to �nd out how a human expert thinks before introducing “prior knowledge” into the computer program, the logicist analyst tries to study what is hidden inside a scienti�c text written in natural language. Gardin accepted that the way archaeologists make decisions can be mechanized. Although he never tried to build an automated archaeologist, his suggestions moved some archaeologists to create what at �rst look seem to be “automated archaeologists”. The most obvious application of this “automatization” of archaeological reasoning is the domain of archaeological typologies. In the same way, the function and chronology of ancient buildings can be correctly explained from their observed architectural features, and the visual characteristics of human and animal bones can be used to recognize them as instances of well de�ned explanatory categories. It is also possible to mechanize the process of microscope samples classi�cation for ancient wood taxonomy determination. Some other systems help scientist to decode decorative patterns in pottery or rock-art. Other archaeological applications have explored the possibilities of whole artifact identi�cation from the perception of sherds. Applications of automated problem solving methods do not �nish here. An expert system can be programmed to help archaeologists to interpret the results of archaeometric analyses, within the framework of provenance studies. Such a system would produce one (or several) “diagnoses” according to the geographic origin of raw material, from a database of analyzed samples of known origin provided by the user (see a review of such applications in Barceló 2008). 5. What computers could not do years ago and what they can do now Herbert Simon’s prediction that machines would be capable of doing any work a human can do by 1985 was soon considered over-optimistic by some 102 The birth and historical development of computational intelligence applications authors, exaggerated for others, or even wrong for many computer scientists and philosophers. Some years before that landmark date, it became clear that intelligent machines could not be produced. In fact, even today, 25 years after the deadline, we still have not arrived at a true computational intelligence. In the same way, and around the same years Gibbon (1984, 383), though espousing the value of formal and axiomatically expressed theory in archaeological reasoning, bluntly commented that «no theory within archaeology has ever been formalized». The impossibilities of machine intelligence and automated archaeology seem to have been detected simultaneously: there is no easy way to translate rationalization into computation. In any case, we have to accept that the very idea of “rationalization as computation” never found the place in archaeology (nor in any other social science) it merited. The most promising computational techniques in those early days were accused of excessive simpli�cation, of forcing knowledge, or distorting it, and of failing to exploit fully the knowledge of the expert (Hugget, Baker 1986; Wilcock 1986; Doran 1988; Gallay 1989; Lagrange 1989; Shennan, Stutt 1989; Francfort 1990; Puyol-Gruart 1999). However, there is nothing suspicious in the approach. The success of expert systems in parallel disciplines is very evident if we consider the thousands of references, and it is due to their working within a world in which the range of meaning for terms is circumscribed within a carefully selected micro-world. Yes, they may not be a model of human reasoning, as considered by Gardin, but this technology really works! The problem is that archaeology has not yet arrived at a relevant degree of formalization, given absurd prejudices and the weight of individual authority. Robots are not the guilty ones, but the humans that have not learned how to program them! In archaeology, the so called “radical critique” of the 1980s distorted the debate when it regarded archaeology as literature. There are still scholars considering that any archaeological analysis is a mere text product of an individual writer. Consequently the explanation of past behavior has the same value as a literary product. Even the practice of archaeology can itself be reduced to “theatre”. Given that robots can not act, there are no automated archaeologists! Given that rationalization is seen as art (literature), it is believed that it cannot be rendered computable, because the act of literary creation is intrinsically incomputable. The question never arrived at this extreme in the Arti�cial Intelligence debate. Although by 1985, computer scientist and cognitive psychologists were well aware that no general theory of rationalization could be rendered computable, and no “arti�cial human brain” has ever been programmed, they had already proved that intelligence could be mechanized in very restricted domains. Within the last two decades, the view of computational intelligence based on pre-set plans and searching in restricted knowledge-bases using 103 J.A. Barceló well-de�ned operators for activating already existing sequences of explanations (i.e. expert systems) has come under scrutiny from both philosophers and computer scientists. The main consequence of this profound criticism was the revival of the cybernetic approach in the late 1980s, and its integration with new paradigms of cognitive science, philosophy and a so called “new” arti�cial intelligent paradigm. A shift in perspective from knowledge as stored artifact to knowledge as constructed capability-in-action inspired a new generation of cyberneticists in the �elds of situated robotics (Brooks 1999; Franklin 1995; Clancey 1997; Pfeiffer, Scheier 1999; Iyida et al. 2004). To be intelligent, an intelligent machine should focus on the outside world, how this world constrains and guides its explanatory behavior. The automated system we would like to build is the agent-in-the-right-context, an agent constructing descriptions by adapting old ways of perceiving, by putting models out into the world as artifacts to manipulate and rearrange, and by perceiving generated descriptions over time, relating them to past experiences or future consequences. Machine Learning appears then as the key word in the New Cybernetics. That is to say, we do not simply ask: “What knowledge structures should be placed on the head of a robot able to do archaeology?”. Instead of storing declarative sentences in the computer’s memory, we should build a machine able to learn from its own explanations and mistakes. If we want to go beyond the traditional expert-system approach, we should make emphasis not on database consultation, analogy, and simple statistical decision-making, but on learning and categorizing, and on how meaning can be generalized from known examples of a given concept. Fortunately, learning is not an impossible task for computers. New generation adaptive algorithms (neural networks, support vector machines, genetic algorithms) appear to be formally true universal inductive algorithms, and they can be used to solve many archaeological problems (Barceló 2008). Programming computers to be able to solve most learning problems is a cross between statistics and computer science. The idea is to program a system able to look for common features between positive examples of an observed or simulated causal relationship to be predicted, and common differences between its negative examples. In contrast with discrete Aristotelian logics, machine learning models provide more graded answers to archaeological problems. Such programs integrate information from a large number of different input sources, producing a continuous, real valued number that represents something like the relative strength of these inputs. These graded signals can convey something like the probability of the answer or explanation in some speci�cally constrained circumstances. Computer scientists are intensively exploring this subject and there are many new mechanisms and technologies for knowledge expansion through it104 The birth and historical development of computational intelligence applications erative and recursive revision. Arti�cial Intelligence offers us powerful methods and techniques to bring about this new task. Fuzzy logic, rough sets, genetic algorithms, neural networks, Bayesian models and agent-based systems are among the directions we have to explore. These paradigms differ from usual methods in that they are (in comparison at least) robust in the presence of noise, �exible as to the statistical types that can be combined, able to work with feature (attribute) spaces of very high dimensionality, they can be based on non-linear and non monotonic assumptions, they require less training data, and make fewer prior assumptions about data distributions and model parameters. The huge number of learning algorithms and data mining tools make it impossible to review the entire �eld in a single paper (Jones 2007; Luger 2008; Munakata 2008; Hassanien et al. 2009; Bar-Cohen et al. 2009). No aspect of this discussion has entered into the archaeological debates of our time. Critics of the “rationalization as computation” view of archaeological discipline are ignorant of this revival of the cybernetic paradigm, and its integration with new paradigms of cognitive science, philosophy and new programming approaches. What at the beginning seemed correct criticisms of the view of human society as a simple machine, soon became an hysterical rejection of formalization and any possible surrogates: computers, statistics and formal logics. The idea of “art” or “humanities” has been violently vindicated favoring explanation via “common sense”, ignoring the fact that arti�cial intelligence is technologically achievable provided we change the classical approach of its early days: if we want to reproduce human intelligence in a machine, we should make emphasis on three central aspects: development, interaction, and integration. Development forms the framework by which machines should imitate the way humans successfully acquire increasingly more complex skills and competencies. Interaction should allow robots to use the world itself as a tool for organizing and manipulating knowledge, it allows them to exploit humans for assistance, teaching, and knowledge. Integration should permit an automated archaeologist to maximize the ef�cacy and accuracy of complementary mechanisms for perceiving and acting. Therefore, what would give a more “intelligent” character to automata applications in the archaeological domain will not be a passive storing of individual rules, but an enhanced ability to learn and to react in a certain way to a certain stimulus. If we want to go beyond the usual archaeological explanations based on template matching, we should place emphasis not on database consultation, analogy, and decision-making, but on learning and categorizing, and on how meaning can be generalized from known examples of a given concept. That is, the automated archaeologist should develop its own cognitive machinery (what it knows) as opposed to construct a data structure on which a preexisting machinery operates. 105 J.A. Barceló 6. Conclusions The failure of the early prospect of Arti�cial Intelligence was attributed to a view of intelligence as an abstract machine. In the same way, the failure of the New Archaeology of the 60s was its insistence on simple universal theories of human behavior. The reaction should be based on a move towards a view of knowledge as something created from transformations of previous knowledge. Information does not exist in the world waiting to be extracted by a robot, but, rather, it should be situated in meaningful contexts. Perceiving a world implies distinguishing “possibilities for action” and not naming or identifying per se. Explanation cannot be properly understood, if considered independently of the context in which it occurs. The historical, cultural, and social context of the interactions of an intelligent machine is crucial to the understanding of the ongoing process. That is to say, the archaeological record is here de�ned in terms of the recognition of the circumstances to act with or upon (explanation). Being a perceiver, an intelligent machine should literally create a phenomenal world, because the process of perception �rst de�nes relevant distinctions in the sensory environment. The approach exposed here challenges the received picture of an archaeological explanation as an invariant structure. Solving archaeological problems is an activity. We have to change the way we understand explanatory concepts. They are not verbal labels we attach to some percepts by means of a previously existing rule but a cognitive action, or a requisite for the next action. Explanations should be based on purposeful, goal-directed mechanisms emerging from a dynamical system that has been calibrated by learning (trial and error, experimentation, analogy) to make the right choices in the proper circumstances. What I am suggesting is that when explaining, our automated archaeologist conceptually navigates in a potential �eld of explanations looking for attractors (goals) and repulsions (constraints). Upon detecting the goal, the explanation moves toward it, executes it and then follows until another goal or constraint is found. It repeats this sequence of actions until it has returned all attractors in the potential �eld. Since the robot does not manipulate propositions, any account of automated explanation that would draw on connectionist principles would not be able to limit itself to principles of logical inference in describing how some belief was arrived at. On the contrary, it is necessary to rely on something like the notion of maximal satisfaction of soft constraints to describe how the machine behaves cognitively, and in evaluating its performance we would presumably consider whether the constraints it satis�ed in arriving at its output state were the appropriate constraints. This would lead us to an evaluation of how an automated archaeologist has learnt, speci�cally, whether its training had resulted in ways that enabled it 106 The birth and historical development of computational intelligence applications to respond to inputs in a manner that was most likely to meet its needs in the environment. This would constitute a major change, since epistemology has generally been pursued through conceptual analysis, not empirical inquiry. Juan A. Barceló Departament de Prehistòria Universitat Autònoma de Barcelona REFERENCES Barceló J.A. 2008, Computational Intelligence in Archaeology, Henshey (NY), Information Reference Source, IGI Group Inc. Bar-Cohen Y., Hanson D., Marom A. 2009, The Coming Robot Revolution: Expectations and Fears about Emerging Intelligent, Humanlike Machines, Berlin, Springer. Borillo M. 1977, Raisonner, calculer, in M. Borillo (ed.), Raisonnement et méthodes mathématiques en Archéologie, Paris, CNRS, 1-31. Brooks R. 1999, Cambrian Intelligence: The Early History of the New AI, Cambridge (MA), The MIT Press. Carr C. (ed.) 1985, For Concordance in Archaeological Analysis: Bridging Data Structure Quantitative Technique and Theory, Boulder, Westview Press. Clancey W.J. 1997, Situated Cognition: On Human Knowledge and Computer Representations, Cambridge, Cambridge University Press. Clark A. 1993, Associative Engines. Connectionism, Concepts and Representational Change, Cambridge (MA), The Mit Press. Clarke D.L. 1968, Analytic Archaeology, London, Methuen. Clarke D.L. (ed.) 1972, Models in Archaeology, London, Duckworth. Cowgill G.L. 1986, Archaeological applications of mathematical and formal methods, in D.J. Meltzer, D.D. Fowler, J.A. Sabloff (eds.), American Archaeology, Past and Future: A Celebration of the Society for American Archaeology, Washington, Smithsonian Institution Press. Doran J.E. 1970, Archaeological reasoning and machine reasoning, in J.-C. Gardin (ed.), Archaeologie et Calculateurs, Paris, CNRS, 57-67. Doran J.R. 1988, Expert Systems and archaeology: what lies ahead?, in C.L.N. Ruggles, S.P.Q. Rahtz (ed.), Computer and Quantitative Methods in Archaeology 1987, BAR International Series 393, 237-241. Doran J.R., Hodson F. 1975, Mathematics and Computers in Archaeology, Edinburgh, Edinburgh University Press. Francfort H.P. 1990, Modélisation de raisonnements interprétatifs en archéologie à l’aide de Systèmes Experts: conséquences d’une critique des fondements des inférences, in J.-C. Gardin, R. Ennals (eds.), Interpretation in the Humanities: Perspectives from Arti�cial Intelligence, London, The British Library. Franklin S. 1995, Arti�cial Minds, Cambridge (MA), The MIT Press. Gallay A. 1989, Logicism: a French view of archaeological theory founded in computational perspective, «Antiquity», 63, 27-39. Gardin J.-C. 1980, Archaeological Constructs, Cambridge, Cambridge University Press. Gardin J.-C. 1991, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris, Editions de L’Ecole des Hautes Etudes en Sciences Sociales. Gardin J.-C. 1993, Les embarrass du naturel, «Archives Européennes de Sociologie», 34, 152-165. 107 J.A. Barceló Gardin J.-C. 1994, Informatique et progrès dans les sciences de l’homme, «Revue Informatique et Statistique dans les Sciences Humaines», 30 (1-4), 11-35. Gardin J.-C. 1998, Cognitive issues and problems of publication in archaeology, in W. Hensel, S. Tabaczynski, P. Urbanczyk (eds.), Theory and Practice of Archaeological Research, Warszawa, Institute of Archaeology and Ethnology, Polish Academy of Sciences. Gardin J.-C. 2003, Archaeological discourse, conceptual modelling and digitalisation: An interim report of the logicist program, in M. Doerr, A. Sarris (eds.), The Digital Heritage of Archaeology, CAA2002, Heraklion, Crete, Archive of Monuments and Publications-Hellenic Ministry of Culture. Gardin J.-C., Lagrange M.S., Martin J.M., Molino J., Natali-Smit J. 1981, La logique du plausible. Essais d’épistemologie pratique en sciences humaines, Paris, Editions de la Maison des Sciences de l’homme. Gardin J.-C., Guillaume O., Herman P.O., Hesnard A., Lagrange M.S., Renaud M., Zadora-Rio, E. 1987, Systèmes Experts et sciences humaines. Le cas de l’archéologie, Paris, Eyrolles. Gibbon G. 1984, Anthorpological Archaeology, New York, Columbia University Press. Hassanien A.E., Abraham A., Vasilakos A.V., Pedrycz W. (eds.) 2009, Foundations of Computational Intelligence, 5 vols., Studies in Computational Intelligence, Berlin, Springer. Hugget J., Baker K. 1986, The computerized archaeologist: the development of Expert Systems, «Science and Archaeology», 27, 3-12. Iyida F., Pfeiffer R., Steels L., Kuniyoshi Y. (eds.) 2004, Embodied Arti�cial Intelligence, Berlin, Springer. Jones T. 2007, Arti�cial Intelligence: A Systems Approach, Hingham (MA), In�nity Press. Lagrange M.S. 1989, Les systèmes experts et la recherche en archéologie et sciences humaines. Un point de vue pragmatique, «Documentaliste», 26, 1, 11-15. Langley P., Simon H.A., Bradshaw G.L., Zytkov J.M., 1987, Scienti�c Discovery. Computational Explorations of the Creative Process, Cambridge (MA), The MIT Press. Luger G.F. 2008, Arti�cial Intelligence: Structures and Strategies for Complex Problem Solving, (6th ed.), Addison-Wesley. Munakata T. 2008, Fundamentals of the New Arti�cial Intelligence: Neural, Evolutionary, Fuzzy and More, Berlin, Springer. Pfeiffer R., Scheier C. 1999, Understanding Intelligence, Cambridge (MA), The MIT Press. Puyol-Gruart J. 1999, Computer Science, Arti�cial Intelligence and Archaeology, in J.A. Barceló, I. Briz, A. Vila (eds.), New Techniques for Old Times, CAA98, Proceedings of the 26th Conference (Barcelona 1998), BAR International Series 757, Oxford, Archaeopress, 19-27. Read D.W. 1985, The substance of archaeological analysis and the mold of statistical method: enlightenment out of discordance, in C. Carr (ed.), For Concordance in Archaeological Analysis: Bridging Data Structure Quantitative Technique and Theory, Boulder, Westview Press, 45-86. Read D.W. 1990, The utility of mathematical constructs in building archaeological theory, in A. Voorrips (ed.), Mathematics and Information Science in Archaeology. A Flexible Framework, Studies in Modern Archaeology 3, Bonn, Holos Verlag, 29-60. Russell B. 1959, My Philosophical Development, London, Allen & Unwin. Schiffer M.B. 1976, Behavioral Archaeology, Orlando (FL), Academic Press. Shennan S.J., Stutt A. 1989, The nature of archaeological arguments, «Antiquity», 64 (245), 766-777. Thagard P. 1988, Computational Philosophy of Science, Cambridge (MA), The MIT Press. 108 The birth and historical development of computational intelligence applications Wagman M. 2000, Scienti�c Discovery Process in Humans and Computers, Westport (CN), Praeger Publishers Wilcock J. 1986, A review of expert systems: their shortcomings and possible applications in archaeology, in E. Webb (ed.), Computer Applications in Archaeology 1985, London, 139-144. ABSTRACT Twenty years after the consolidation of a true professional archaeology in search of a “scienti�c” dream, mathematics and computers made their appearance in the discipline. In the same way, the �rst essays dealing with “automatic archaeology” appeared in the 1950s, looking for standardization of archaeological description and statistical reasoning, but we had to wait for another 30 years until the appropriate technology was available. At the end of the 70s and beginning of the 80s, Expert Systems were considered as a true promise towards the independence of archaeological reasoning from subjectivity. Nevertheless, the rise of postmodernism and the radical critique, with its emphasis on subjectivity and situational context of the research effort generated considerable turmoil that, in appearance, buried the dream of an automatic archaeology. Research efforts in these domains of computational intelligence continued, however, especially in the domains of remote sensing and archaeometry. Modern technological developments like 3D scanning are responsible for a revival of interest in computational intelligence methods. Today, we are still far from the early dream of an automatic archaeology, but it is no longer a “nightmare”. It is a technological reality that will contribute to a more professional and scienti�c-based archaeology. 109 Archeologia e Calcolatori 20, 2009, 111-128 REPRESENTING KNOWLEDGE IN ARCHAEOLOGY: FROM CATALOGUING CARDS TO SEMANTIC WEB 1. Introduction Representing knowledge is the basis of any catalogue. The Italian Catalogue was based on very valuable ideas, developed in the late 1880s, with the basic concept of putting objects in their context. Initially cataloguing was done manually, with typewritten cards. The advent of computers led to some early experimentations, and subsequently to the de�nition of a more formalized representation schema. The web produced a cultural revolution, and made the need for technological and semantic interoperability more evident. The Semantic Web scenario promises to allow a sharing of knowledge, which will make the knowledge that remained unexpressed in the traditional environments available to any user, and allow objects to be placed in their cultural context. In this paper we will brie�y recall the principles of cataloguing and lessons learned by early computer experiences. Subsequently we will describe the object model for archaeological items, discussing its strong and weak points. In section 5 we present the web scenario and approaches to represent knowledge. 2. Cataloguing: history and principles The Italian Catalogue of cultural heritage has its roots in the experiences and concepts, developed in the late 1880s and early 1900s, by the famous art historian Adolfo Venturi, who was probably one of the �rst scholars to think explicitly in terms of having a frame of reference to describe works of art, emphasizing as the main issue the context in which the work had been produced. In 1964, the famous art historian Giulio Carlo Argan promoted a study group (under the Ministry of Education and CNR - National Research Council) and proposed the establishment of a speci�c body in charge of cataloguing. The Italian Cataloguing Institute (ICCD) was of�cially born in 1975, under the direction of prof. Oreste Ferrari. The key principle guiding the cataloguing process is knowledge, about the speci�c object but also about all the other issues that can help in understanding the complex semantic relationships the object has with issues pertaining to other disciplines. The full knowledge of the historical, political, religious context is in many cases the only way to fully understand the value and the 111 O. Signore message of an object. However, such knowledge is almost invariably the property of the scholars and experts, and rarely is made explicit to the others. As a result, many of us can only perceive a minimal part of what is the real value and meaning of works of art. Anyone who has had the experience of visiting a museum accompanied by an expert who can describe details about the cultural context in which an object was made, can easily understand the difference between this kind of visit and a conventional one. 3. Early experiences and cataloguing cards Computer applications in the area of management of cultural heritage date back to the 1960s. In many cases, the approach taken to storing catalogue information was very similar to the one used by librarians. The basic idea was to describe objects with “cataloguing cards” where information was organized in several semantically consistent sections, describing, for example author, period, excavation data, subject, historical and critical notes. The �rst organisation of the Italian Catalogue was based on a manual approach, where each object was described by a typewritten card. The basic ideas were very valid and all subsequent work has been greatly in�uenced by the intellectual efforts that led to the de�nition of the fundamental principles of the cataloguing rules. The most important issues were: – identi�cation of a reduced set of different cards, corresponding to different types of objects (art objects, archaeological objects, drawings, architecture, gardens, historical centres, etc.); – grouping of the information in several very general categories, like author, location, material, historical info, etc.; – topological arrangement of the catalogue cards. On the other hand, it should be pointed out that the cards were conceived for human usage, and therefore the various �elds were to be �lled in by scholars, on the basis of their speci�c competence in the particular subject, following some general rules. As a matter of fact, it was expected that the cards would be used by another scholar, who would be able to understand the semantics of the content of the �elds, and identify any inconsistencies, or interpret them correctly. This approach would, in principle, �t all the needs, but there were some important points missing. First of all, cultural heritage is far more complex than a library, as it is intrinsically highly interdisciplinary. Secondly, cards are compiled by humans and intended for humans, who can read, understand, infer, connect, and reason about their content. In this light, the fact that information is not highly formalized is not a problem: free text is widely used and concepts can be easily expressed. Third, the guiding principle was “one 112 Representing knowledge in archaeology: from cataloguing cards to Semantic Web card for each object”, regardless of its complexity, even if some objects can be seen and described as single items, while others have more complex structures and relationships with other objects. The library approach of free text cards, with some more formalized items, was proven to be somehow semantically ambiguous with free text information potentially inconsistent. This fact became evident when, in the early 1970s, some more broad range experiments were conducted on the use of computers to store catalogue data. The �rst and quite natural approach was just to transform the paper cataloguing card into an electronic document, relying on the features and effectiveness of the Information Retrieval Systems (IRS). The assumption was that it would be easy, for scholars as well for casual users, to enter some words the system could �nd in documents and return appropriate records. In spite of the initial enthusiasm and the claims of the vendors, some of the initial results were both unexpected and very disappointing; as the quantity of data increased, it became evident that both precision and recall were not achieving the expected optimum1. In fact, when indexing documents, IRSs use a list of non signi�cant terms (stopwords) to avoid indexing of useless or non selective words. In some systems the stopwords were system-wide, while in others they could be linked to speci�c parts of the document. In any case, the problem of homographs produced disappointing results. Just as an example, in Italian the capital “i” (“I”) is used both as article as well as the Roman number denoting the ordinal number one, as in the expression “I secolo” to denote the �rst century. Depending on the characteristics of the system and the list of stopwords, a search for objects dated to the �rst century returned either zero documents or almost all objects. Another disappointing effect was caused by the adoption of a �at model, where a single document was describing the object, irrespectively of its complexity. This made it impossible, for example, to �nd objects made of several different materials, or having components with a different style or date. It is worthwhile to note that while the �rst effect was related to the software features, the second one depended on the rule of having “a card for each object”. In general, lack of precision was caused by the poor, �at structure of the cataloguing card, while the absence of a controlled language was the origin of poor recall. 4. The object model and the RA card The automation of the Italian Catalogue started in the mid 1970s, and during the �rst experiences only the IRS approach was used, mapping 1 It should be noted that the effectiveness of IRS is basically measured in terms of Precision and Recall, where Precision is the ratio between the number of returned signi�cant documents and the total number of returned documents, and Recall is the ratio between the number of returned signi�cant documents and the number of signi�cant documents in the whole document collection. 113 O. Signore paper cards to electronic documents. In addition, many experiments were conducted in order to determine how to map the different cataloguing cards (for example, the art objects and the archaeological artefacts) to different electronic document structures. Even if these attempts paid more attention to the structuring of documents, they were still tied to the software selected as IRS, and results were mostly disappointing. It soon became evident that the unsatisfactory results could not be ascribed to the particular systems (every product exhibits some strong and some weak points), but that a rethinking of the entire cataloguing schema was necessary, keeping in mind the constraints imposed by the automated treatment of the information. Around 1984 it was decided to take a different approach2, which had the following guidelines: – higher degree of formalization; – independence from software and hardware platforms; – uni�ed model for the different kinds of objects, and therefore, as far as possible, a “unique schema”. The �at model which was the basis of the cataloguing card was reconsidered. The main issue was therefore the de�nition of a model for the objects, trying to abstract from the differences which distinguish the different objects, as they are seen according to the various disciplines to which they are related. For example, a vase or a brooch are seen and described differently depending on whether they are an archaeological artefact or an art object. Another relevant issue considered was the distinction among different types of objects, taking into account their intrinsic properties. The de�nition of the data structure started from the identi�cation of the central role played by the object. Initially, a wide variety of object types was identi�ed: single object, series, fragment, part of, etc. After a while, it was realized that this kind of specialization was too complex, and would in fact constitute a barrier between the cataloguer and the user. Finally, it was agreed to de�ne a classi�cation schema based on three different types of objects: – simple object: is an object such that all its attributes are pertinent to the whole object, and cannot be separated into smaller components, exhibiting different relevant properties (different materials, different epoch, different authors, etc.) which may themselves be considered cataloguing objects; – complex object: may be either a simple object whose parts are physically or conceptually separable and exhibit some interesting peculiarities as cataloguing objects, or a set of objects which may be referred to by a speci�c name; 2 These were the years when database conceptual modelling was mature, the huge and heavy hierarchical DBMSs were being replaced by the more theoretically sound relational databases, and the object oriented approach was getting attention from researchers. The web, where technical interoperability is a familiar feature, was not yet invented. 114 Representing knowledge in archaeology: from cataloguing cards to Semantic Web – aggregation of objects: occurs when a set of objects can be considered as a whole on the basis of some conceptual perspective, and this set has properties which are useful to express, but no name exists which identi�es the aggregate. Components of a complex object may be either simple or complex objects, and so may the aggregate objects. It is worthwhile noting that a speci�c object belongs to the different categories only on the basis of the quantity and the type of information: no list exists that speci�es if a particular kind of object must be considered simple or complex or aggregate. The proposed model only established a classi�cation model, that is, the type of relationships that must be speci�ed between the objects (a component of a complex object is an object itself), and the criteria inherent to the properties. The model implicitly assumed the existence of relationships between objects (as will be discussed below). The approach used was essentially based on the standard conceptual database design methodologies. As it is well known, the conceptual model is independent from software and hardware environments, and the most popular approach at the time was based on the Entity-Relationship model. The �rst step was the identi�cation of the “basic” entities, like object, author, location, and so on. The identi�cation of the relationships between these entities was taken as the second step. This process lead to a simple, consistent model, where the object was playing a central role. In addition to the “fundamental” entities and relationships, which are intrinsic to the representation of the real world, there were some “minor” relationships and entities, as those accounting for the name variants. The analysis of these last and similar problems pushed us to the de�nition of some “authority �les” as the only means to normalize the vocabulary, and to keep the data consistent. Even though the Entity-Relationship model proved very effective in modelling and representing knowledge, cultural traditions and mental attitude forced them to switch to the conventional “cataloguing card” format. From this point of view, the following choices were made: – the information has been subdivided into small, semantically well de�ned, chunks; – these chunks may be either a �eld, or a sub�eld of a structured �eld; – each �eld may be de�ned as simple or structured; – each �eld may be de�ned as repeating or non-repeating; – each sub�eld may be a repeating or non repeating sub�eld; – �elds, either structured or unstructured, may be grouped into “paragraphs” in order to allow multiple occurrences of a set of �elds3. An example of a cataloguing card follows: 3 As a curiosity, we may recall that �elds are identi�ed by three letter codes, sub�elds by four letters codes, and paragraphs by two letters codes. The length of codes was a legacy of the IRS used in the �rst experiences, which allowed for �eld labels of a maximum length of four letters. 115 O. Signore CD: TSK: RA […] OG: OGT: OGTD: parete affrescata LC: PVC: PVCP: NA PVCC: ERCOLANO LDC: LDCT: casa LDCN: V 15 (DEL BICENTENARIO) LDCS: 13 (tablino); parete N […] DA: DES: DESS: Zona mediana rossa con tre pannelli riquadrati da bordi di tappeto: centrale (giallo in orig.) con quadro (Pasifae e Dedalo), laterali con medaglioni (Bacco a s.; baccante a d.) separati da fasce nere con grottesche, cornice a ovoli. Fregio nero: tre pannelli con scene di amorini in caccia con scudo e sfondo naturalistico a s., con cervo e cane in lotta al centro, con amorino su cavallo alato a d., separati da riquadri con maschere tragiche. Zona superiore rossa con architetture (quasi illeggibile). […] At �rst glance, the proposed model may appear just another “�at �le” schema, with a large number of �elds, but anyone familiar with database design methodologies will easily recognize that, generally speaking, entities have been mapped on to paragraphs, (multivalued) attributes on to (repeating) �elds, aggregate attributes on to structured �elds. It is also evident that the identi�cation of a sequence of �elds, with the characteristics of being repeatable and/or groupable, and references to “authority �les”, may be seen as the “linearization” of a non linear text. Last, but not least, an effort was made to maintain consistency between different cultural areas, so that semantically equivalent �elds are identi�ed by the same tag. The proposed model was a trade-off between the very speci�c requirements posed by the academic and research communities, asking for exhaustive information, and requirements posed by the administrative needs of having a model which could be adapted to a large variety of objects, despite their differences. The object model could also be seen as a way to represent knowledge, considering that, at the time it was de�ned, thesauri, authority �les and dictionaries were not available for all the �elds, and we were forced to use structured �elds to represent knowledge that could be otherwise coded 116 Representing knowledge in archaeology: from cataloguing cards to Semantic Web in an appropriate faceted thesaurus. The object model could also be seen as an interoperable model to collect information. The object model put a great emphasis on the de�nition of the different types of relationships between objects, leading to the de�nition of the different types of objects: simple, complex, aggregate. It has to be noted that a component of a complex object is seen as an object itself, and inherits some properties from the “father object”. The aggregation of objects leads to the compilation of a cataloguing card that accounts for the general properties of the aggregate. In conclusion, we may envisage two different types of relationships between objects: a “vertical” relationship (complex objects) and a “horizontal” relationship (aggregates). As a consequence of experiences conducted in the following years, it was agreed to add the possibility of explicitly coding some semantically richer relationships. This deep and articulated fragmentation of information had the positive effect that information can be more accurately controlled, and errors are less probable, while fragments can be recombined to return more aggregated info. The guidelines followed in the de�nition of the standards are reported in Papaldo et al. 1986 and in Signore 1986. A complete de�nition of these standards may be found in the publications of the ICCD: D’Amadio, Simeoni 1989; Massari et al. 1988; Papaldo et al. 1988; Parise Badoni, Ruggeri 1988. 4.1 Strong and weak points The de�nition of the object model and the corresponding cataloguing card exhibited several strong points. First of all, it made it possible to overcome the dif�culties arising from the adoption of an approach tied to the technology to be used for storage and retrieval, while it was usual, in the mid 1980s, to implement models based on the software selected for the application management, with additional costs to face when the operating environment changed. Instead, everyone had total freedom in implementing data entry applications and sharing or exchanging data on the basis of the well de�ned model, thus safeguarding investments4 (Signore 1993, 1994). Secondly, it was a big step forward, since it put the Italian Catalogue at least at the same level as other 4 In 1986, the Italian government funded a Lit. 600.000.000.000 (approximately € 310 million) initiative, whose principal aim was the application of new technologies in the �eld of cultural heritage management. The initiative took the name of “giacimenti culturali”, as it was assimilating the cultural heritage to other types of resources to exploit, like oil or coal. After a call for proposal, some 39 projects were approved and �nanced. Among them, 31 were concerned in some way with the cataloguing of works of art. No guidelines were imposed as far as the technological (hardware and software) environment was concerned, the only constraint was that the results of the projects should be made available to the central administration. The object model de�ned by the ICCD played a driving role as a standard at the conceptual level, and was included as a constraint in the contracts signed by the �rms which were conducting the projects. The exchange format was easily de�ned in a couple of hours! 117 O. Signore more advanced initiatives in other countries. Third, and perhaps most important, the model has been proven to be long lasting. The present schema in XML is not very different from the original one, and only a few adjustments have been made to the original structure, on the basis of experience. However, we must recall some of the weak points, namely: – the perception of a rigid schema with an excessive fragmentation of information; – appropriate instruments to �ll in the �elds were missing; – updating of controlled dictionaries, authority �les and thesauri was slow and complex. As a matter of fact, however, the number of �elds was not so high, compared with the complexity of information to be represented, and the schema was thought of as an “extensible schema”, as we were well aware that new needs could lead to its improvement. Lacking appropriate software to �ll in the data was instead an obstacle for the immediate adoption of the model. Dif�culties arising from the updating of controlled dictionaries and thesauri must be considered not a limit of the approach itself, but a consequence of the intrinsic complexity of organizing knowledge, emphasized by the lack of the cooperative tools we use today. We must, however, mention some limitations of the approach itself. First, the approach remained centred on the traditional view of “one card for a single object”, even if the object was modelled in a more elaborate way than usual. This “object centred vision” is the origin of redundant (and potentially inconsistent) information, like author or excavation data, and does not permit the representation of semantically complex associations. We must stress that these limitations were not in the original design, which had its roots in the database conceptual modelling, but is a consequence of the representation as a “cataloguing card”, which puts too much emphasis on the object and imposes a linearization of the schema, that can exploit the (binary) associations between the object and other entities, but cannot express the existing interdisciplinary associations. As a consequence, the knowledge of the expert is not formally expressed and remains unavailable to the user. Even worse, linking with other disciplines was substantially impossible, and could be done only by expert users. After the de�nition of the model, between 1985 and 1990 many experiments were conducted for the purpose of checking the correctness of the schema. At the same time, thesauri were created; of these, it’s worth remembering the thesaurus of ecclesiastic furniture and the historical/geographical data bank, the pilot project from which the TGN was born (Papaldo, Signore 1989). Unfortunately, in 1990, when Oreste Ferrari retired, the activity was stopped, and the full project was never completed. As a consequence, the data entry and 118 Representing knowledge in archaeology: from cataloguing cards to Semantic Web exchange format was de�nitively taken as return format, and less effort was dedicated to the creation of thesauri and knowledge representation. 5. Towards Semantic Web 5.1 The “web revolution” The web exploded in the mid 1990s, and was the origin of a true revolution of the traditional means of accessing information. Among the many characteristics of the web, we must recall a complete transformation of traditional methods of accessing information (Coyle 2007). In the past, users were accessing information starting from the “of�cial repositories”, like libraries, museum catalogues, and so on, while now they almost invariably start from a generic query on the web, and then follow the links, looking for the relevant information. As a consequence, the role of central repositories is much less important, as the web architecture is fully decentralized, and two issues emerge: the technical interoperability, which is granted by the web protocols, and the semantic interoperability, which could enable us to combine knowledge available from different sources. The latter is the most relevant issue, as it requires the representing, exporting and sharing of knowledge. 5.2 Levels of knowledge representation The degree of formalization of concepts and their relations varies considerably among different domains of knowledge. At the lower end one �nds lexicons and simple taxonomies, at the middle level one might place thesauri, at the high end of formalization of knowledge there are axiomatized logic theories. Such theories include rules to ensure the correct formulation and logical validity of statements expressed in the language of the scienti�c discipline (Digicult 2003). According to Sheth and Ramakrishnan (2003) semi-formal ontologies5, de�ned as ontologies that do not claim formal semantics and/or are populated with partial or incomplete knowledge, can be signi�cantly smaller, especially for the ontology population effort, compared to that required for developing formal ontologies or ontologies with more expressive representations. Semi-formal ontologies have provided good examples of both value and 5 The term ontology was taken from philosophy, where it denotes a speci�c sub�eld, namely the study of the nature of existence. It is the branch of metaphysics concerned with identifying, in the most general terms, the kinds of things that actually exist, and how to describe them. The observation that the world is made up of speci�c objects that can be grouped into abstract classes based on shared properties is a typical ontological commitment. More recently the term ontology has become relevant in the Knowledge Engineering community, acquiring a speci�c technical meaning, rather different from the original one. In fact, instead of “Ontology” we speak of “an ontology”. Several different de�nitions of ontology exist, highlighting different aspects. 119 O. Signore utility in meeting several challenges; especially that of information integration. One key reason is that of the need to accommodate partial (incomplete) and possibly inconsistent information, especially in the assertions of an ontology. Real world applications often can be developed with very little semantics or with compromises with completeness and consistency required by more formal representations and inferencing techniques (“a little semantics goes a long way”). Hierarchical classi�cation systems and structured vocabularies do not lend themselves easily to rich inter-linking of conceptual “trees”. A major step further in this direction is the “CIDOC object-oriented Conceptual Reference Model” (CRM). This provides an ontology of 81 classes and 132 unique properties, which describes in a formal language concepts and relations relevant to the documentation of cultural heritage6. CIDOC CRM is a formal ontology for cultural heritage information speci�cally intended to cover contextual information. It can be used to perform reasoning (e.g. spatial, temporal). 5.3 The Dublin Core standard As clearly explained by Baker 2000, Dublin Core is often presented as a modern form of catalogue card, a set of elements (and now quali�ers) that describe resources in a complete package. Sometimes it is proposed as an exchange format for sharing records among multiple collections. A founding principle is that “every element is optional and repeatable”. Strictly speaking, a Dublin Core element or quali�er is a unique identi�er formed by a name (e.g., creator) pre�xed by the URI of the namespace in which it is de�ned, as in http://dublincore.org/documents/dces/#creator/. In this context, a namespace is a vocabulary that has been formally published, usually on the web; it describes elements and quali�ers with natural-language labels, de�nitions, and other relevant documentation. The �fteen elements of the Dublin Core element set are the de�ning feature of Dublin Core as a language. In their short form, the elements are dc:title, dc:creator, dc:subject, dc:description, dc: publisher, dc:contributor, dc:date, dc:type, dc:format, dc:identi�er, dc:source, dc:language, dc:relation, dc:coverage, and dc:rights. These correspond to �fteen broadly de�ned properties of resources that are generally useful for searching across repositories in multiple domains. Dublin Core is, in effect, a class of statements of the pattern Resource has property X, where “resource” is the implied subject; followed by an implied verb (“has”); followed by one of �fteen properties from the Dublin Core element set; followed by a property value, an appropriate literal such as a person’s name, a date, some words, or 6 The CIDOC CRM has been accepted as working draft by ISO/TC46/SC4/WG9 in September 2000. Since 9/12/2006 it is of�cial standard ISO 21127:2006. See http://cidoc.ics.forth. gr/ for details. 120 Representing knowledge in archaeology: from cataloguing cards to Semantic Web a URI. For example: Resource has dc:creator “Oreste Signore”, and Resource has dc:date “2009-04-01”. Optional quali�ers may make the meaning of a property more de�nite. 5.4 The Semantic Web To understand the Semantic Web framework it should be recalled that the web must be seen as a Universal Information Space, navigable, with a mapping from URI (Uniform Resource Identi�er) to resources. For the Semantic Web to function, computers must have access to a structured collection of information and a set of inference rules that they can use to conduct automated reasoning. The challenge of the Semantic Web is therefore to provide a language that expresses both data and rules for reasoning about data and that allows rules from any existing knowledge-representation system to be exported onto the web. The foundation of Semantic Web is the Resource Description Framework (RDF7) based upon a model for representing named properties and property values. The RDF model draws on well-established principles from various data representation communities. RDF properties may be thought of as attributes of resources and in this sense correspond to traditional attribute-value pairs. RDF properties also represent relationships between resources and an RDF model can therefore resemble an entity-relationship diagram. The RDF data model is a syntax-neutral way of representing RDF expressions. The basic data model consists of three object types: – Resources. All things being described by RDF expressions are called resources. Resources are always named by URIs plus optional anchor ids. Anything can have a URI; the extensibility of URIs allows the introduction of identi�ers for any entity imaginable. – Properties. A property is a speci�c aspect, characteristic, attribute, or relation used to describe a resource. Each property has a speci�c meaning, de�nes its permitted values, the types of resources it can describe, and its relationship with other properties. Each property is identi�ed by a name, and takes some values. – Statements. A speci�c resource together with a named property plus the value of that property for that resource is an RDF statement. These three individual parts of a statement are called, respectively, the subject, the predicate, and the object. The object of a statement (i.e., the property value) can be another resource or it can be a literal; i.e., a resource (speci�ed by a URI) or a simple string or other primitive datatype de�ned by XML. A set of properties referring to the same resource is called description. 7 ments. See http://www.w3.org/TR/rdf-primer/ for an introduction and reference to other docu- 121 O. Signore We can diagram an RDF statement pictorially using directed labelled graphs (also called “nodes and arcs diagrams”). In these diagrams, the nodes (drawn as ovals) represent resources and arcs represent named properties. Nodes that represent string literals will be drawn as rectangles. The power of RDF is that everything but the literals is identi�ed by URI, and statements can predicate anything on anything, regardless of where they are located in the web. Therefore, the knowledge base is universal and worldwide. It is important to stress that the Semantic Web does not require that all the knowledge be migrated into RDF, it is suf�cient that the existing knowledge, stored in databases, spreadsheets, documents, be mapped onto RDF graphs, so that it can be shared and queried by Semantic Web applications. Semantic Web is a hot research topic, and many applications are emerging, both in academia and at the industrial level. A more complete description of the Semantic Web and its technologies is beyond the scope of this paper, and we will not go into details. The interested reader can �nd details in the vast literature which exists on this topic. 5.5 Why an ontological approach The importance of semantic interoperability has been widely recognized by scholars, and many international projects agreed to use common metadata vocabularies (mainly based on Dublin Core metadata schema). This is a step forward towards the emphasis put in the last few years on XML data structuring. Scholars realized that XML is semantically poor, while the Semantic Web stack higher level technologies (RDF, OWL, etc.) can supply the appropriate technical environment to represent, export and share the knowledge needed to implement intelligent retrieval and browsing systems, and reason upon data. In the peer-to-peer web architecture, Semantic Web technologies permit fully decentralized semantic markup of content (for example, using classes and properties de�ned in CIDOC-CRM), and intelligent software agents can then use knowledge expressed by the markup. In fact, looking back to the history of data cataloguing and sharing of cultural heritage information, we can see how we progressed from initial stages, where info was entered in an informal way, to more structured organization of information, and now we have many projects referring to a common metadata set (mainly Dublin Core, sometimes Quali�ed Dublin Core). Some more advanced projects (Hyvönen et al. 2004) rely on ontologies, mainly as a set of related terms to use for more precise queries. The question now, looking at the common agreement upon the metadata set, is why should we consider an ontological approach? First of all, as pointed out by Doerr (2003), even if both a core ontology and core metadata, such as Dublin Core, are intended for information integration, they differ in the relative importance of human understandability. Metadata is, in general, thought for human processing, 122 Representing knowledge in archaeology: from cataloguing cards to Semantic Web while a core ontology is a formal model for automated tools that integrate source data and perform a variety of functions. Vocabularies based on ontologies that organize the terms in a form that has clear and explicit semantics can be reasoned over, which is a fundamental process in enriching knowledge, inferring new information about resources. Secondly, there is a drawback in the implicit assumption made with the metadata approach. In short, it should become evident how adding metadata to the description of an artefact implicitly means that we assume a one-to-many (or possibly many-to-many) relationship between the object and the items identi�ed by the metadata. Taking an example from art history, when specifying8 some DC metadata like: or dc:title=Pietà dc:creator=Michelangelo dc:date=1499 dc:subject=Madonna dc:subject=Christ dc:title=Madonna del cardellino dc:creator=Raffaello dc:date=1505 dc:subject=Madonna dc:subject=Child we intend to say that a particular artefact (the Pietà, for example) was made by Michelangelo, is dated 1499, and has as its subject “Madonna” and “Christ”, while the second one (the painting) was made by Raffaello, is dated 1505, and has as its subject “Madonna” and “Child”. We can add controlled vocabularies to be sure that we specify correct terms for “creator” or “subject”, but only humans can: – check the consistency between dc:creator and dc:date as no artefact can be made by an artist after her/his death, or before her/his birth date (plus, let us say, 10 years?); – having found an artefact, search for artefacts made in the same period, or by artists who were living and active in the same period; – �nd the historical or political context (what was happening around these years?); – �nd artefacts (for example portraits) which are “imaginary” portraits, because the scene is imaginary, or subjects never existed because they are mythological, or subjects did not exist at the time the artist was living or at the same time themselves. 8 In the following examples, for the sake of simplicity we are not conforming to an actual syntax, which would require expressions like: <meta name=“dc.creator” content=“Michelangelo” /> or <dc:creator>Michelangelo</dc:creator> 123 O. Signore It’s worthwhile to recall how available thesauri are supposed to support some knowledge representation needs, but cannot be automatically translated into ontologies, as they sometimes model a class-subclass relationship (like “statues” and “korai (statues)”), sometimes model just different instances (for example, “Renaissance” is often modelled as a BT of “15th century”, while both are periods in time, having some duration). Multiple inheritance and time dependent relationships are also an issue. 5.6 Novelties and legacy The (Semantic) Web is opening new, fascinating scenarios, as an immense knowledge repository. Much information is conveyed by the links connecting different pieces of information. Web searching and browsing can take advantage of the interoperable knowledge representation to appropriately link information following the user’s preferred interaction metaphors (spatial, temporal, classi�cation af�nity), thus greatly improving the access to information and knowledge stored in cultural web sites. In the Semantic Web environment intelligent user agents can rely on a core ontology to understand the mental model expressing the user’s interests, implementing suitable navigation mechanisms (Signore 1995). We can imagine (Signore 2004, 2005, 2006) an architecture where intelligent user agents can have access to the mental model expressing the interests of the user. The content can be tagged and semantically annotated using classes and properties de�ned in CIDOC-CRM. The agent can then perform reasoning, following the relevant associations and linking the information the user is interested in. The user’s mental model can be expressed in terms of preferred interaction metaphors. Making reference to the ontology used as a basis for semantic annotation, this means specifying the set of classes and properties the user might be interested in navigating. Making reference to CIDOC-CRM classes, a user interested in the temporal context will be interested in classes like: E2.Temporal_Entity, E52.Time-span and their subclasses, at various levels, like E3 Condition State, E4.Period, E5.Event. The context can be expressed in a more precise way stating the properties the user is interested in (e.g. P117.occurs during, P118.overlaps in time with, etc.) to build up the temporal interaction metaphor. Identifying such properties can guide the agent to select the appropriate associations and perform the reasoning. The user agent (the browser) can be enhanced by two components: a reasoner and a �nder, which accomplish the tasks of getting the semantic annotation of the current resource, looking to the user model, �nding correspondences between user model and resource metadata, initiating a search following the properties the user is interested in. We must stress, however, that the Semantic Web is just supplying the environment and technologies: ontologies, that play a central role in the architecture, must be �lled in, otherwise the Semantic Web will never be 124 Representing knowledge in archaeology: from cataloguing cards to Semantic Web alive. Fortunately, there are decades, if not centuries, of studies that have built up knowledge. The problem is just to represent this knowledge in a more structured way, and make it sharable among different areas and usable by humans and machines. Therefore, all the past work is a precious legacy: scholars’ knowledge must be formalized and made explicit as ontology, and very probably we will soon have to agree about a different model to represent objects, in a distributed and multicultural environment. 6. Conclusion Cataloguing is an activity where knowledge plays a fundamental role. In the era of manual, paper based cataloguing, information was easily written down, but cataloguing cards were written by human experts, mainly for use by human experts, and the scholars’ knowledge, which is the basis for putting objects into their cultural context, was essentially tacit, and unavailable. When computers started being used, it was necessary to store information in a more formalized way, and language normalization, data structuring, representation schemas came on to the scene. Cultural traditions lead to a description card approach, very similar to the one used in libraries. However, the intrinsic complexity of art and archaeological objects and their complex relationships required a thorough rethinking of the approach. In Italy we applied database conceptual design methodologies, ending in an object model that was a good trade-off between research and administrative needs, where information was fragmented in many small, semantically well de�ned, chunks. However, the main drawback remained the central role played by the object itself, with many attributes “predicating” its properties. As a consequence, the model was unable to represent the large variety of different semantic relationships among objects and, more important, with other pieces of knowledge pertaining to different disciplines. The explosion of the web changed the traditional means of accessing information and focused attention on the interoperability issues. When they dealt with the problem of interoperability among different data sources, scholars realized that it was necessary to agree at least on a metadata based approach, such the Dublin Core common metadata set. However, the Dublin Core approach remains centred on objects, and information from different objects or disciplines can be merged only by a manual, human intervention, getting different records and �ltering them appropriately. An ontology based approach allows us to represent and share knowledge, and intelligent agents can infer new knowledge by automated reasoning on data. This is the Semantic Web scenario, where knowledge is available on multiple sources distributed over the entire world. The challenge is to represent, export and share expert knowledge which is the result of decades of studies. 125 O. Signore It is not an easy task, but it is the way to achieve the goal of making expert knowledge available to any user, who would in this way be «able to search the online universe seamlessly as if the images and text about culture were available in one vast library of information» (Fink 1997). Oreste Signore Istituto di Scienza e Tecnologie dell’Informazione “A. Faedo” CNR – Pisa Acknowledgements First of all, an emotional memory of Roberto Gagliardi, a colleague of mine who was one of the most active and effective in the de�nition of the object model, and of Oreste Ferrari. He was both a scholar and ICCD Director, and his broad vision of the catalogue and of the mission of ICCD was essential to de�ne objectives of high cultural level. I will never forget him as a gentleman with a subtle sense of humour. I wish to acknowledge people from ICCD, mainly Serenita Papaldo and Maria Ruggeri, remembering many years of joint work, when we developed and re�ned the object model, for their challenging requirements. Finally I wish to thank Irene Buonazia, who gave me some more details about the birth of cataloguing and mainly the ideas of Venturi and Argan. REFERENCES Baker T. 2000, A grammar of Dublin Core, «D-Lib Magazine», 6, 10 (http://www.dlib.org/ dlib/october00/baker/10baker.html, accessed 9 June 2009). Coyle K. 2007, Managing Technology. The Library Catalog in a 2.0 World, «The Journal of Academic Librarianship», 33, 2, 289-291 (preprint at: http://www.kcoyle.net/ jal_33_2.html). D’Amadio M., Simeoni P.E. (eds.) 1989, Strutturazione dei dati delle schede di Catalogo. Oggetti di interesse demo-antropologico, Roma, ICCD-Museo Nazionale delle Arti e Tradizioni Popolari. Digicult 2003, Towards a Semantic Web for Heritage Resources, Thematic Issue 3 (http://www. digicult.info/downloads/ti3_high.pdf). Doerr M., Hunter J., Lagoze C. 2003, Towards a core ontology for information integration, «Journal of Digital Information», 4, 1, n. 169 (http://jodi.ecs.soton.ac.uk/Articles/v04/ i01/Doerr/). Fink E. 1997, Sharing cultural entitlements in the digital age: are we building a garden of Eden or a patch of weeds?, in Museums and the Web: An International Conference (Los Angeles, CA, 1997) (http://www.archimuse.com/mw97/speak/�nk.htm). Hyvönen E., Junnila M., Kettula S., Mäkelä E., Saarela S., Salminen M., Syreeni A., Valo A., Viljanen K. 2004, Finnish Museums on the Semantic Web. User’s Perspective on MuseumFinland, in Proceedings of Museums and the Web 2004 (Arlington, Virginia/ Washington DC) (http://www.archimuse.com/mw2004/papers/hyvonen/hyvonen.html). Massari S., Prosperi Valenti Rodinò S., Papaldo S., Signore O. (eds.) 1988, Strutturazione dei dati delle schede di catalogo - Beni mobili storico-artistici: Stampe, Roma-Pisa, ICCD-CNUCE. Papaldo S., Ruggeri Giove M., Gagliardi R., Matteucci D.R., Romano G.A., Signore O. 1986, Strutturazione dei dati delle schede di catalogo: Beni mobili, in S. Papaldo, G. Zuretti Angle (eds.), Atti del Convegno sull'Automazione dei dati del Catalogo dei Beni Culturali (Roma 1985), Roma, MiBAC-ICCD, 39-42. 126 Representing knowledge in archaeology: from cataloguing cards to Semantic Web Papaldo S., Ruggeri Giove M., Gagliardi R., Matteucci D.R., Romano G.A., Signore O. (eds.) 1988, Proposta di strutturazione dei dati del catalogo: Beni mobili archeologici e storico-artistici (Edizione riveduta e aggiornata), Roma-Pisa, ICCD-CNUCE. Papaldo S., Signore O. 1989 (eds.), Un approccio metodologico per la realizzazione di una banca dati storico-geogra�ca (A methodological approach to producing a historical/ geographical databank), Roma, Multigra�ca Editrice. Parise Badoni F., Ruggeri M. (eds.) 1988, Strutturazione dei dati delle schede di catalogo: Beni archeologici immobili e territoriali, Roma-Pisa, ICCD-CNUCE. Sheth A., Ramakrishnan C. 2003, Semantic (Web) technology in action: ontology driven information systems for search, integration and analysis, in U. Dayal, H. Kuno, K. Wilkinson (eds.), Special Issue on Making the Semantic Web Real, «IEEE Data Engineering Bulletin», 26, 40-48. Signore O. 1986, Architettura di sistemi per la gestione dei dati catalogra�ci, in S. Papaldo, G. Zuretti Angle (eds.), Atti del Convegno sull’Automazione dei dati del Catalogo dei Beni Culturali (Roma 1985), Roma, MiBAC-ICCD, 51-58. Signore O. 1993, Cataloguing art objects: a comparison between French and Italian standards, in D.A. Roberts (ed.), European Museum Documentation Strategies and Standards. Proceedings of an International Conference (Canterbury 1991), Cambridge, MDA, 138-143. Signore O. 1994, From data structuring to data exchange: a simple path, in H.J. Marker, K. Pagh (eds.), Yesterday. Proceedings from the 6th International Conference Art History and Computing (Odense 1991), Odense, Odense University Press, 48-54. Signore O. 1995, Issues on hypertext design, in DEXA ’95. Database and Expert Systems Application. Proceedings of the International Conference (London 1995), Lecture Notes in Computer Science n. 978, Springer Verlag, 283-292. Signore O. 2004, Representing knowledge in semantic cultural web, in EVA 2004 Jerusalem Conference on the Digitisation of Cultural Heritage (Jerusalem 2004) (http://www. w3c.it/talks/eva2004Jerusalem/). Signore O. 2005, Ontology driven access to Museum Information, in CIDOC 2005 Documentation & Users. Proceedings of the CIDOC Annual Conference (Zagreb 2005) (document: http://www.w3c.it/papers/cidoc2005.pdf; slides: http://www.w3c. it/talks/2005/cidoc2005/). Signore O. 2006, The Semantic Web and cultural heritage: ontologies and technologies help in accessing Museum information, in Information Technology for the Virtual Museum (Sønderborg 2006) (http://www.weblab.isti.cnr.it/talks/2006/ITVM2006/). ABSTRACT Knowledge has been the driving force behind the Italian National Catalogue of Cultural Heritage. In the �rst stage, when the catalogue was mainly based on hand written paper cards describing objects regardless of their complexity, and intended for manual access by humans, the expert’s tacit knowledge remained unexpressed, and the card had a simple structure. Computer based applications initially relied on the features of Information Retrieval Systems, and simply converted typewritten cards into electronic documents. As results were quite disappointing, it became evident that a more formal representation of information was needed. The Italian experience led to the de�nition of a model for objects (simple, complex, aggregation of objects) with quite a large number of �elds. Even if the schema was often perceived as too rigid, it proved to be effective for data exchange, and long lasting (the present XML model is almost the same, just with a different syntax). However, its main drawback was the “object centred” approach, and the impossibility of representing signi�cant semantic associations with other disciplines. In this sense, a major objective, the contextualization of objects, remained unattained. 127 O. Signore The web has been a “cultural revolution”, because information is available everywhere, and users feel the need to combine different sources of knowledge. This semantic interoperability issue is often dealt with by adopting a metadata based approach (Dublin Core is the most popular). However, the metadata approach has the intrinsic limit that metadata are properties we “predicate” about items they refer to, and it is dif�cult, if not impossible, to derive new knowledge from the old. The Semantic Web perspective is much more ambitious, as the aim is to represent, export and share knowledge in a “machine understandable” way, and to allow intelligent agents to reason about it. In this light, scholars’ knowledge must be formalized and made explicit as ontology, and very probably we will have to agree on a different model to represent objects, in a distributed and multicultural environment. This is not the end of the traditional scholars’ knowledge, but a more effective environment for making this knowledge available to all users. 128 Archeologia e Calcolatori 20, 2009, 129-144 MUSEO VIRTUALE DELL’INFORMATICA: UN ESEMPIO EMBLEMATICO 1. Introduzione Il progetto “Museo Virtuale dell’Informatica Italiana” è (stato) un progetto di archeologia industriale virtuale, nato nel 1996, e mai terminato (Garzotto et al. 1999). L’idea era di costituire un ricordo permanente degli albori dell’informatica nel nostro Paese. Le idee iniziali erano grandiose, includendo elementi classici di archeologia (indagini, “scavi”, archiviazione sistematica...) con elementi moderni di comunicazione verso il grande pubblico. L’inizio del progetto fu brillante e pieno di entusiasmo: diversi gruppi al lavoro, piani strategici, piani operativi a breve, azioni concrete. Il progetto contava su un piccolo �nanziamento iniziale (direttamente dal CNR), che doveva servire a fare il piano operativo e creare i primi prototipi. Come spesso succede in Italia, il �nanziamento iniziale rimase anche l’unico �nanziamento, per cui il museo virtuale restò incompiuto (e in qualche modo esso stesso oggetto di archeologia industriale). Naturalmente questo “percorso” può far venire alla mente molti altri percorsi simili di progetti tecnologici in Italia. Il progetto era �nanziato dal CNR (come “progetto strategico”) ed era condotto dal Politecnico di Milano e da due Istituti del CNR (IEI e CNUCE, oggi con�uiti nell’ISTI: Istituto di Scienza e Tecnologie dell’Informazione “A. Faedo”). Gli obbiettivi da raggiungere erano i seguenti: – Raccogliere e preservare i materiali e le informazioni concernenti il “patrimonio culturale” della nascita dell’informatica in Italia. – Favorire la comunicazione e la diffusione dei contenuti presso un pubblico più generalizzato. – Utilizzare quanto era successo, tra agli anni ’50 e ’60, come lezione e ammaestramento per i giovani ricercatori. Per il conseguimento delle �nalità di cui sopra, il gruppo di lavoro si è dato questi obbiettivi concreti: – Creazione di un “archivio” materiale che raccogliesse la documentazione rilevante relativa alla nascita dell’informatica in Italia. – Creazione di un archivio virtuale, per “addetti ai lavori” e giovani ricercatori, che presentasse in modo scienti�co e sistematico i materiali raccolti. – Creazione di un sito web (questo era il massimo della comunicazione multimediale nel 1996!) per la divulgazione del materiale più interessante ad un ampio pubblico. 129 P. Paolini Fig. 2 – Il prof. Gerace incontra le autorità alla �ne degli anni ’50. Fig. 1 – Il prof. Gerace, tra i protagonisti che costituirono il primo “calcolatore italiano” a Pisa. Fig. 3 – Due dei protagonisti dell’informatica al Politecnico di Milano: il prof. Dadda e il prof. Biondi (foto della �ne degli anni ’90). 2. Il materiale raccolto Il gruppo di lavoro de�nì il seguente elenco per i materiali e la documentazione da raccogliere: – Le persone, cioè i protagonisti del nascere dell’informatica, nel periodo tra gli anni ’50 e ’60. – Le istituzioni maggiormente coinvolte nello sviluppo iniziale dell’informatica in Italia. – Gli eventi scienti�ci (accademici), industriali e “sociali” più rilevanti. – L’hardware, inteso sia come interi computer sia come componenti di vario genere. – I programmi principali (software) realizzati in quel periodo. – Altri risultati tecnico-scienti�ci rilevanti di quel periodo. Per costruire il nucleo iniziale dell’archivio sono stati raccolti i seguenti materiali: 130 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 4 – Un esempio di codi�ca. Fig. 5 – Un esempio di “design”. – Documenti di vario genere, disponibili in varie sedi, e principalmente presso il CNR, l’Università di Pisa e il Politecnico di Milano. – Articoli e libri scienti�ci del periodo. – Immagini, fotogra�e, disegni, diagrammi, etc. – Componenti hardware di vario genere, disponibili presso le sedi interessate. – Foto storiche (cioè dell’epoca) di personaggi, materiale, eventi, etc. Le Figg. 1, 2 e 3 mostrano alcuni esempi di foto di personaggi. Il prof. Gerace fu il propulsore dello sviluppo di un calcolatore italiano a Pisa. Il prof. Dadda, del Politecnico di Milano, portò dagli USA, nel 1954, il primo calcolatore funzionante in Italia. Il prof. Biondi fu tra i suoi primi utilizzatori (per calcoli scienti�ci). Tra i documenti scienti�ci ci sono numerosi “fogli di lavoro”. Due esempi sono illustrati con le Figg. 4 e 5. La Fig. 4 mostra la codi�ca di caratteri in notazione “ottale” e la corrispondenza con i tasti. La Fig. 5 mostra la “complessità” del design di un calcolatore dell’epoca pioneristica. Entrambe le immagini provengono dal progetto di Pisa. 131 P. Paolini Fig. 6 – Un componente “miniaturizzato” (per gli anni ’50). Fig. 7 – Una stampante (costruita a Pisa) degli anni ’50. Fig. 8 – Una “calcolatrice elettronica” in funzione (a Pisa). Per quanto riguarda l’hardware vero e proprio, purtroppo la maggior parte delle testimonianze materiali è andata perduta, negli anni ’70 e ’80, perché il materiale “obsoleto” è stato spesso gettato via. Alcuni pezzi notevoli si sono tuttavia conservati (spesso come ricordo personale di allievi dei protagonisti di allora). La Fig. 6 mostra una componente elettronica (non sappiamo esattamente cosa sia): viene tenuta nel palmo di una mano per dimostrare la “stupefacente 132 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 9 – Il primo calcolatore funzionante in Italia, portato dagli Usa dal prof. Dadda al Politecnico di Milano nel 1954. miniaturizzazione”. La Fig. 7 mostra una delle prime stampanti costruite a Pisa negli anni ’50. Le Figg. 8 e 9 mostrano, rispettivamente, il primo calcolatore italiano realizzato a Pisa e il primo calcolatore funzionante in Italia (1954) di costruzione USA, istallato al Politecnico di Milano. Si può notare, anche a “vista”, la differenza tra le due macchine: di ricerca la prima e industriale la seconda. Mentre a Pisa prevaleva lo spirito di ricerca di base (“impariamo a costruire i computer”), al Politecnico di Milano prevalse lo spirito industriale-applicativo (“capiamo a che servono i computer e usiamoli a scopi di ricerca e per l’industria”). È interessante rilevare come la differenza di impostazione tra le due scuole sia ancora percepibile tra gli atteggiamenti attuali di ricerca delle due sedi. Le Figg. 10 e 11 mostrano le dimensioni della “unità di memoria” e della “unità aritmetica dell’epoca”. Tra i materiali raccolti ci sono diversi documenti interni che ci aiutano a capire quali fossero le modalità di lavoro dell’epoca. La Fig. 12, per esem133 P. Paolini Figg. 10-11 – Componenti degli anni ’50 (la unità di memoria e la unità aritmetica). pio, mostra quante fossero le persone coinvolte in un progetto; si può anche notare come, anche a quell’epoca, il lavoro di ricerca fosse caratterizzato da una certa “precarietà”, desumibile dalla brevità di diversi periodi di lavoro. Le Figg. 13 e 14 pongono l’accento sull’attenzione per i risultati di questi pionieri e anche uno “stile dei rapporti” sempre molto cortese e rispettoso. Le Figg. 15 e 16 sono una testimonianza molto importante: nella prima Enrico Fermi sottolinea l’importanza da lui attribuita allo sviluppo dell’informatica italiana; nella seconda, che è la risposta, si può notare un tentativo di fare una (rispettosa) lobby. Tutte queste lettere ci fanno poi pensare come la diffusione della “email” abbia un poco imbarbarito lo stile della corrispondenza tra ricercatori e docenti: quello stile “elegante” e quasi cerimonioso ci sembra senz’altro “da archivio”. Per raccogliere testimonianze dirette (di personaggi ancora vivi a �ne anni ’90) sono state realizzate interviste ad alcuni dei protagonisti. Queste interviste, disponibili in video, hanno consentito di rendere viva la storia di quei momenti. Il prof. Dadda, per esempio, ha raccontato l’incredibile 134 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 12 – Un esempio di “controllo di gestione”. Alcuni degli addetti ai lavori della Unità di Pisa. avventura del primo calcolatore arrivato in Italia nel 1954: il prof. Cassinis, rettore del Politecnico di Milano e sindaco della città, “forzando” un po’ le regole propone di utilizzare una notevole parte dei fondi del piano Marshall (stanziato dagli USA per la ricostruzione dell’Europa occidentale) per l’acquisto di un calcolatore; il giovane Dadda (circa 25 anni) viene incaricato 135 P. Paolini Fig. 13 – Una lettera di due tra i maggiori protagonisti della informatica italiana. (incredibilmente) di gestire questa somma considerevole con notevole autonomia, e con responsabilità dei risultati. Dadda passa 6 mesi in California (i calcolatori si costruivano su richiesta all’epoca!) per seguire i lavori; al ritorno, non sapendo come trasportare l’enorme artefatto, trova una nave Liberty (le 136 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 14 – Lettera che testimonia un primo risultato concreto della Unità di Pisa, la “Calcolatrice Elettronica Ridotta”. navi da trasporto della Seconda guerra mondiale) che trasportava balle di cotone in Italia e tra le balle fa caricare il suo calcolatore; all’arrivo in Italia la dogana pretende di appiccicare su ciascuna delle centinaia di diodi la “marca da bollo” di legge (perché i diodi erano equiparati alle valvole delle radio; 137 P. Paolini Fig. 15 – L’interesse di Fermi per l’informatica italiana. valvole abbastanza grandi per consentire l’apposizione di marche da bollo); con un compromesso (molto italiano) Dadda compra le marche da bollo e promette di appiccicarle a Milano (e ovviamente non lo fa). Il prof. Biondi (del Politecnico di Milano), invece, racconta come la prima applicazione “pratica” delle capacità di calcolo servì al suo team (per conto della Pirelli) per ridurre le dimensioni degli “isolanti” che, in cima ai pali, servivano per tenere i cavi elettrici ad alta tensione. 138 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 16 – Un esempio di “lobbying”. Il destinatario è Enrico Fermi. Questi racconti, come molti altri simili, fanno capire lo spirito di ricostruzione dell’Italia dell’epoca e come i protagonisti dell’informatica di allora sapessero prendere decisioni coraggiose e ottenere risultati concreti pur con mezzi estremamente limitati. Ogni paragone con il modo di prendere decisioni nel mondo della ricerca di oggi e con il relativo coraggio è lasciato alla interpretazione del lettore. 3. L’utilizzo dei materiali per il Museo Virtuale Il materiale raccolto è stato analizzato, classi�cato e organizzato in funzione della costruzione dell’archivio. Tre erano le costruzioni virtuali previste: – Un archivio pubblico virtuale, accessibile via web, per specialisti e “addetti ai lavori”. – Un CD-ROM (all’epoca ancora si usava) per una comunicazione multimediale ad un pubblico più vasto. 139 P. Paolini Fig. 17 – Una pagina dell’archivio virtuale: il prof. Andronico intervista il prof. Faedo, uno dei protagonisti. – Un sito web (all’epoca ancora non così diffuso) per un accesso ad un largo pubblico. Le differenze tra la versione “archivio” e quella “comunicazione” concernevano la scelta dei contenuti, l’organizzazione degli stessi, i meccanismi di accesso e l’interfaccia. La Fig. 17 mostra una pagina dell’archivio: molto testo e una classi�cazione piuttosto “archivistica” dei contenuti. Le Figg. 18, 19 e 20 mostrano esempi di pagine del sito web per il pubblico “generalista”. Si può rilevare la notevole ingenuità dell’interfaccia (che a metà degli anni ’90 appariva molto moderna) e il tentativo di “snellire” la parte testuale. Anche l’organizzazione dei contenuti era meno “archivistica” e più orientata ad un largo pubblico. Le interviste erano la parte principale di questo sito, per “incuriosire il pubblico e avvicinarlo all’altro materiale”. Oltre all’archivio e al sito per il grande pubblico erano previste applicazioni speci�che, in qualche modo tematiche: parti di contenuto sarebbero 140 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 18 – Una pagina del sito web per il pubblico “generalista”. state selezionate (con eventuali integrazioni) per raccontare storie speci�che, di carattere scienti�co e/o di interesse generale. Queste applicazioni non furono mai realizzate. 4. Conclusioni Possiamo senz’altro notare diverse analogie tra il progetto del Museo Virtuale dell’informatica e il classico “ciclo di vita” di un progetto di archeologia: si “scava”, si trovano dei materiali “grezzi” da interpretare, si classi�ca e si studiano i materiali, si organizza un archivio. In aggiunta, il progetto illustrato è caratterizzato da alcuni aspetti piuttosto moderni (per la metà degli anni ’90): – Si organizza anche un accesso per i non specialisti e ci si preoccupa dei pro�li utenti non specialisti (ristrutturando i materiali per loro). – Si usa la tecnologia web (e anche CD-ROM, naturalmente). 141 P. Paolini Fig. 19 – Un elenco dei personaggi per il pubblico “generalista”. – Si usa una diversa organizzazione dei materiali e un diverso stile di accesso per il pubblico generale. – Si usano molto la navigazione e i link (rispetto a interrogazioni e ricerche). Per alcuni aspetti il progetto anticipò scelte che poi divennero comuni (e neppure sempre) in seguito: – Dare per “scontate” le informazioni “oggettive”, da mettere (ben catalogate) in archivio. – Enfasi, per il grande pubblico, sulle informazioni “soggettive”. – Valorizzazione quindi dei personaggi, delle storie, delle passioni, delle rivalità. Forse, possiamo dire oggi, c’era già lo spirito del web 2.0, molto in anticipo rispetto alla tecnologia disponibile. La lezione generale potrebbe riguardare l’archeologia in senso lato: af�ancare al (quasi) “feticismo” per gli oggetti e i documenti, le informazio142 Museo Virtuale dell’Informatica: un esempio emblematico Fig. 20 – La biogra�a del prof. Gerace per il pubblico “generalista”. ni soggettive ed emozionanti: le persone, la società, le abitudini, la cultura insomma. HOC-LAB, del Politecnico di Milano, è oggi impegnato in diversi progetti per i beni culturali secondo questa direttrice. Alcuni di questi progetti riguardano musei (incluso il Museo Archeologico di Milano) e la Direzione Generale per i Beni Archeologici del Ministero per i Beni e le Attività Culturali (MIBAC). Paolo Paolini HOC-LAB Politecnico di Milano BIBLIOGRAFIA Garzotto F., Paolini P., Mainetto G., Pisani S., Savino P. 1999, Using & re-using archive information for multimedia applications: the virtual museum of Italian computer science history, in ICHIM’99. International Cultural Heritage Informatics Meeting (Washington D.C. 1999) (http://www.archimuse.com/publishing/ichim_99.html). 143 P. Paolini ABSTRACT The Virtual Museum of the History of Italian Computer Science is a project which was started in 1996 and, due to lack of funding, was never completed (and therefore is not available to the general public). The project, which presented a complete and, for that time, innovative “design”, was carried out by the Politecnico di Milano and two CNR Institutes (now uni�ed in the ISTI - Istituto di Scienza e Tecnologie dell’Informazione “A. Faedo”). It includes an archive, where all basic information is stored, and two different interfaces: a direct search access to the archive, for specialised and expert users, and a navigation access via web, for extended public users. Information available includes documents and photographs, biographies, descriptions of achievements and innovations, etc. One special characteristic is the use of interviews to key persons, that recreates the heroic, pioneering atmosphere, typical of Computer Science in the 1950s. This use of �rst person narration as reported by the protagonists can be considered a precursor of solutions that became very common many years later (e.g. Web 2.0) and could be a model for archaeology in general. 144 Archeologia e Calcolatori 20, 2009, 145-154 «ARCHEOLOGIA E CALCOLATORI»: LE RAGIONI DI UNA SCELTA 1. Introduzione Correva l’anno 1989 quando Mauro Cristofani mi chiese di accompagnarlo a Siena per incontrare Riccardo Francovich, al �ne di valutare la possibilità di dar vita a un nuovo progetto editoriale: la pubblicazione di una rivista dedicata all’applicazione dell’informatica all’archeologia. Considerata la natura e la personalità dei due interlocutori, nel giro di un paio d’ore il progetto era già approvato e delineato nei caratteri essenziali, editore compreso. Le scelte ulteriori mi furono demandate. Anzitutto il titolo della rivista: «Archeologia e Calcolatori». Il motivo di questa scelta non risiede, come si potrebbe pensare, nella volontà di evidenziare il ruolo sussidiario dello strumento rispetto alla disciplina, quanto in questioni di carattere metodologico. Infatti, a parte una reminiscenza del titolo del Convegno internazionale organizzato da Jean-Claude Gardin a Marsiglia nel 1969 (Archéologie et calculateurs: problèmes sémiologiques et mathématiques, Gardin 1970), negli anni Ottanta si avvertiva ancora fortemente la distinzione tra l’applicazione dei metodi matematici e statistici, supporto dell’archeologia quantitativa, e il ricorso alle tecnologie informatiche. Il termine calcolatori, dunque, nella sua accezione più ampia di macchina elettronica per l’acquisizione, la memorizzazione, l’elaborazione e l’emissione programmata di dati, indicava la volontà di offrire una panoramica generale delle esperienze realizzate nell’ambito sia del trattamento automatico dei dati archeologici, sia dell’analisi quantitativa delle informazioni: “l’analyse documentaire” da un lato e “le calcul” dall’altro, come li aveva incisivamente de�niti Jean-Claude Gardin e con cui, agli inizi degli anni Settanta, venne denominata la nuova Unité de Recherche Analyse Documentaire et Calcul en Archéologie (URADCA) del CNRS, diretta da Mario Borillo (Gardin 1991, in particolare cap. 2). A venti anni di distanza, potremmo oggi a buon diritto modi�care tale titolo in «Rivista di informatica archeologica», con un’espressione motivata dalla volontà di riconoscere il consolidarsi di una nuova disciplina, intesa a promuovere lo sviluppo di procedure e metodologie d’indagine formalizzate per acquisire, rappresentare, elaborare, comunicare i dati, producendo al contempo nuovi strumenti per la ricerca che superano le forme tradizionali e recano un contributo al progresso degli studi e della pratica dell’archeologia (Moscati 2009). Restare, però, ancorati al passato può consentire a una disciplina di con�ne e di recente formazione di mantenere vivi i passaggi che l’hanno caratterizzata. E, 145 P. Moscati nel ripercorrere oggi le tappe della nascita dell’informatica archeologica, questo appare tanto più necessario. La rilettura in chiave attuale di alcuni passi degli studiosi che con spirito pionieristico hanno introdotto calcolo e automazione nella ricerca archeologica ne rivaluta infatti la modernità, che supera ogni più �duciosa aspettativa nell’alto grado di perfezione tecnologica. Lo scopo perseguito nella fondazione della nuova rivista è chiaramente enunciato nell’editoriale del primo numero, a cura di Mauro Cristofani e Riccardo Francovich: «L’attuale assenza di coordinamento e la frammentarietà delle esperienze è alla base della nascita di questa Rivista, che intende raccogliere e presentare quanto oggi viene realizzato preminentemente nel campo dell’archeologia classica e postclassica mediante l’uso dei calcolatori», per offrire un quadro sempre aggiornato dei progetti in corso sia in Italia sia all’estero, grazie anche all’autorevolezza dei membri del Comitato Scienti�co internazionale e all’entusiasmo di una redazione costituita da giovani studiosi (Cristofani, Francovich 1990). L’indirizzo seguito nella formulazione del progetto editoriale e nel suo coordinamento rispondeva dunque a criteri di speci�cità sia della materia trattata sia della delimitazione del periodo cronologico, senza intendere con questo escludere il settore più specializzato dell’archeologia preistorica – come d’altronde ben si evince dalle pagine della rivista – cercando di svolgere una funzione catalizzatrice intesa a favorire, anche a livello internazionale, l’approfondimento delle esigenze e delle applicazioni realizzate per il periodo storico. L’archeologo “classico”, infatti, stentava ancora ad aprirsi alle possibilità offerte dal trattamento automatico dei dati e «Archeologia e Calcolatori» si inseriva così nel panorama internazionale come una rivista specializzata dedicata all’applicazione dell’informatica e dei metodi di analisi dei dati, caratterizzandosi per il suo peculiare spettro cronologico (Moscati 1990). 2. Il panorama internazionale alla fine degli anni Ottanta La rivista veniva anzitutto a colmare una lacuna di carattere informativo. In quegli anni, infatti, era dif�cile, anche per gli addetti ai lavori, reperire informazioni in materia. In Europa circolavano due “lettere di informazione”, con una preziosa funzione di notiziario su progetti, manifestazioni e pubblicazioni: «Archaeological Computing Newsletter»1, fondata nel 1985 e pubblicata dall’Institute of Archaeology dell’Oxford University, e «Archéologues et Ordinateurs», fondata agli inizi degli anni Ottanta e pubblicata dal Centre de Recherches Archéologiques del CNRS di Sophia Antipolis (Valbonne). Vi era poi la rivista «Archéo-Log. Revue d’archéologie informatique», pubblicata dal 1986 ad opera del Groupe DIAPRE (Diffusion de l’Informatique en 1 146 http://soi.cnr.it/archcalc/acn/. «Archeologia e Calcolatori»: le ragioni di una scelta Archéologie et Préhistoire) in collaborazione con il Centre Informatique de Philosophie et Lettres dell’Università di Liegi2. Punto di riferimento nel panorama europeo erano già allora i Convegni Computer Applications in Archaeology3 che a partire dal 1973 si svolgevano annualmente a Birmingham, grazie in particolare all’iniziativa e all’impegno di Susan La�in, e che dal 1987 trovarono nella serie internazionale dei British Archaeological Reports una sede stabile per la pubblicazione degli Atti. Tali volumi, benché non rispecchino nella �sionomia l’aspetto di una rivista, hanno assunto nel tempo una funzione di riferimento per l’informazione e l’aggiornamento sui progetti realizzati e sulle soluzioni applicative utilizzate. In America, patria del movimento della New Archaeology, oltre allo spazio dedicato alle applicazioni dei computer nell’ambito di numerose riviste, fu fondato, proprio nel 1989, il «Journal of Quantitative Anthropology»4, per iniziativa del Department of Anthropology dell’Arizona State University, con una sezione riservata in modo speci�co all’archeologia. L’intento della rivista, come evidenziato da Jeffrey C. Johnson nell’Editoriale al primo numero, era quello di promuovere un approccio interdisciplinare che consentisse di superare le singole specializzazioni della ricerca antropologica e di incrementare l’applicazione di modelli matematici e statistici (Johnson 1989). V’erano poi delle pubblicazioni periodiche, caratterizzate da sezioni non �sse indirizzate alle applicazioni informatiche: da un lato riviste dedicate in modo più generale alle discipline umanistiche e ai beni culturali, come è il caso di «Computers and the Humanities» (tra i primi articoli dedicati all’archeologia, cfr. in particolare Cowgill 1967 e Whallon 1972), di «Histoire et Mesure» (Djindjian 1990), del «Bollettino d’Informazioni» della Scuola Normale Superiore di Pisa o di «Science and Technology for Cultural Heritage»; dall’altro lato riviste archeologiche caratterizzate da alcune sezioni più propriamente tecniche, in cui era possibile reperire elementi di aggiornamento bibliogra�co. Per citarne solo alcune: «American Antiquity», «Journal of Field Archaeology», «Science and Archaeology», e in Italia la «Rivista di Archeologia» e «Archeologia Medievale». Nel corso degli anni alcune delle iniziative editoriali sopra citate si sono trasformate, come è il caso di «Archaeological Computing Newsletter», pubblicata dal 2004 al 2008 come Supplemento semestrale di «Archeologia e Calcolatori»5, altre invece – e sono la maggior parte – si sono interrotte, 2 Il gruppo di ricerca e la rivista nascono con l’obiettivo dichiarato di «favoriser les contacts et les échanges entre les chercheurs intéressés et regrouper, dans le domaine francophone, les textes qui concernent l’utilisation de l’informatique en archéologie...» (Gob 1984, 233). Dal 1983 al 2003 il Centre ha anche pubblicato la «Revue Informatique et Statistique dans les Sciences Humaines» (http://www.cipl.ulg.ac.be/rissh/rissh.htm). 3 http://caa.leidenuniv.nl/proceedings/proceedings_contents.htm. 4 http://www.quantitativeanthropology.org/. 5 http://soi.cnr.it/archcalc/ArcheologicalComputingNewsletter.htm. 147 P. Moscati spesso perché legate a lodevoli iniziative di singoli studiosi o di istituzioni che hanno modi�cato nel corso del tempo la loro politica editoriale. Degna di nota, anche se comparsa più tardi nel panorama internazionale – il primo numero risale al 1996 – è la rivista «Internet Archaeology», orientata per politica editoriale verso la pubblicazione on-line, che ha dedicato numerosi inserti speciali all’informatica archeologica6. 3. Lo spostamento dell’asse verso i Paesi del Mediterraneo Negli eventi che caratterizzano il panorama internazionale degli anni Ottanta, degno di nota è un episodio speci�co che ha profondamente in�uenzato la nascita di «Archeologia e Calcolatori»: l’organizzazione nel 1983 di un corso europeo a Valbonne e Montpellier a cura di François Djindjian e Henri Ducasse. Il titolo del corso (Mathématiques et Informatique appliquées à l’archéologie) e la sua duplice strutturazione (Data Processing applied to archaeology e Mathematics applied to archaeology) indica ancora la dicotomia tra le diverse esperienze applicative. Proprio il ritardo di quattro anni nella pubblicazione (Djindjian, Ducasse 1987) costituirà l’occasione per i curatori di ri�ettere sulla validità dei metodi proposti e sul loro rapporto con la tecnologia. Come scriverà di lì a poco lo stesso Djindjian, quasi come se fosse una prescrizione per ottimizzare l’approccio alla materia, «les techniques progressent, les méthodes durent» (Djindjian 1991, IX). Tra i docenti del corso vi furono molti degli arte�ci dell’ingresso dei calcolatori nella ricerca archeologica, che generosamente accettarono di lì a pochi anni di partecipare anche al Comitato scienti�co della rivista: oltre ai due organizzatori, possiamo citare Amilcare Bietti, Jim Doran, Jean-Claude Gardin, René Ginouvès, Anne-Marie Guimier-Sorbets, Albertus Voorrips. Tra i partecipanti, invece, oltre a chi vi parla, vorrei citare Grazia Semeraro e Costis Dallas, anch’essi presenti oggi in questa sala a testimonianza delle solide basi che furono gettate 25 anni fa. Questi studiosi, infatti, ci hanno consentito di far tesoro di alcuni insegnamenti e di proseguire nel tempo, facendo evolvere le nostre ricerche non tanto sulla base degli sviluppi delle tecnologie, ma piuttosto piegando queste ultime alle necessità di una nuova disciplina al passo con i tempi. Dietro a questo fervore di attività, che caratterizza in particolare gli anni Ottanta, esisteva una �tta rete di contatti che promuoveva con entusiasmo iniziative di carattere internazionale. Ad esempio, la Commission IV (Data Management and Mathematical Methods in Archaeology) dell’Union Internationale des Sciences Préhistoriques et Protohistoriques si è sempre dimostrata particolarmente attiva nell’organizzazione di incontri di studio, 6 148 http://intarch.ac.uk/issues.html. «Archeologia e Calcolatori»: le ragioni di una scelta orientati al dibattito sulle problematiche di classi�cazione e seriazione dei materiali archeologici, allo studio della distribuzione spaziale delle testimonianze, alla modellizzazione e simulazione delle culture materiali e alle implicazioni teoriche nella scelta delle metodologie informatiche. La Commissione era per natura favorevole a una lungimirante diffusione geogra�ca della propria attività, in relazione sia alla proposta di nuovi membri, sia alla scelta delle sedi delle riunioni, sia alla nazionalità dei partecipanti. Negli anni Ottanta, infatti, si percepiva nettamente la sensazione di una richiesta sempre più pressante da parte dei Paesi del Bacino del Mediterraneo di essere coinvolti nel dibattito generale sull’argomento, dando pubblicità alle esperienze già in corso, spesso isolate, numerose ma non adeguatamente sostenute da un indirizzo di ricerca omogeneo, frutto di progetti di ricerca tra loro non concordati. La dispersione dei progetti stessi e l’assenza di un organo di raccolta e di diffusione delle informazioni determinavano in realtà una moltiplicazione degli sforzi e delle energie impiegate nella loro realizzazione. È in questa temperie che da un lato si dava vita ad «Archeologia e Calcolatori» e dall’altro lato si delineavano i motivi per la costituzione dell’Association internationale Archéologie et Informatique, con l’obiettivo primario di creare “un centre de compétences, un centre de diffusion, un centre de promotion, un centre de ré�exion, un centre de collaboration dans le domaine de l’informatique appliquée à l’archéologie”7. Nella prima metà degli anni Novanta, l’Associazione promosse l’organizzazione di tre Convegni internazionali, tenutisi rispettivamente a Saint-Germain-en-Laye nel 1991, a Bilbao nel 1993 (Valdés et al. 1995) e in�ne a Roma nel 1995 (Moscati 1996), gettando così le basi per quel coinvolgimento internazionale ad ampio spettro, che sarebbe stato de�nitivamente suggellato di lì a poco dall’organizzazione del XXVI Congresso CAA nel cuore del Mediterraneo, a Barcellona (Barceló, Briz, Vila 1999). 4. I contenuti Sin dai primi anni di vita di «Archeologia e Calcolatori» vennero de�nite alcune linee guida per il programma editoriale che il tempo e l’evoluzione delle tecnologie non hanno modi�cato, ma che anzi hanno consentito alla rivista di stare al passo con i tempi. Come abbiamo già avuto occasione di sottolineare (Moscati 2002), tali linee guida possono essere così sintetizzate: il costante contatto con il panorama internazionale e la scelta del multilinguismo, che non ha costituito un ostacolo bensì un elemento di ricchezza dei contenuti, in linea con uno dei principi fondamentali dell’Unione Europea sin 7 Per una descrizione più dettagliata degli obiettivi dell’Association cfr. «Archeologia e Calcolatori», 2, 1991, nella sezione “Informazioni”. 149 P. Moscati dall’inizio del processo di integrazione; il rapporto dialettico tra il momento della ri�essione teorica e quello della sperimentazione, cioè tra il modello e la sua applicazione; il rispetto dell’equilibrio tra gli spazi dedicati agli aspetti tecnologici e a quelli più propriamente archeologici; l’apertura verso le innovazioni, attraverso sperimentazioni intese a sviluppare progetti concreti capaci di stimolare nuove ri�essioni e nuovi approcci alla ricerca. La pubblicazione di Atti di Convegni internazionali e di numeri speciali dedicati a tematiche di particolare attualità hanno consentito di coronare l’attività intrapresa8. Gli Atti di Convegni sono sempre stati pubblicati su speci�ca richiesta delle istituzioni organizzatrici (Boardman, Kurtz 1993; Moscati 1996; D’Andrea, Niccolucci 2000; Djindjian, Moscati 2002; Scardozzi 2007; Djindjian et al. 2008), mentre i numeri speciali, curati da chi scrive, hanno segnato, con cadenza pressoché quinquennale, alcune tappe fondamentali dell’evoluzione dell’informatica archeologica, quale base per uno sviluppo coerente e omogeneo alla disciplina. I titoli di tali numeri sono senz’altro indicativi: Choice, Representation and Structuring of Archaeological Information (1994), Methodological Trends and Future Perspectives in the Application of GIS in Archaeology (1998), New Frontiers of Archaeological Research. Languages, Communication, Information Technology (2004) e in�ne Virtual Museums and Archaeology (2007). Ma questa ormai è storia recente. Mi preme qui ricordare che questo sforzo editoriale non si sarebbe potuto perpetuare nel tempo senza il sostegno scienti�co e l’apporto �nanziario del CNR. Fin dal primo numero, infatti, il carattere interdisciplinare dell’iniziativa ha trovato ampio consenso negli organi istituzionali e la rivista ha potuto così godere di �nanziamenti straordinari prima da parte dei Comitati Nazionali di Consulenza scienti�ca dell’Ente (in particolare il Comitato 08 per le Scienze storiche, �loso�che e �lologiche, il 12 per la Scienza e le Tecnologie dell’Informazione e il 15 per la Scienza e la Tecnologia dei Beni Culturali) e, dopo la riforma che ne ha visto la soppressione, nel Progetto Finalizzato Beni Culturali, nell’attività di Promozione della ricerca e in�ne nel Dipartimento Patrimonio Culturale. 5. La bibliografia di informatica archeologica Nell’analizzare il ruolo svolto da «Archeologia e Calcolatori», si deve porre l’accento anche sulla bibliogra�a di informatica archeologica, pubblicata sotto forma di rassegna nel corso del primo decennio di vita della rivista e utile strumento per una sistematizzazione di questo settore di studi. Il regolare lavoro di spoglio bibliogra�co è nato insieme alla rivista, proprio per le dif�coltà accennate inizialmente di reperimento delle fonti d’informazione. Anche sotto 8 150 http://soi.cnr.it/archcalc/SpecialIssues.htm. «Archeologia e Calcolatori»: le ragioni di una scelta questo aspetto, il panorama internazionale era in quel periodo carente, se si escludono alcune lodevoli e isolate iniziative. Mi riferisco in particolare alla bibliogra�a delle applicazioni informatiche all’archeologia curata da Daniel Arroyo Bishop e Maria Teresa Lantada Zarzosa (1993) e alla bibliogra�a di informatica umanistica curata da Giovanni Adamo (1994). Nel tempo, accanto alla rassegna, è stata realizzata una banca dati bibliogra�ca ed è stata elaborata una classi�cazione per soggetto, suddivisa in due sezioni distinte: “la tipologia informatica”, che descrive i metodi di trattamento informatico dei dati e “l’ambito disciplinare”, che descrive i settori della ricerca archeologica. Questa scelta duplice, che è poi l’elemento caratterizzante della materia trattata, ha permesso, in più di un’occasione, di offrire una sintesi dei settori della ricerca più direttamente coinvolti nell’uso degli strumenti informatici e al contempo di evidenziare le applicazioni più diffuse, delineandone lo sviluppo e veri�candone la diffusione (Moscati 1999). La scelta rispecchia anche l’impostazione metodologica della rivista: ogni valutazione delle innovazioni apportate dalle tecnologie deve necessariamente essere condotta in funzione delle tematiche della ricerca archeologica. Più volte nel corso degli anni – e anche di recente nell’ambito dell’iniziativa di rappresentare e valorizzare le competenze scienti�che del CNR quale supporto alla conoscenza, conservazione, valorizzazione e gestione dei beni culturali e territoriali promossa dal progetto interdipartimentale “Cultura e Territorio” – siamo tornati a veri�care la congruità delle scelte effettuate con l’evoluzione della disciplina stessa e con le moderne soluzioni promosse nel campo dell’ICT. E più volte, anche di fronte all’odierna frammentazione e alla dilagante settorializzazione, ci siamo resi conto della funzionalità del modello di descrizione bibliogra�ca e delle chiavi di ricerca selezionate, che hanno richiesto solo minimi interventi di modi�ca. Si è ad esempio destinata una voce a sé stante alla Realtà Virtuale, prima inserita tra le applicazioni di image processing e di gra�ca computerizzata, e si è ritenuto opportuno aggiungere alla voce “codi�ca dei dati” la speci�ca “metadati”. Più complesso, invece, sarà il lavoro, di recente intrapreso, di individuare alcune tematiche trasversali che contraddistinguono l’informatica archeologica del III millennio. Rispetto al passato, in cui le applicazioni erano orientate soprattutto verso problematiche di rappresentazione, strutturazione ed elaborazione delle informazioni, l’attenzione è oggi posta soprattutto sui sistemi di gestione della conoscenza, orientati alla condivisione e alla fruizione delle informazioni. Di particolare rilevanza è dunque lo studio della terminologia scienti�ca che caratterizza l’informatica archeologica e che consente di evidenziare vecchi e nuovi percorsi, dimostrando al contempo la profonda incidenza delle tecnologie informatiche non solo sulle metodologie di ricerca tradizionali ma anche sul linguaggio scienti�co utilizzato dagli archeologi. Poiché la rivista costituisce un unicum in questo settore di studi, il suo corpus 151 P. Moscati testuale ben si presta a un’analisi terminologica che ponga in luce la speci�cità e l’evoluzione di tale linguaggio, offrendo una rappresentazione sistematica del dominio di riferimento. 6. La rivista on-line Giunti al ventesimo numero, è ormai tempo di bilanci. Bilanci che non vogliono solo guardare al passato, ma che traggono frutto dall’esperienza per proiettarsi verso il futuro. A tale proposito mi preme ricordare in particolare due iniziative: la recente adesione della rivista all’Open Archives Initiative e la realizzazione di un Museo virtuale dell’informatica archeologica. Si tratta in entrambi i casi di iniziative che trovano le proprie radici in una politica editoriale stabile e coerente. Nel primo caso, la pubblicazione in rete della rivista rispecchia la visione della ricerca come libero cammino intellettuale verso la conoscenza. «Archeologia e Calcolatori» ha inteso in questo modo aggiungere al suo ruolo istituzionale di polo editoriale di riferimento per l’informatica archeologica un diretto impegno sperimentale, volto all’adozione di tecnologie d’avanguardia per la diffusione di contenuti scienti�ci in rete. L’idea di dar vita a un Museo virtuale dell’informatica archeologica nasce anch’essa dall’esperienza maturata in seno al CNR con la pubblicazione di «Archeologia e Calcolatori» e dalla lunga militanza accanto a Tito Orlandi, promotore di molte iniziative lincee dedicate all’informatica archeologica. Come si mostra oggi nella sua fase prototipale, il Museo ha tre sale espositive, rispettivamente dedicate a: I protagonisti, Le metodologie, Le tecnologie. L’intento è di ritrovare le radici storiche di questo settore di studi interdisciplinare, ripercorrendone le principali tappe evolutive, e insieme di sollecitare il visitatore a interrogarsi sulle aspettative più stimolanti che provengono da un dialogo tra passato e futuro che si attua in un presente in veste digitale. Paola Moscati Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico CNR – Roma BIBLIOGRAFIA Adamo G. 1994, Bibliogra�a di Informatica Umanistica, Roma, Bulzoni. Arroyo-Bishop A., Lantada Zarzosa M.T. 1993, Bibliografía sobre la aplicación de la informática en arqueología, Cuadernos del Instituto Aragonés de Arqueología, 3, Teruel. Barceló J.A., Briz I., Vila A. (eds.) 1999, New Techniques for Old Times. CAA98 Computer Applications and Quantitative Methods in Archaeology. Proceedings of the 26th Conference (Barcelona 1998), BAR International Series 757, Oxford, Archaeopress. Boardman J., Kurtz D. (eds.) 1993, International Conference on Data and Image Processing in Classical Archaeology (Ravello 1992), «Archeologia e Calcolatori», 4. 152 «Archeologia e Calcolatori»: le ragioni di una scelta Cowgill G.L. 1967, Computer Applications in Archaeology, «Computers and the Humanities», 2, 1, 17-23. Cristofani M., Francovich R. 1990, Editoriale, «Archeologia e Calcolatori», 1, 7-8. D’Andrea A., Niccolucci F. (eds.) 2000, I Workshop Nazionale di Archeologia Computazionale (Napoli-Firenze 1999), «Archeologia e Calcolatori», 11. Djindjian F. (ed.) 1990, Archéologie, «Histoire et Mesure», 5, 1-2. Djindjian F. 1991, Méthodes pour l’archéologie, Paris, Armand Colin. Djindjian F., Ducasse H. 1983, Ré�exions à l’issue du Cours Intensif Européen Informatique et mathématiques appliquées à l’archéologie, «Archéologues et Ordinateurs», 4, 21-22. Djindjian F., Ducasse H. (eds.) 1987, Data Processing and Mathematics Applied to Archaeology/Mathématiques et Informatique appliquées à l’archéologie, «PACT», 16. Djindjian F., Moscati P. (eds.) 2002, XIV UISPP Congress (Liège 2001). Proceedings of Commission IV Symposia. Data Management and Mathematical Methods in Archaeology, «Archeologia e Calcolatori», 13. Djindjian F., Noizet H., Costa L., Pouget F. (eds.) 2008, Webmapping dans les sciences historiques & archéologiques. Actes du Colloque international (Paris 2008), «Archeologia e Calcolatori», 19. Gardin J.-C. (ed.) 1970, Archéologie et calculateurs: problèmes sémiologiques et mathématiques. Actes du Colloque International (Marseille 1969), Paris, CNRS. Gardin J.-C. 1991, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris, CNRS. Gob A. 1984, Constitution, à l’Université de Liège, d’un groupe pour la diffusion de l’Informatique en archéologie et en préhistoire, «Revue Informatique et Statistique dans les Sciences humaines», 20, 1984, 233-234 (http://promethee.philo.ulg.ac.be/RISSHpdf/ annee1984/Notes/AGob.pdf). Johnson J.C. 1989, Editorial, «Journal of Quantitative Anthropology», 1, V. Moscati P. 1990, “Archeologia e Calcolatori”. Una nuova rivista per gli studi sull’età storica, «Centro di elaborazione automatica di dati e documenti storico artistici. Bollettino d’informazioni», 11, 181-198. Moscati P. (ed.) 1996, III International Symposium on Computing and Archaeology (Roma 1995), «Archeologia e Calcolatori», 7. Moscati P. 1999, “Archeologia e Calcolatori”: dieci anni di contributi all’informatica archeologica, «Archeologia e Calcolatori», 10, 343-352. Moscati P. 2002, Archeologia e informatica: fra tradizione e rinnovamento, «Bollettino ICR», n.s. 5, 21-27. Moscati P. 2009, Archeologia e società dell’informazione, in XXI Secolo, Vol. I, Roma, Istituto della Enciclopedia Italiana Treccani, 621-630. Scardozzi G. (ed.) 2007, Il Mediterraneo antico e medievale come luogo di incontro tra Oriente e Occidente, Nord e Sud. Atti della Giornata di studio sul tema “GIS e applicazioni informatiche alle ricerche archeologiche e storiche” (Roma 2007), «Archeologia e Calcolatori», 18. Valdés L., Arenal L., Pujana I. (eds.) 1995, Aplicaciones Informáticas en Arqueología: Teorías y Sistemas (Saint-Germain-en-Laye 1991, Bilbao 1993), Bilbao, Denboraren Argia. Whallon R. 1972, The computer in archaeology: A critical survey, «Computers and the Humanities», 7, 1, 29-45. 153 P. Moscati ABSTRACT As Editor of the international Journal «Archeologia e Calcolatori», the Author retraces the history of this editorial enterprise, which was established in 1989 by Mauro Cristofani and Riccardo Francovich. The Journal, which celebrates its 20th anniversary this year, is devoted to archaeological computing, a research sector characterised by the combining of information technologies with traditional archaeological methods. The path followed in the formulation of the editorial plan and its scienti�c coordination is reconstructed through various main stages: the reasons for the choice of the Journal’s title, its �eld of application and chronological range; the description of the contemporary international panorama, still characterised by isolated initiatives; the members of the international Scienti�c Committee, all representatives of the major Italian and foreign institutions; the scienti�c contents, with particular emphasis on the publication of special thematic issues and international conference proceedings; the archaeological computing bibliography, an information tool as well as a practical approach to systematising this young discipline. The present-day editorial policy of «Archeologia e Calcolatori» is dedicated to increasing the visibility and on-line diffusion of the Journal, and in this way furthering its original purpose: acquiring sources of information, as well as providing them. 154 Archeologia e Calcolatori 20, 2009, 155-168 PROVANDO E RIPROVANDO: UN QUARTO DI SECOLO DI APPLICAZIONI «I computer sono inutili, ti sanno dare solo risposte» Pablo Picasso, 1973 1. Memorie in cerca di una storia L’obiettivo non semplice che si poneva il Convegno organizzato sotto l’egida dell’Accademia dei Lincei – l’analisi critica di un settore della disciplina archeologica ormai trentennale – è stato compiutamente perseguito sia attraverso un quadro molto articolato di questo ambito di studi per ciò che riguarda teoria e metodo dalla sua genesi ad oggi, sia attraverso una illustrazione seppur sommaria di sperimentazioni, risultati, progetti, che in questo periodo si sono realizzati e che costituiscono nel loro insieme il corpus delle applicazioni, ormai troppo vasto per una panoramica completa. Nel cercare di delineare una sintesi non solo del percorso teorico, si è scelto di concentrarsi sugli ultimi 25-30 anni, cioè su quel periodo non più solo pioneristico durante il quale le tecnologie informatiche hanno conosciuto una tale espansione da rendere possibile una loro suddivisione in settori de�niti. In questi anni, dunque, le ricerche si sono succedute, e talvolta sovrapposte per ambito di applicazione o �nalità, in numero tale da rendere impossibile e probabilmente anche poco signi�cativo un loro censimento analitico. Troppo difformi sia per livello scienti�co che tecnologico, come per stadio di evoluzione raggiunto per operare raffronti indicativi e �nalizzati ad una sintesi critica. Nel predisporre la sezione del Convegno dedicata alla storia delle applicazioni, complementare a quella metodologico-teorica, non si voleva però neppure stilare una sorta di elenco dei “buoni” ed evidenziare solo quei progetti che nel tempo hanno dimostrato una maggiore solidità concettuale, istituzionale, organizzativa, sia perché si sarebbe trattato comunque di un elenco quantitativamente ingovernabile, sia perché spesso abbiamo molto imparato, sul piano del metodo, anche dai fallimenti. La scelta è stata quindi quella di identi�care alcuni �loni portanti che in questi anni abbiano assunto, anche se a livello diverso, il ruolo di settori tematici de�niti e riconosciuti nella loro speci�cità, per ciascuno dei quali fosse quindi possibile tracciare una linea evolutiva e, in de�nitiva, delineare un percorso storico. A completamento del percorso di ri�essione sono quindi state allestite, durante il Convegno, alcune postazioni multimediali dalle quali era possibile attivare brevi sequenze illustrative su alcuni di questi temi di ricerca: i più 155 M.P. Guermandi rappresentativi degli ultimi decenni nel campo delle applicazioni informatiche all’archeologia. Tali sequenze costituiscono l’esito sintetico e multimediale di quell’esercizio di memoria e di storia che Paola Moscati, cui si deve non solo l’ideazione ma �nanco la realizzazione pratica della sezione, ha richiesto ad un gruppo di ex giovani studiosi che per comunanza di interessi e similarità anagra�ca hanno maturato nel tempo legami di amicizia sopravvissuti all’evolversi – e a volte esaurirsi – di progetti informatici in campo archeologico. Esperienze e ricerche che comunque per tutti noi hanno rappresentato una porzione non percentualmente indifferente della nostra vicenda professionale e sono quindi divenuti, anche, in certa misura, un “affare personale”. Ci siamo quindi voltati indietro a guardare e ripensare al percorso compiuto (non certo solo da noi), ciascuno nell’ambito che più ha frequentato. 2. Percorsi diversi in una strada comune Gli ambiti di analisi prescelti per questa panoramica delle applicazioni riguardano le banche dati, i sistemi informativi territoriali, la multimedialità, Internet, la catalogazione del patrimonio, i musei: certamente non tutti i temi possibili, ma certo quelli che identi�cano dei settori a loro modo de�niti e consolidati, punti fermi all’interno di una tassonomia che in questi anni si è delineata, assieme a temi “trasversali”, quali la catalogazione e i musei, che per la loro importanza hanno in�uito sull’evoluzione del rapporto informatica-archeologia. Ogni scelta si presta, naturalmente, a distinguo e critiche. Come anticipato, l’obiettivo non era certo quello di presentare una esaustiva storia delle applicazioni, eppure, anche nella forzata sintesi, il quadro che ne risulta ci sembra non solo estremamente articolato, ma anche in grado di riproporre criticamente alcuni dei grandi �loni della ricerca sia per quanto riguarda il settore delle applicazioni informatiche al patrimonio culturale, che quello della ricerca archeologica in senso lato. La discussione collettiva in sede di Convegno ha credo confermato alcuni aspetti che a commento complessivo di questo tentativo di sintesi erano stati sottolineati: la non linearità del percorso che nei diversi ambiti è stato compiuto, come pure l’imperscrutabilità negli esiti e nelle accelerazioni. Non si tratta, insomma, di una storia – o meglio di storie – tese verso un obiettivo chiaro e costantemente perseguito, ma piuttosto di �ussi che hanno subito divaricazioni, ripensamenti, fallimenti inaspettati e risultati imprevisti e dei quali siamo stati – tutti quanti gli attori nel loro insieme – profeti spesso smentiti. Caratteristiche queste che connotano gran parte dell’evoluzione delle scienze umane, ma che nel nostro caso sono forse ampli�cate dalla intercon156 Provando e riprovando: un quarto di secolo di applicazioni nessione con la parallela evoluzione della disciplina informatica, anch’essa caratterizzata da un andamento non lineare e tumultuoso (Paolini, in questo volume) e per di più totalmente autonomo rispetto a quello della disciplina archeologica, che ha costretto a ride�nizioni e ripartenze brutali e onerose sul piano non solo scienti�co. Ciò detto a scusante preventiva e pur nelle limitazioni, a volte distorsioni, che operazioni di così drastica sintesi comportano, ci sembra però che riescano ad emergere, nelle analisi compiute nei diversi settori sopra enunciati, alcune aree di ricerca comuni così come elementi di criticità ricorrenti. Uno di questi elementi critici che scorrono sotto traccia in queste sintesi è proprio quello, cui si accennava sopra, del forte condizionamento che l’evoluzione della ricerca archeologica ha subito da parte dell’evoluzione tecnologica, responsabile principale di quella mancanza di linearità di molti dei nostri percorsi di ricerca. Non si è trattato, nel suo complesso, di un rapporto au pair, ma al contrario spesso di una ricezione alquanto passiva. Quasi mai gli archeologi sono stati in grado, non solo di condizionare, ma anche solo di governare il progresso degli strumenti tecnologici. Fra le concause, oltre a quella determinante rappresentata dall’irrilevanza economica del nostro settore, come di tutto il comparto culturale nel suo complesso, vi è stata anche sicuramente la dif�coltà di organizzare uno spazio condiviso, un linguaggio comune attraverso il quale comunicare coi nostri partner informatici, dif�coltà che abbiamo impiegato molto tempo a superare e che ancora persistono, se nel recente rapporto su ICT e CH curato dalla Commissione Europea, questo è indicato come uno degli open problems1. A commento complessivo si può inoltre aggiungere che la speranza di arrivare con i computer a incidere non solo sull’archeogra�a, ma sull’archeologia come si augurava con ottimistica passione René Ginouvès ormai molti anni fa (Ginouvès 1971) è andata in buona parte disattesa. A quasi quarant’anni di distanza da quella sorta di manifesto, occorre dire che le previsioni più “rivoluzionarie” di una scienza archeologica profondamente rinnovata sul piano metodologico anche e soprattutto dalla relazione con l’informatica hanno trovato scarsa rispondenza nella storia della disciplina: se è vero, da un lato, che non si possa con�nare l’apporto della tecnologia solo sul piano strumentale, d’altro lato quella stagione di ri�essione sulle problematiche dell’organizzazione della conoscenza che il rapporto con la computer technology avrebbe dovuto attivare sul piano epistemologico non ha prodotto risultati sistemici. L’evoluzione, pur evidente e profonda, che l’archeologia ha subito in questi anni ha molte radici, ma specialmente nel 1 Bulletin EU 7/8-2008, Europe’s cultural heritage at the click of a mouse: Progress on the digitisation and online accessibility of cultural material and digital preservation across the EU. 157 M.P. Guermandi campo dell’archeologia classica i mutamenti cui senza dubbio ha contribuito l’utilizzo delle tecnologie informatiche si collocano piuttosto sul piano della pratica e dell’organizzazione della ricerca che non su quello compiutamente teorico. Se non si può parlare di un mutamento di paradigma innescato dalle computer technologies, ciò nondimeno, in taluni ambiti metodologici, si è trattato di un rapporto che ha provocato radicali e innovativi ripensamenti. Si pensi, per parlare in positivo (e tale constatazione risulta evidente dalla lettura complessiva degli interventi di questa sezione) alla solidità ed ef�cacia metodologica raggiunta nel tempo dalle ricerche e sperimentazioni ricollegabili alla standardizzazione e alla normalizzazione linguistica. Questo �lone di studi, determinato in origine dalle esigenze di una tecnologia informatica ancora assai rigida, ma tuttora attivo (D’Andrea 2006; Richards, in questo volume), ha contribuito in maniera determinante ad un ripensamento delle nostre pratiche linguistiche (e quindi cognitive), incentivando un processo di disambiguamento complessivo degli strumenti di rappresentazione e ha, in�ne, reso familiare ad un’intera generazione di archeologi un esercizio di metodo tuttora valido che a volte è stato trasferito in altri contesti di ricerca. In conclusione riteniamo che, pur con i limiti descritti, l’esplorazione che si è tentata possa divenire il punto di partenza, l’incunabolo di un’operazione critica di ri�essione più ampia soprattutto in termini quantitativi. Il Convegno, con i tanti spunti emersi, ha indagato con complessità d’analisi un’ampia area di temi e offerto una non ristretta panoramica dei risultati – positivi e negativi – raggiunti in questi decenni. L’esercizio critico compiuto nel complesso crediamo possa costituire il lievito fondamentale di un ulteriore progresso conoscitivo e porsi come punto di partenza per un percorso più approfondito, soprattutto in ampiezza, che il gruppo raccolto attorno alla redazione di «Archeologia e Calcolatori» si augura di poter intraprendere nel prossimo futuro. 3. Internet: beati gli ultimi perché saranno i primi La provocazione insita nel titolo, più che la rivendicazione di un primato intende in realtà sottolineare una recenziorità che è anche dif�coltà: per quanto riguarda la rete, infatti, ultima nata dell’evoluzione tecnologica cui si è applicata l’archeologia, si tratta di cercare una sintesi su pochi anni di realizzazioni, che tali si possono ritenere due-tre lustri, quanti sono quelli che annoverano un numero di progetti quantitativamente signi�cativo, tale da raggiungere una “massa critica” suf�ciente per una elaborazione critica. Dunque molto più limitato il lasso di tempo sul quale far scorrere lo sguardo: più cronaca che storia quindi, per quella che è l’area di sviluppo più recente fra quelle rappresentate nel nostro settore, ma che in compenso, in breve 158 Provando e riprovando: un quarto di secolo di applicazioni volger d’anni è divenuta la cornice imprescindibile non solo dell’insieme delle applicazioni informatiche, ma dell’intero �usso della ricerca archeologica. Eppure non si è trattato certo di un amore a prima vista, ma anzi, in una fase iniziale piuttosto di un rapporto di forte dif�denza, da parte degli archeologi, nei confronti di uno strumento considerato alla stregua di un semplice “mezzo di trasporto” delle informazioni fra i tanti e non fra i più af�dabili: come e spesso più che in altre discipline scienti�che, la rete per il suo carattere aperto e non controllabile non offriva, agli esordi, garanzie paragonabili ad altri strumenti di diffusione dei dati più tradizionali o consolidati, tanto da essere utilizzata, specie per quanto riguarda gli ambienti accademici e istituzionali, come un canale accessorio e destinato a veicolare contenuti divulgativi. Per i primi tempi (ma per certi versi tale dif�coltà appare tuttora irrisolta) si è stentato a porre in correlazione i tradizionali, usuali concetti di organizzazione della conoscenza basati sulla gerarchia, linearità, centro e margine con i nuovi concetti di multilinearità, relazione semantica, nodo e rete, ritenendo i primi adatti alla sistematizzazione e alla ricerca, mentre i secondi quasi esclusivamente alla comunicazione e alla didattica (Guermandi 1997, 2000). Per questo breve resoconto i punti di riferimento temporali possono essere identi�cati nelle occasioni di confronto collettivo rappresentate dai convegni internazionali (su tutti gli International Symposia on Computing Archaeology e, più continuativamente, i CAA) nei quali la de�nizione delle sezioni nei programmi veniva ad essere anche una prima, tentativa tassonomia di un settore, il nostro, da sempre alla ricerca di mappe cognitive consolidate. Un’ancora cronologica può essere probabilmente recuperata nel 1995: nel III Convegno Internazionale di Archeologia e Informatica di Roma (Moscati 1996), per la prima volta in manifestazioni di questo livello, Internet si affacciava fra gli argomenti titolari di una speci�ca sessione. Non in via esclusiva, comunque; l’etichetta complessiva di “diffusione delle informazioni” era difatti così speci�cata: collegamenti in rete, musei e didattica, pubblicazioni. Eppure, in quella che allora era in fondo una sessione “residuale” trovavano spazio, non a caso, oltre una dozzina di progetti, molti dei quali non si rifacevano esplicitamente (e in alcuni casi neanche potenzialmente) ad Internet, ma in cui il �l rouge era rintracciabile nella comune presenza di alcuni elementi già avvertiti come caratterizzanti: la multimedialità, le potenzialità didattiche, l’editoria elettronica, la fruizione allargata dei corpora e dei grandi archivi elettronici. Se, a confronto, andiamo a veri�care come negli ultimi CAA2 siano stati classi�cati i progetti che riguardano Internet ci accorgeremo che la rete è del tutto scomparsa come termine di categorizzazione, a riprova di quel carattere di scontato strumento d’uso quotidiano assunto dal web in questi anni. 2 http://www.caa2007.de/; http://www.caa2008.org/prog.html. Analogamente, anche la rubrica di «Archeologia e Calcolatori», che delineava una breve panoramica delle applicazioni archeologiche sul web, è stata interrotta nel 2003: Guermandi 2000, 2003. 159 M.P. Guermandi In pochi anni, quindi, la situazione è rapidamente mutata innanzi tutto perché l’esplosione su scala globale dell’uso del web ha provocato la produzione e l’accesso ad una tale quantità di materiali in rete, per di più di alto livello scienti�co, da rendere impossibile continuare ad etichettare come “accessorio” l’uso del web fra le fonti documentali e, tout court, fra gli strumenti di lavoro. I siti illustrati di seguito ad esempli�cazione dei temi analizzati (cfr. infra § 5.1 e 6.1), oltre che per le sempli�cazioni dovute alla sintesi, evidenziano una caratteristica della rete sulla quale probabilmente non abbiamo ancora suf�cientemente ri�ettuto: la quasi completa astoricità. Internet è il luogo dell’eterno presente, in cui il passato viene semplicemente annullato. Così “fare storia” su Internet è impresa di grande dif�coltà e si tratta di un problema metodologico che in una disciplina il cui progresso si fonda sul pregresso rischia, nel tempo, di avere un impatto fortemente negativo. 4. Rapporti difficili… Con le dif�denze del mondo accademico si è scontrato, invece, soprattutto il settore delle pubblicazioni on-line che, almeno rispetto alle potenzialità evidenti rappresentate da talune caratteristiche della rete (ipertestualità e multimedialità, su tutte), ha subito un ostracismo de facto che ne ha ridotto fortemente l’impatto e che ancora oggi non ha permesso uno sviluppo consistente dell’editoria elettronica sul web, nel senso più completo del termine (Guimier-Sorbets, Fromageot-Lanièpce 2006). «Internet Archaeology»3 (Heyworth, Ross, Richards 1996; Guermandi 1997) è, dal 1996, l’electronic journal che, quasi in solitudine, continua a dimostrare in che cosa consista “pubblicare” sul web una ricerca archeologica, sfruttando appieno le caratteristiche di ipertestualità e allargando il concetto di materiale pubblicato all’insieme degli archivi di dati sui quali si basa la ricerca. «Internet Archaeology» rappresenta l’esempio di un progetto pensato per la rete e per questo compiutamente innovativo. Eppure, pur avendo conquistato un proprio spazio e garantito una continuità (25 numeri pubblicati), è rimasto un esempio isolato e non è riuscito ad innescare un effetto di trascinamento emulativo. Al contrario, invece, seppur con tempi rallentati, l’editoria elettronica ha trovato un canale di espansione attraverso i siti che illustrano i prodotti cartacei, in un primo tempo pensati come semplice vetrina pubblicitaria di riviste tradizionali, ma che negli ultimi anni hanno cominciato ad offrire servizi più ampi: indici, abstract e selezioni di articoli, la cui versione elettronica è però la semplice trasposizione in forma digitale dell’edizione cartacea. 3 160 http://intarch.ac.uk/. Provando e riprovando: un quarto di secolo di applicazioni In questo ambito non poteva mancare «Archeologia e Calcolatori»4 che ha iniziato recentemente una nuova politica editoriale per ampliare la diffusione dei propri contenuti anche sul web, consentendo il libero accesso ad oltre un centinaio di articoli pubblicati sui numeri della rivista a partire dal 1998 ed indicizzati attraverso il protocollo OAI (Barchesi 2005; Moscati, Barchesi, Pasquini 2006). La soverchiante quantità di dati che rappresenta la cifra distintiva della rete ha costituito, come noto, una s�da per l’elaborazione di strumenti in grado di governare l’overloading informativo che minacciava �n dall’inizio la fruibilità ottimale del web. Fino a una decina di anni fa, una delle soluzioni privilegiate sembrava rappresentata dai motori di ricerca specialistici o Lase (Limited area search engines): nati �n dal primo periodo di applicazione della rete al nostro ambito, hanno conosciuto una buona diffusione nel decennio scorso, quando sembravano uno dei pochi strumenti ef�caci per il recupero mirato dell’informazione, ma si sono scontrati, negli anni successivi, da un lato con le dif�coltà di aggiornamento, dovute all’aumento esponenziale delle risorse presenti in rete, dif�cili da controllare e censire per siti gestiti per lo più da équipes dotate di risorse limitate e spesso volontarie, caratteristiche che li hanno spesso condannati a rapide obsolescenze. Fra gli esempi più longevi si può citare il progetto Perseus5: attivo, con alterna fortuna, dal 1987 a cura del Department of the Classics della Tufts University e giunto alla sua quarta versione, si è negli anni trasformato da archivio di risorse specializzato nel campo della klassische Altertumswissenschaft, ad una sorta di digital library. A decretare il superamento dei key sites è in�ne intervenuta, in questi ultimi anni, la dirompente espansione, dal punto di vista quantitativo e di potenza degli algoritmi di ricerca, dei motori di ricerca generalisti, Google su tutti, il cui servizio Scholar6, che effettua la selezione solo sulla base di bibliogra�a scienti�ca, ha probabilmente de�nitivamente chiuso lo spazio per altre risorse di questo tipo. 5. ...e incontri fortunati Per quanto riguarda invece i “casi di successo”, sempli�cando, i due settori che hanno prima e meglio di altri usato le potenzialità della rete sono: i grandi corpora informatizzati da un lato e le istituzioni museali dall’altro. Nel primo caso la rete ha ereditato e ampli�cato un intenso e complesso lavoro di informatizzazione svolto, in certi casi, �n dai primi anni ’70 e http://soi.cnr.it/archcalc/. http://www.perseus.tufts.edu/. 6 http://scholar.google.com/. 4 5 161 M.P. Guermandi che solo attraverso una espansione la più ampia possibile poteva trovare un canale adeguato non solo di diffusione, ma anche di produzione e aggiornamento oltre che di consolidamento complessivo. In questo ambito la rete ha �nito per essere un �ltro di qualità e per selezionare i progetti più solidi culturalmente e organizzativamente e al contempo ha evidenziato i vantaggi di questi strumenti esplicitandone le potenzialità in termini di ampiezza e signi�catività della ricerca. 5.1 Ad esempio (1) Il doppio esempio riportato testimonia esattamente questo carattere di selezione quasi darwiniana operata dalla rete: si tratta di un progetto di informatizzazione che coinvolge due dei maggiori corpora di reperti archeologici, nati come progetti autonomi. Si tratta del Corpus Vasorum Antiquorum7, il più vecchio progetto di catalogazione di materiale archeologico intrapreso dall’Union Académique International, che nel 2000 ha commissionato al Beazley Archive, con la sponsorizzazione del Getty Grant Programme, l’informatizzazione dell’insieme del materiale pubblicato a stampa del CVA, rendendo possibile, oltre alla visualizzazione delle pagine dei singoli fascicoli, l’elaborazione di ricerche sul più importante corpus ceramico attuale. Per quanto riguarda invece il Beazley Archive8 (Kurtz, in questo volume), il progetto dell’Università di Oxford, iniziato nel 1979 come informatizzazione degli archivi di Sir John Beazley sulla ceramica attica, si è ampliato negli anni arricchendosi anche di materiale iconogra�co a corredo dei vasi schedati (oltre 150.000 al 2007). L’insieme dei due progetti esempli�ca in modo chiarissimo quanto vantaggio in termini di impatto, di consolidamento e ampliamento dell’area di ricerca abbia potuto portare la pubblicazione on-line a uno dei �loni di studi e ad alcune delle istituzioni di più consolidata tradizione accademica. 6. Oltre il museo reale I musei, dal canto loro, istituzioni multimediali per eccellenza, hanno trovato nella rete uno strumento di espressione ideale. Anche se va ricordato come già nelle realizzazioni dell’editoria multimediale erano state compiute molte interessanti sperimentazioni, è attraverso alcuni siti web museali che queste esperienze sono state ereditate ed esaltate nel settore non solo archeologico, ma più allargato dei beni culturali, con la sperimentazione di strategie comunicative innovative perché pensate per un uso più compiutamente interattivo e con un impiego generalizzato della multimedialità e intertestualità. 7 8 162 http://www.cvaonline.org/cva/projectpages/CVA1.htm. http://www.beazley.ox.ac.uk/pottery/default.htm. Provando e riprovando: un quarto di secolo di applicazioni Fin dai primi anni ’90 (Antinucci 1998) cominciano così, soprattutto a partire dall’area anglosassone, ad essere elaborati siti in cui si propone una differenziazione del livello comunicativo a seconda della tipologia di utente (adulto/bambino, generico/specialista). È poi soprattutto attraverso taluni siti museali che si è cominciata a sperimentare in modo più organico ed evoluto l’interazione fra diverse applicazioni tecnologiche: così per esempio ormai molti siti non solo museali, ma di istituzioni di ricerca varie presentano un accesso diversi�cato e su vari livelli ai loro dati, attraverso la possibilità di ricerca su basi dati o GIS e, al contempo, permettono la consultazione on-line di prodotti multimediali statici o dinamici che sono il risultato di tecniche di ricostruzione 3D, o ancora di veri e propri “kit” di materiali digitali scaricabili, mirati a soddisfare esigenze o classi di utente differenziate. L’evoluzione dei siti ha ben presto trasformato queste realizzazioni da versioni elettroniche più o meno complesse del museo reale a prodotti autonomi pensati non solo ad integrazione del percorso museale, ma a volte con �nalità complementari. Da questo tipo di realizzazioni alla creazione di veri e propri musei virtuali, in tutte le accezioni del termine (Moscati 2007), il passo è stato breve e attualmente sono fruibili in rete innumerevoli declinazioni del sito museale che vanno dal semplice sito “pubblicitario” di un museo reale al museo virtuale con possibilità di accesso a prodotti multimediali di vario genere. Tale varietà non signi�ca però una esplorazione completa delle potenzialità offerte dalle ICT (Antinucci 2007): ancora non compiuto appare, se non in rarissimi esempi, quel mutamento in termini di modalità di apprendimento cognitivo che, grandemente agevolato dalle potenzialità insite nelle networking technologies, consentirebbe alla componente iconico visiva delle nostre discipline di espletare quel ruolo determinante a livello di trasmissione culturale che le compete (Guermandi 2004). Ancora, un’esperienza comunicativa ben più soddisfacente di quella ottenuta nella maggior parte dei nostri musei – archeologici e non – si potrà attingere attraverso l’evoluzione dalle forme di interattività attuali (spesso ancora troppo banali e scarsamente coinvolgenti) alla vera e propria elaborazione di materiali da parte dall’utente. Solo quando, insomma, sarà compiuto in maniera massiccia il passaggio da una serie più o meno articolata di digital libraries (che forniscono risposte e per questo, come affermava Picasso, sono sostanzialmente inutili) a musei virtuali veri e propri (che stimolano domande), i musei torneranno ad essere macchine cognitive vere e proprie. 6.1 Ad esempio (2) Quale esempio di museo virtuale di grande impatto comunicativo, si può citare Romans are coming9, il sito che raccoglie la documentazione 9 http://www.theromansarecoming.com/. 163 M.P. Guermandi multimediale, in varia forma utilizzabile, realizzata in occasione dell’esposizione Roman Art from the Louvre, allestita presso l’Indianapolis Museum of Art dal settembre 2007 al gennaio 2008, vincitore di uno dei premi della penultima edizione del Museums and the web. Si tratta della manifestazione più consolidata a livello internazionale, organizzata con cadenza annuale dal 1997 dalla società di ricerca americana Archives and Museum Informatics10 che, con qualche concessione, peraltro gradevole, alla spettacolarizzazione hollywodiana (“the winner is…”), costituisce ormai il forum di discussione più avanzato per quanto riguarda le sperimentazioni in rete dei musei di tutto il mondo e la vetrina più aggiornata delle elaborazioni più innovative. Non più solo siti di musei reali, quindi, ma realizzazioni, come questa, in cui tramite il ricorso a materiali video o multimediali impostati su tecniche comunicative di ambito pubblicitario si ottiene una grande ef�cacia didattica e comunicativa. Romans are coming offre anche nuclei informativi pensati come trailer cinematogra�ci che evidenziano una visione della romanità diversa e permeata di un immaginario �lmico (ma parliamo sempre di prodotti di buon livello scienti�co), una visione che attraverso il tradizionale mezzo cartaceo non emergerebbe con tanta evidenza: in questo modo il web riesce a restituire non solo un racconto coinvolgente sul mondo romano, ma anche lo sguardo speci�co che su quella storia possiede una parte dell’Occidente (il West): è il locale che riaf�ora attraverso il mezzo della globalità per eccellenza. 7. Le insidie di un promettente futuro In generale questa commistione di tecnologie informatiche all’interno del web, resa senz’altro più agevole dalla contemporanea evoluzione delle stesse, sta producendo effetti indubbiamente positivi sia sull’accrescimento delle potenzialità della rete, sia per quanto riguarda la diffusione degli strumenti informatici speci�ci all’interno della disciplina, consentendone una “familiarizzazione” impensabile attraverso i canali più tradizionali. E però, d’altro lato, questa fase appare ancora lontana dall’aver espresso a pieno le potenzialità di sviluppo forse perché maturata più come sperimentazione un po’ casuale che non come risultato di un indirizzo di ricerca metodologico speci�co. Si intende dire che spesso l’utilizzo delle varie applicazioni all’interno di uno stesso sito appare il frutto di ampliamenti per addizione o giustapposizione più che come il risultato di una progettazione mirata ad utilizzare in modo sinergico applicazioni diverse. D’altro canto, quello che viene sentito come un limite è al tempo stesso una caratteristica vincente della rete che forse stentiamo a percepire in tutta la sua potenzialità innovativa: la capacità cioè di attivare connessioni non 10 164 http://www.archimuse.com/index.html. Provando e riprovando: un quarto di secolo di applicazioni tanto come risultato di uno schema pre�ssato, ma operando per “contagio”, ride�nendo le proprie mappe cognitive in tempi rapidissimi e in direzioni non preordinate. Le tecnologie della rete sono, per loro natura, asistemiche, ma sono in grado, con le molteplici interrelazioni che innescano, di creare e disvelare strutture “altre”, non come l’effetto ricercato di un disegno aprioristicamente concepito, ma come perenne evoluzione, riorganizzazione, ride�nizione di un insieme di “pezzi” che attraverso tali meccanismi si ampliano nei loro signi�cati, si modi�cano essi stessi e modi�cano la rete in cui entrano a far parte, a volte con esiti imprevisti. Così anche per quanto riguarda le applicazioni archeologiche, come in altri settori, l’evoluzione tecnologica e culturale in senso ampio ha condotto spesso ad esiti insospettati e ha annullato problemi in una prima fase considerati di complessa soluzione, per evidenziarne altri magari sottovalutati in un primo tempo. Per quanto riguarda il primo caso, le networking technologies hanno ad esempio contribuito grandemente a ride�nire radicalmente il problema degli standard e della normalizzazione dei dati (Guermandi 1999; D’andrea 2006; Signore, in questo volume), nel senso di provocare un deciso spostamento della ricerca dagli standard di rappresentazione a quelli di contenuto, da un lato e, successivamente, lo slittamento del problema in termini di interoperabilità fra i vari sistemi (Guermandi 2003); in questa direzione, in connessione con l’evoluzione denominata web 2.0, la nuova frontiera delle categorizzazioni di informazioni sembra concentrarsi sull’area di ricerche collegata al Semantic Web e alle “folksonomie” (Quintarelli 2005). Si tratta di una metodologia utilizzata da gruppi di utenti che collaborano spontaneamente per organizzare le informazioni disponibili sulla rete: come e più che nel caso della interoperabilità, vi sarebbe, in questo caso, un completo ribaltamento di prospettiva, nel senso che la categorizzazione sarebbe operata non dal produttore, ma dall’utente delle informazioni e quindi solo a posteriori e secondo criteri totalmente �essibili. Ad esempli�cazione, invece, di quei problemi dei quali si è sottostimata l’incidenza, si può senz’altro citare il multilinguismo. Il carattere universale della rete ha aperto da subito la discussione sul canale linguistico: l’uso della lingua inglese quale esperanto ormai ampiamente riconosciuto, come pure il ricorso a siti multilingue hanno solo s�orato il ben più profondo problema del multiculturalismo. Non è semplicemente presentando traduzioni in cinese o arabo dei nostri siti che potremo elaborare una ef�cace comunicazione e trasmissione di conoscenza nei confronti di culture non occidentali: ciò che si è ottenuto �nora rappresenta quindi spesso una drammatica banalizzazione (se non addirittura distorsione) dei contenuti che potrà essere superata solo attraverso un’interazione non semplicemente tecnologica, ma culturale in senso profondo. 165 M.P. Guermandi Folksonomie, interoperabilità, multiculturalismo: ci troviamo, con queste sperimentazioni, peraltro già attive in altri settori disciplinari, all’interno del mainstream denominato web 2.0, quella fase della rete talvolta esaltata come un vero e proprio mutamento di paradigma (O’reilly 2005), ma che in realtà può al momento essere de�nita più semplicemente come l’evoluzione che consente un più maturo livello di interazione sito-utente e che costituisce il passaggio al social computing in senso compiuto. Siamo, cioè, in una fase in cui l’impiego collaborativo della rete è in grado non solo di far interagire servizi e strumenti informatici, ma di sfruttare le risorse creative che il suo uso allargato consente di ampli�care a dismisura. In questo senso si è parlato di una vera e propria intelligenza collettiva che la rete sarebbe in grado di attivare, anche se i non pochi critici del web 2.0 (Critical perspectives 2008) tendono piuttosto a leggervi una crescente merci�cazione dei contenuti digitali accompagnata dal tentativo perdurante e carsico, da parte di istituzioni a vario livello, di ingabbiare quel “felice caos comunicativo”11 che costituisce a tutt’oggi la cifra distintiva di Internet. A questi, si uniscono poi i detrattori ancor più radicali delle caratteristiche del web nel loro complesso, fra i quali sicuramente il più noto e combattivo è quel Ted Nelson inventore del progetto Xanadu12, il primo sistema ipertestuale di cui il web costituirebbe una cattiva, dannosa imitazione in quanto ancora legato a concetti di gerarchia, unilinearità, monodirezionalità e �loso�camente succube del media cartaceo che riproporrebbe in versione tecnologica senza superarlo (Nelson 2009). Sia l’evoluzione del web 2.0 che i progetti collegati a questi ultimi �loni di ricerca ancor più innovativi rappresentano una s�da senz’altro affascinante anche perché coinvolgono non tanto l’aspetto tecnologico, quanto quello teorico �loso�co della scienza dell’informazione da un lato e dall’altro immettono prepotentemente, fra gli elementi principali in gioco, quello sociale. Si tratta, come si può intuire, di territori ancora da esplorare e che appaiono alquanto lontani non solo dalle sperimentazioni in atto nel nostro settore, ma anche poco frequentati sul piano della semplice discussione culturale. D’altro canto se qualcosa abbiamo imparato dopo alcuni lustri di complesso e spesso frustrante esercizio di ricerca nell’ambito delle applicazioni informatiche alla nostra disciplina, è che sono spesso i tragitti più imprevisti a condurre agli approdi più grati�canti. E in�ne, in questa fase della storia della nostra disciplina in cui è la stessa archeologia che vive, specie in Italia, un momento di confronto e di 11 L’espressione è tratta da una famosa sentenza del tribunale di Filadel�a, in difesa delle libertà di espressione in rete. 12 http://xanadu.com/. Il progetto, evoluto nel recente sistema ZigZag, è tuttora attivo. 166 Provando e riprovando: un quarto di secolo di applicazioni ride�nizione sul piano culturale e sociale assai complesso e che ci vede spesso su posizioni difensive, non sarebbe inutile accettare la s�da e proporsi non solo come utenti �nali della rete, ma come attori in grado di portare una visione diversa, seppur settorialmente delimitata, di quella che è la trasmissione della conoscenza. Maria Pia Guermandi IBC - Istituto per i Beni Artistici, Culturali e Naturali Regione Emilia Romagna BIBLIOGRAFIA Antinucci F. (ed.) 1998, Musei virtuali, «Sistemi intelligenti», 10, 2, 159-306. Antinucci F. 2007, The virtual museum, in Moscati 2007, 79-86. Barchesi C. 2005, «Archeologia e Calcolatori»: nuove strategie per la diffusione di contenuti in rete sulla base dell’OAI-PMH, «Archeologia e Calcolatori», 16, 225-241. Critical perspectives on web 2.0, «First Monday», 13, 3, 2008 (http://www.uic.edu/htbin/ cgiwrap/bin/ojs/index.php/fm/issue/view/263/showToc/). D’Andrea A. 2006, Documentazione archeologica, standard e trattamento informatico, Budapest, Archaeolingua. Ginouvès R. 1971, Archéographie, archéometrie, archéologie. Pour une informatique de l’archéologie gréco-romaine, «Revue Archéologique», 93-126. Guermandi M.P. 1997, Presi nella rete: i siti archeologici in Internet, «Archeologia e Calcolatori», 8, 151-169. Guermandi M.P. 1999, Dalla base dati alla rete: l’evoluzione del trattamento dei dati archeologici, «Archeologia e Calcolatori», 10, 89-99. Guermandi M.P. 2000, L’archeologia in rete. Internet e multimedia, «Archeologia e Calcolatori», 11, 391-395. Guermandi M.P. 2003, Internet e multimedia, «Archeologia e Calcolatori», 14, 336-339. Guermandi M.P. 2004, Nuovi linguaggi e “vecchie tecnologie”: comunicare la conoscenza archeologica attraverso la rete, «Archeologia e Calcolatori», 15, 483-496. Guimier-Sorbets A.-M., Fromageot-Lanièpce V. 2006, Les ressources d’information archéologiques sur Internet: le point de vue de l’utilisateur, «Archeologia e Calcolatori», 17, 7-24. Heyworth M., Ross S., Richards J. 1996, An international electronic journal for archaeology, in Moscati 1996, 1195-1206. Moscati P. (ed.) 1996, Atti del III Convegno internazionale di Archeologia e Informatica (Roma 1995), «Archeologia e Calcolatori», 7. Moscati P. (ed.) 2007, Virtual Museums and Archaeology. The Contribution of the Italian National Research Council, «Archeologia e Calcolatori», Supplemento 1. Moscati P., Barchesi C., Pasquini R. 2006, Archeologia e Calcolatori and the OAI-PMH, Poster Session of International Conference Museums, Libraries and Archives online: MICHAEL Service and Other International Initiatives (Roma 2006). Nelson T. 2009, Geeks Bearing Gifts, Sausalito CA, Mindful Press. O’Reilly T. 2005, What is Web 2.0. Design patterns and business models for the next generation of software (http://oreilly.com/web2/archive/what-is-web-20.html). Quintarelli E. 2005, Folksonomies: power to the people (http://www.iskoi.org/doc/folksonomies.htm). 167 M.P. Guermandi ABSTRACT In the �rst part, the paper introduces the section that collects historical syntheses of some of the most relevant issues related to technological applications in archaeology. Databases, GIS, multimedia applications, cataloguing activities of archaeological heritage, museums, and Internet are the �elds chosen to illustrate more than 25 years of research, projects, realizations. The paper stresses common criticisms and recurrent dif�culties in these sectors of research, but also important results and achievements for archaeology on the whole. In the second part, the paper brie�y discusses the relationship between Internet and archaeology. Web applications in archaeology started in the early 1990s. Initially, archaeologists were very suspicious of web reliability: Internet was a useful tool for popularization purposes, not for scienti�c research. The paper discusses reasons for the failure of some archaeological applications – for example electronic publishing and limited area search engine – and success of others: museum web sites above all, with their effective use of visual and interactive web technologies. Nowadays Internet is an almost unavoidable tool for every type of archaeological research and it seems to have become the comprehensive frame in which all other technological applications are expressed. Internet technologies could introduce a new communication structure in archaeological research with the use of interactivity and hypermedia. The last challenges in ICT are the so called Web 2.0, social computing and a radically innovative vision of hypertext structure: these research �elds could change the way of archaeological culture communication and knowledge transmission. 168 Archeologia e Calcolatori 20, 2009, 169-177 PUNTO DI NON-RITORNO (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali) «… si inganna sui lati migliori chi fa solo l’inventario degli oggetti ritrovati e non sa indicare nel terreno attuale esattamente il luogo in cui si conservava l’antico…» Benjamin 2002, 907 1. La formazione del quadro A buon diritto, dopo un trentennio di applicazioni informatiche, nel settore geo-topogra�co dell’archeologia ci si potrebbe aspettare un briciolo di uniformità, o almeno un tentativo di sistematizzazione uni�cante, conseguente alla naturale sedimentazione delle metodologie applicative. Un’auspicabile meta che, a chi si è occupato di cartogra�a archeologica negli anni iniziali della informatizzazione, viene in mente ogni volta che apre Google Earth, ad esempio, senza poter trattenere un sorriso al ricordo dei vecchi problemi di compatibilità di formati gra�ci, sistemi di coordinate, datum... Ma in tutto il settore archeologico si fatica a individuarla, questa uniformità, se non in una progressiva stabilizzazione di alcune branche tematiche generali, più o meno coincidenti con quelle sinteticamente enunciate nel sottotitolo; le stesse, peraltro, delineatesi già alla metà degli anni ’80, e che allora erano sembrate le rami�cazioni iniziali di una primitiva fase epistemologica corale, ma che, forse, banalmente traslavano sul piano della strumentazione tecnica e, in parte, concettuale, i percorsi paralleli ante-informatizzazione delle varie dottrine archeologiche e, soprattutto, i loro oggetti-di-studio e le rispettive scale di interesse. Dif�cile sintetizzare la complessità delle matrici culturali che erano alla base di quelle scelte in tal modo “obbligate”. Si potrebbe in generale osservare che il settore italiano delle scienze archeologiche investite da pulsione computazionale in chiave, diciamo, geogra�ca, da alcuni (Isabella, Salzotti, Valenti 2001) posto sotto accusa per una “certa arretratezza” rispetto al coevo panorama europeo, rispose al contrario con estrema vivacità alle sollecitazioni pratiche – ma anche intellettuali – offerte dall’informatica e dalle tecnologie avanzate in genere, ponendosi talvolta, e in questo settore in particolare, decisamente all’avanguardia. Semmai è da notare come i maggiori problemi siano derivati dall’estremo frazionamento delle iniziative, rimasto snodo irrisolto dei successivi sviluppi: dopo una partenza positivamente orientata da una diversi�cazione moderata ma metodologicamente signi�cativa, che arricchiva il fermento “tecnologico” delle scienze umane con lo spessore storico e la grande tradizione 169 G. Azzena del metodo e della ricerca italiani, nel giro di un decennio si erano già perse quelle �la che avrebbero potuto trasformare alcune vette di qualità, alte ma distanti, in un approccio sistematico e soprattutto in una base conoscitiva comune e – considerate le forze in campo – potenzialmente completabile nel giro di qualche anno. Occorre tenere presente, per il caso particolare, che non erano solo le potenzialità uni�canti offerte dal supporto informatico, ma la natura stessa dell’approccio geogra�co e cartogra�co alla archeologia e alla storia delle città e dei territori, ad indicare come prima meta una “copertura integrale” della conoscenza topogra�ca di base. La stessa vagheggiata �n dal 1870, ma resa �nalmente gestibile dalle potenzialità di un unico Sistema Informativo Territoriale Archeologico nazionale. Il riferimento alle diversi�cazioni di quelle prime fasi sperimentali aiuta comunque nella comprensione del variegato panorama attuale: dagli Atti dei primi Convegni che iniziavano ad abbracciare il tema delle tecnologie avanzate applicate al rilevamento e alla cartogra�a archeologica (dal 1987 al 1990), confrontati con il “punto della situazione” contenuto in Moscati 1998 (cfr. anche Francovich 1999), e con ciò che oggi è possibile conoscere uf�cialmente, sembra che la tripartizione dei �loni basilari (cartogra�a numerica, GIS/SIT, analisi spaziale) per quanto arti�ciosa e riduttiva, sia ancora, nel modo che vedremo, operante. Con un forte, insolubile debito verso il comparto della progettazione architettonica ma soprattutto verso le “prime linee” dell’innovazione, cioè il design e la gra�ca avanzata (Bertin 1977), il primo impulso alla sperimentazione, per questioni eminentemente tecniche, venne dal CAD e dalla cartogra�a numerica: su scale inizialmente di dettaglio – dunque tipicamente urbane, se non “di scavo” – si palesò subito come davvero dirimente tutta la potenzialità del carattere “numerico” di queste singolari “carte”: la non incidenza del fattore di scala e, insieme, la possibilità di associare ad ogni primitiva gra�ca che compone il disegno due formidabili comprimari conoscitivi: una descrizione alfanumerica, ed un “livello logico” differenziabile a piacimento. Se lo sviluppo della tecnologia ha fatto sì che sulla cartogra�a numerica si potessero sviluppare l’approccio, prima, e poi la “�loso�a” GIS, ha lasciato immutata la valenza di quegli attributi primari: ne sono dipese, e ne dipendono tuttora, quelle ricerche che fanno della descrizione gra�ca a qualsiasi scala il loro nucleo funzionale. L’ampio settore del rilevamento e della ricostruzione architettonica, e quelli della fotorestituzione, della modellazione 3D, del posizionamento dei siti e dell’implementazione dei grandi apparati informativi delle “Carte Archeologiche” a livello urbano, comprensoriale, regionale e nazionale, possono essere considerati in logica discendenza di quelle prime applicazioni di cartogra�a numerica. Il passaggio alla “�loso�a” GIS, in un certo senso �liazione naturale della cartogra�a numerica in esito tecnico all’aumento esponenziale della 170 Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali) “vigoria” dei processori, in realtà ha coinvolto in profondità la sfera metodologica delle discipline interessate. In primo luogo rendendo possibile la riattivazione dell’approccio mentale catalogra�co (peculiare degli archeologi), con straordinario af�namento delle potenzialità di ricerca, comparazione e postelaborazione dei dati alfanumerici e della loro condivisione (�no al webGIS), ma conseguente recessione dell’impianto di tipo topogra�co, che aveva appena avuto il tempo di affermarsi; in secondo luogo costringendo gli archeologi ad un confronto multidisciplinare; in terzo luogo fungendo da passepartout per l’inserimento del livello archeologico nelle buone pratiche di piani�cazione: chi è riuscito a coglierne i frutti, tra non poche dif�coltà, ha certamente compiuto un grande passo in avanti, soprattutto nel quadro della tutela preventiva (Guermandi 2001). Una volta chiarita la differenza (Azzena 1997) tra “costruire” un Sistema Informativo Territoriale che comprenda al suo interno anche la conoscenza storico-archeologica del territorio, ed “usare” un applicativo GIS per elaborare, ad esempio, un modello insediamentale antico, è possibile inquadrare anche l’ultimo dei tre settori enunciati: quello delle analisi spaziali. È ben chiaro che i Sistemi Informativi, in quanto “produttori di informazioni basate su dati” sono di per sé, e per costruzione, analizzatori spaziali. Tuttavia, nella distinzione proposta, si guarda piuttosto alla �nalità ultima della ricerca che alla scelta degli strumenti utili alla stessa. Il �lone delle analisi spaziali (e, più in generale, della modellizzazione e della simulazione, con funzione predittiva anche del “rischio” archeologico) si sviluppa assai precocemente (Moscati 1987), procedendo in parallelo all’evoluzione della computer graphics applicata alle “mappe di distribuzione”, ma anche allo sviluppo, ovviamente indipendente dall’archeologia, delle indagini di tipo matematico-statistico applicate alla geogra�a, all’ecologia, alla sociologia urbana, etc. A prescindere dalla scala e dall’oggetto di indagine, è qui l’approccio “deduttivo” a caratterizzarne da sempre l’impostazione, orientandola verso lo sviluppo (o l’utilizzazione) di applicativi per i quali il sistema di riferimento alla cartogra�a operativa non costituisce una pregiudiziale, con un conseguente percorso evolutivo parallelamente indipendente da quello dei SIT. 2. SIT archeologici: lo stato delle cose Una sorta di “punto della situazione” è stato abbozzato anche a livello uf�ciale. Il 24 gennaio 2007, infatti, l’allora Ministro dei Beni Culturali, Francesco Rutelli, nomina una Commissione, signi�cativa già nel titolo: Commissione paritetica per la realizzazione del Sistema Archeologico delle città italiane e dei loro territori. Presieduta da Andrea Carandini, la Commissione (della quale anche chi scrive ha fatto parte) metteva insieme le due amiche-nemiche tradizionali componenti dell’archeologia italiana: Università 171 G. Azzena e Soprintendenze. Si scioglie dopo circa un anno di lavoro, in coincidenza con la caduta del Governo Prodi, non prima di aver consegnato una Relazione Finale (ora consultabile in Carandini 2008, 199-207) che il Ministro uscente invia, in data 11 aprile 2008, a tutte le Direzioni Regionali MIBAC e a tutte le Soprintendenze Archeologiche. Senza entrare nel merito delle indicazioni operative e delle considerazioni tecnico-scienti�che contenute in quel documento, ciò che qui segnatamente interessa è il punto di partenza che informò tutti i ragionamenti della Commissione: l’acclarata assenza di coordinamento tra le varie attività di ricerca sul campo �nalizzate alla creazione di supporti informativi che, per sempli�care, chiameremo “geogra�ci”, a tutti i livelli di scala; nonché la – conseguente – formazione di un “arcipelago” di GIS a tematismo archeologico. Il proliferare di orticelli autarchici per cui, in funzione di 1:1, a singola ricerca archeologica corrisponde singolo GIS, ha prodotto centinaia di censimenti archeologici, di SIT e di GIS, di carte urbane e territoriali, del rischio, dei pieni, dei vuoti; e Atlanti, ricostruzioni 3D, modelli predittivi e, perché no, anche qualche ottimo strumento operativo. Ma ciò che si desume con disarmante chiarezza è soltanto che, tra di essi, non esiste alcuna interazione: e non tra Regione e Regione (sarebbe già qualcosa), ma tra Laboratori di uno stesso Dipartimento, tra il Comune e la Frazione, tra cattedrale e parrocchia. Dopo il fallimento del primo tentativo di Ruggero Bonghi (1870!) di portare a compimento un “catasto delle presenze archeologiche nel territorio nazionale” coordinato centralmente, nessuno – ammette la Commissione ministeriale – è in seguito riuscito nell’impresa. E, ormai, nessuno – isolatamente – riuscirebbe più. Da qui il proposito della Commissione, lodevole ancorché tardivo, che consisteva nell’indicare un massimo comun denominatore sul quale impegnare chiunque faccia ricerca di taglio territoriale, in parole povere “obbigandolo” a fornire pochi ma essenziali dati di base conformi: non sostitutivi, si intende, ma da af�ancare al proprio speci�co “prodotto” scienti�co, schedogra�co, cartogra�co. Oltre a ciò incrementando un “censimento dei censimenti” sul quale fondare il plafond conoscitivo omogeneo per tutto il territorio nazionale. Esiste, d’altra parte, e proprio all’interno del Codice Urbani, un eccezionale spunto di rilancio di un’attività di documentazione dei Beni Archeologici in forma di SIT coordinato e piani�cato, legata allo strumento della cosiddetta “copiani�cazione” tra Stato e Regioni, alle quali si è cercato di delegare gli aspetti più generali della “cura del paesaggio”. Gli sviluppi del Piano Paesaggistico Regionale della Sardegna, il primo in Italia a conformarsi alle linee-guida della Convenzione Europea per il Paesaggio, sono da prendere in questo senso ad esempio, anche se non sempre positivo. A livello normativo nazionale, l’art. 1 comma 3 del D.Lgs. 42/04 – Codice dei Beni Culturali e del Paesaggio, prevede infatti che lo Stato, le Regioni, le Città metropolitane, le 172 Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali) Province ed i Comuni assicurino e sostengano la conservazione del patrimonio culturale e ne favoriscano la pubblica fruizione e la valorizzazione; l’art. 5 del D.Lgs. citato, prevede che le Regioni, i Comuni, le Città metropolitane e le Province cooperino con il Ministero per i Beni e le Attività Culturali nell’esercizio delle funzioni di tutela del patrimonio culturale. La Legge Regionale sarda del 25 novembre 2004, n. 8, introducendo il nuovo testo dell’art. 11 della legge urbanistica regionale n. 45/1989, ha disciplinato la procedura del Piano Paesaggistico Regionale (PPR) e, soprattutto, ha disposto che i Comuni approvassero i propri Piani Urbanistici (PUC) in adeguamento alle disposizioni e previsioni del PPR. Ma ciò che qui interessa particolarmente è che il PPR ha imposto, ai �ni della predisposizione del PUC, l’evidenziazione nella cartogra�a relativa del tematismo delle emergenze di interesse archeologico, al �ne di prevedere per tali aree i necessari dispositivi di controllo e di tutela, acquisendo gli elementi da inserire in un database contenente i dati di ogni sito archeologico, ricadente nel territorio del Comune interessato. Una grande, inedita e forse irripetibile occasione. Tutto bene, dunque. Ma, sul fronte del coordinamento, cosa è successo? In Sardegna – e il rischio è che il fenomeno si ribalti anche sulle altre Regioni – ogni Comune ha fatto di testa sua. Cioè: ad ognuno il suo censimento. Si è aggiunto il SIT “archeologico” regionale che, però, almeno dichiara di adottare “lemmi” tratti dalle schede ICCD. Le impostazioni metodologiche che, Comune per Comune a seconda dell’archeologo/i che prestava/no la propria consulenza, si sono giustapposte, se non contrapposte, quasi mai integrate, hanno dato esito ad una situazione di rumore informativo che forse non ci stupisce più, ma che certo non ha smesso di preoccupare per il futuro. Si pro�la infatti il pericolo che l’assenza di coordinamento, che per ora sapevamo limitata alle nostre attività di ricerca, si estenda a quelle gestionali, legate in particolare all’adozione dei Piani Paesaggistici e a quelli Urbanistici. Il �orire di mille censimenti localistici, privi di omogeneità scienti�ca e dunque, a rigore, riconducibili al famoso massimo comun denominatore solo a prezzo di una fatica almeno pari a quella occorsa per realizzarli, nonché il parallelo germogliare di GIS di micro-ambito anch’essi caratterizzati da incompatibilità “genetiche”: questo l’orizzonte che sembra pro�larsi, almeno stando ai risultati dell’esperienza sarda. È evidente come il dibattito incentrato sulla “identi�cazione dei paesaggi” – per usare le parole della Convenzione Europea – investa oggi non solo il livello decisionale rappresentato dalle Regioni, ma anche quello legislativo centrale: al proposito è utile ricordare, in attesa delle eventuali espressioni in merito del nuovo Governo, gli incisivi emendamenti al Codice Urbani proposti dal “Nuovo Codice” (D.Lgs. 26 marzo 2008, n. 63). Altrettanto evidentemente la componente archeologica, in questo clima di incertezza metodologica prima ancora che legislativa, non può che essere considerata 173 G. Azzena determinante. E dunque (tralasciando le critiche empiriche), ciò che occorre ancora una volta rilevare è il fatto che al dispiegamento schizofrenico di apparati analitici sempre e comunque “puntiformi” prodotti dal (o previsti nel) Piano, raramente corrispondono compendi interpretativi che aiutino a capire (e quindi a progettare) i contesti. Occorre chiedersi se questo non sia il portato di un consolidato orientamento culturale e, conseguentemente, legislativo, dal quale deriva l’idea che l’apparato informativo dedicato al paesaggio “storico” debba essere di tipo oggettuale, cioè orientato “al sito” e così anche la sua tutela (“identi�cazione-localizzazione → perimetrazione-recinzione”). Con il risultato che l’azione di tutela tradizionale così come quella “innovativa”, oltre ad essere tanto integraliste quanto deboli, farraginose e per questo, spiace constatarlo, impopolari, siano rimaste nel tempo, proprio perché concepite come contrastanti, sempre e comunque inadeguate a supportare gli atti di una piani�cazione che, invece, a parole si vorrebbe “rispettosa” di una ambigua “storicità” del territorio, conferita solo ai contesti ove concretamente si siano riconosciuti “oggetti vecchi”. Sarebbe forse utile chiedersi se non sia questa concezione a dover essere strutturalmente modi�cata, prima ancora di provare a pettinarne le frange, con o senza supporti tecnologici. 3. Una prospettiva (molto personale) Non sono in grado di dire se la colpa sia stata nostra, della nostra mentalità tassonomica, delle divergenze tra scuole; o, piuttosto, di una utilizzazione delle tecnologie fuorviante solo perché prematura: certo è che, invece di pervenire ad una meta comune, ne abbiamo individuato una miriade, tutte importanti, certo, ma non così fondamentali come quella che, trent’anni fa, sembrava così vicina, mentre è tuttora parecchio lontana. Ho esplicitato questa preoccupazione per molto tempo, a partire dal lontano 1990 (Azzena 1994a) �no al 2004 (Azzena 2004a, 2004b), poi ho rinunciato. Oggi non uso quasi più il computer per lavorare alla cartogra�a delle mie ricerche, d’altra parte non sono mai stato quel che si dice un “entusiasta” delle nuove tecnologie: le usavo per risolvere alcuni problemi posti dalla mia disciplina, e perché sono pigro. In compenso lo usano gli studenti della mia Facoltà, che elaborano GIS, rilievi numerici, immagini tridimensionali. Lo fanno quotidianamente e con straordinaria nonchalance, quasi non fosse mai esistito un prima, faticoso e costoso, per certi versi anche doloroso. Come è giusto che sia, come avevamo previsto e volevamo che fosse. Io mi limito a tentare di spiegargli che esiste un metodo, al di là dell’informatica e come l’informatica ha magari contribuito a cambiarlo o a consolidarlo. Essenzialmente lo faccio nella speranza di ridare luce a qualcosa che, a mio avviso, proprio noi – i “giovani interfaccia” di qualche tempo fa – abbiamo contribuito ad annebbiare. Qualcuno, più di uno in verità, suggerisce con pervasiva lungimiranza che forse 174 Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali) larga parte della nostra insoddisfazione di uomini della contemporaneità derivi dal progressivo, incontrollabile e ormai ineludibile disincantamento del mondo. Indicandoci fessure e crepe irreparabili con le quali l’estremizzazione di certa sempli�cazione, pagata a pegno dell’aumento esponenziale delle fonti di sapere (e scambiata per neo-razionalismo), sta segnando il nostro pensiero con immensa potenza ma anche con la banalità del “globale”, la piattezza, l’uniformità, l’omologazione, la tassonomia della conoscenza. In tempi non sospetti, mi sono premurato di sottolineare come il fatto che fosse stato creato un SIT per la Forma Italiae signi�cava semplicemente che il metodo di indagine, la fondamentale acribia nella fase di acquisizione, e le possibilità di utilizzazione dei risultati avevano subito una produttiva accelerazione, forse anche un’utile risintonizzazione metodologica, ma certo non erano passate in secondo piano. Mi sembra anche di essere riuscito a dimostrare che il tentativo di rendere in forma numerica la carta archeologica del Trastevere (Azzena 1994b) in realtà non faceva che tradurre in forma di GIS l’idea, nonché l’insuperabile realizzazione, della Forma Urbis di Rodolfo Lanciani. Ho provato anche a spingere quella che, allora, era una comunità scienti�ca piuttosto ridotta verso la favolosa meta che le potenzialità uni�canti offerte dal supporto informatico indicavano con chiarezza come la più accessibile e che, invece, si sarebbe rivelata la più irraggiungibile: la “copertura integrale” della conoscenza archeologica di base mediante dati provenienti da tutte le ricerche in corso sul territorio nazionale. Resa �nalmente possibile, nonché gestibile, grazie alle potenzialità di un unico Sistema Informativo Territoriale Archeologico nazionale. Ad oggi niente del genere è stato realizzato e non c’era bisogno che ce lo confermasse una Commissione interministeriale, perché tutti abbiamo potuto assistere ad una diaspora sempre più intensa, ad una personalizzazione dei prodotti sempre più estremizzata. Nel pieno ribaltamento dell’assunto popperiano per il quale “non esistono discipline ma problemi da risolvere”, nel nostro caso le discipline hanno fatto qualche passo avanti mentre i problemi sono rimasti tali. Così oggi, quasi fossi un “pentito”, mi accontento di trasmettere agli studenti l’amore per il territorio, per il paesaggio: quella sorta di “affetto amicale” che impari mentre lo percorri per studiarlo e misurarlo, ma che non �ltra mai nelle trasposizioni scienti�che. Per quel territorio che è storico sempre, anche se non ci sono nuraghi, o terme romane, o aree di spargimento di �ttili. Per quel paesaggio che è stato offuscato, in secoli di legislazioni di tutela, dal concetto dei “beni”: archeologici, architettonici, storico-artistici, ora anche paesaggistici, in nome dei quali la complessità della memoria storica che si articola incontrollabile nello spazio è stata scomposta in “oggetti” da conservare immutati quanto privi di vita: punti, linee, aree, morfologie e quantità. E la norma va, naturalmente, appresso al pensiero: il “paesaggio” tramutato in “beni” paesaggistici nel Codice Urbani; o “componenti” di paesaggio per�no nel PPR della Regione Sardegna, da molti considerato eccezionalmente evoluto, segnatamente quando parla del 175 G. Azzena comparto storico-culturale. Mentre la storia è tutta nello spazio e lo spazio è, dunque, sempre e comunque storico, fuori e dentro i centri “storici” e le aree “archeologiche”, indipendentemente dal valore estrinseco dei singoli oggetti “vecchi” che esso eventualmente contiene. Nel momento in cui anche il paesaggio si avvia ad essere deportato a Flatlandia (ricordate? l’immaginaria città bidimensionale inventata da Edwin Abbott per prendere in giro la società vittoriana: Abbott 2003), af�do ai pastelli colorati degli studenti quelle tematizzazioni, sviluppate nei laboratori di progettazione, che riguardino l’evolversi dei processi storici sul territorio; e se qualcuno di loro usa gli strumenti GIS per rappresentare alcuni temi che mi stanno diventando cari, certo non glielo impedisco, ma le “applicazioni tecnologiche”, ormai, sono a loro demandate. In fondo non ho mai smesso di lavorare, anche se in un modo tanto trasverso, ad una (e per una) Carta Archeologica nazionale che, come strumento di conoscenza, non smette di sembrarmi insostituibile. Ma guardo, con una certa invidia, alle carte aptiche di Guillermo Kuitca, pittore argentino che dipinge mappe affettive su materassi, ogni nodo dei quali diviene tappa di una vita, snodo di una storia privata, ma universale perché si svolge nei luoghi e dunque nella storia. O alle installazioni di Maria Lai (artista sarda, classe 1919), che per “mostrare” la struttura storica e quella urbana del suo paese, Ulassai, dominato da un alto e minaccioso “tacco” supramontano, ha fatto legare, materialmente parlando, una casa all’altra con un nastro celeste, mostrando compartecipe ma severa attenzione agli affetti come alle discordie, alle memorie comuni e alle faide; per poi, in�ne, legare il paese al monte, a sottolinearne dipendenza e origine, cioè nascita ma anche – se pur non auspicabile – evenienza di morte. Le guardo con invidiosa ammirazione, senza rinnegare niente ma cercando, diciamo così, altri monti da legare. Giovanni Azzena Facoltà di Architettura di Alghero Università degli Studi di Sassari BIBLIOGRAFIA Abbott E.A. 2003, Flatlandia: storia fantastica a più dimensioni, Milano, Adelphi. Archeologia e Informatica. Atti del Convegno Nazionale (Roma 1988), Roma 1988, Quasar. Azzena G. 1994a, Proposta per una standardizzazione dei formati della cartogra�a archeologica con �nalità operative, in La cartogra�a dei beni storici 1994, 103-104. Azzena G. 1994b, Topogra�a di Roma antica: ipotesi per una sistematizzazione dei dati a valenza topogra�ca, «Archeologia e Calcolatori», 5, 269-292. Azzena G. 1997, Questioni terminologiche - e di merito - sui GIS in archeologia, in A. Gottarelli (ed.), Sistemi Informativi e reti geogra�che in archeologia: GIS - INTERNET. VII Ciclo di Lezioni sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena, 1995), Firenze, All’Insegna del Giglio, 33-43. 176 Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali) Azzena G. 2004a, Quale SIT per la Carta Archeologica? Orientamenti (e dubbi) nell’esperienza della Forma Italiae, in G. Rosada, K. Cerchiaro (eds.), Topogra�a Archeologica e sistemi informativi. Atti del Convegno Nazionale (Borgoricco 2001), Roma, Quasar. Azzena G. 2004b, Tancas serradas a muros. Tracce di incomunicabilità nel linguaggio archeologico, in P. Moscati (ed.), Nuove frontiere della ricerca archeologica. Linguaggi, comunicazione, informatica/New Frontiers of Archaeological Research. Languages, Communication, Information Technology, «Archeologia e Calcolatori», 15, 185-197. Benjamin W. 2002, I «passages» di Parigi, Torino, Einaudi. Bertin J. 1977, La graphique et le traitement graphique de l’information, Paris, Flammarion. Carandini A. 2008, Archeologia classica, Torino, Einaudi. D’Andria F. (ed.) 1987, Informatica e archeologia classica. Atti del Convegno Internazionale (Lecce 1986), Galatina, Congedo. Francovich R. 1999, Archeologia medievale e informatica: dieci anni dopo, «Archeologia e Calcolatori», 10, 45-63. Guermandi M.P. 2001, Il sistema C.A.R.T.: metodologia e tecnologia, in M.P. Guermandi (ed.), Rischio archeologico: se lo conosci lo eviti. Atti del Convegno di Studi su cartogra�a archeologica e tutela del territorio (Ferrara 2000), Firenze, All’Insegna del Giglio, 189-199. I modelli nella ricerca archeologica. Atti del Convegno Internazionale (Roma 2000), Roma 2003, Accademia Nazionale dei Lincei. Isabella L., Salzotti F., Valenti M. 2001, L’esperienza dell’insegnamento di Archeologia Medievale a Siena nel campo dell’informatica applicata, in M. De Marchi, M. Scudellari, A. Zavaglia (eds.), Lo spessore storico in urbanistica, Mantova, Società Archeologica, 31-64. La cartogra�a dei beni storici, archeologici e paesistici nelle grandi aree urbane: dal censimento alla tutela. Atti del Convegno Nazionale (Roma 1990), Roma 1994, Quasar. Lock G., Stančič Z. 1995, Archaeology and Geographic Information Systems: A European Perspective, London, Taylor & Francis. Moscati P. 1987, Archeologia e calcolatori, Firenze, Giunti. Moscati P. (ed.) 1998, Methodological Trends and Future Perspectives in the Application of GIS in Archaeology, «Archeologia e Calcolatori», 9. Pasquinucci M., Menchelli S. (eds.) 1989, La Cartogra�a archeologica: problemi e prospettive. Atti del Convegno Internazionale (Pisa 1988), Pisa, Amministrazione Provinciale. ABSTRACT Around the mid 1980s, the Italian sector – at the time very limited – of the archaeological sciences interested in geo-topographical problems responded eagerly to the practical and theoretical solutions offered by computer science and by advanced technologies, and became one of the most developed sectors in the European panorama in this particular subject. Twenty years later, we can observe, on one hand, the notable success of this type of applications that has, among other things, contributed to drive towards territorial studies many sectors of Italian research that had not previously been interested in it; and, on the other hand, the extreme fragmentation of the initiatives, that remains an unsolved problem for future developments. Within a single decade in fact we lost those guidelines that would have been able to transform some high but still distant peaks of quality, into a systematically coordinated approach, and, especially, in a common cognitive base, which was perhaps primitive but for this reason, “basic”, not only for the development of research, but also for a diffused and shared means of safeguarding our archaeological heritage. 177 Archeologia e Calcolatori 20, 2009, 179-187 LA CATALOGAZIONE INFORMATICA DEL PATRIMONIO ARCHEOLOGICO 1. Introduzione Le prime applicazioni informatiche al patrimonio culturale risalgono agli anni Sessanta del Novecento1. Le esperienze iniziali sono state di carattere prettamente documentario e hanno avuto il loro punto di gravitazione in speci�ci enti pubblici preposti alla documentazione e alla tutela dei beni, almeno a livello di grandi operazioni di catalogazione relative all’intero patrimonio nazionale. Il confronto con una nuova scienza, la scienza dell’informazione, ha portato ad affrontare i problemi posti dal ricorso a tecniche automatiche di trattamento dei dati e dalla formalizzazione del linguaggio: come descrivere in modo univoco, senza ambiguità, oggetti simili in modo da poter effettuare ricerche ef�caci in banche dati mirate alla catalogazione di oggetti mobili o di monumenti. La prima soluzione adottata per garantire uniformità di descrizione e di ricerca, e quindi per un controllo del linguaggio, è stata la creazione di “codici” mirati all’analisi delle diverse categorie di oggetti antichi o comunque di vocabolari di termini controllati o di veri e propri thesauri, che contenevano una classi�cazione di termini o di “parole-chiave” (Moscati 2002). Le attività si sono poi indirizzate verso la de�nizione dei cosiddetti “standard catalogra�ci”, cioè di tutte le normative, gli strumenti di supporto e di controllo, le regole e gli indirizzi metodologici che vanno seguiti al �ne di acquisire conoscenze sui beni e di produrre la documentazione che li riguarda, registrando i dati secondo criteri omogenei e condivisi e garantire così l’omogeneità terminologica e la creazione di strumenti informatici ad hoc. Già dalla seconda metà degli anni Settanta, l’informatizzazione del patrimonio culturale è stata oggetto di dibattito e di confronto tra i vari Paesi, soprattutto attraverso convegni ed incontri in cui si presentavano proposte, programmi e iniziative diversi a seconda dei diversi patrimoni nazionali e ci si confrontava sulle realizzazioni ottenute. Alcuni di questi Convegni si tennero in Italia, a Pisa, dove la Scuola Normale Superiore si dimostrò da subito particolarmente attenta alla nuova problematica del rapporto tra informatica e beni culturali (Barocchi, Bisogni 1978; Corti 1984). In particolare il Convegno del 1984, su Automating Processing of Art History Data and 1 La collaborazione al Convegno La nascita dell’informatica archeologica, di cui fa parte il presente contributo e il testo per una delle postazioni multimediali presentate all’Accademia dei Lincei, si è sviluppata nell’ambito del contratto che l’autrice ha stipulato, nel 2008, con l’Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico del CNR, collaborazione �nalizzata anche allo sviluppo di un sito web dedicato al museo virtuale dell’informatica archeologica. 179 A. Caravale Documents, con la ricchezza delle tematiche trattate, costituisce ancor oggi un punto di riferimento per chi voglia ricostruire la storia di questo settore (Corti 1984). I prossimi paragra� sono dedicati a una breve panoramica sulle principali istituzioni e operazioni di catalogazione in Europa, con particolare riguardo all’Italia e con riferimenti alla situazione in Inghilterra e in Francia, a partire dagli anni Settanta e Ottanta del Novecento. Sono questi infatti due decenni particolarmente rilevanti, in cui alle prime sperimentazioni isolate si susseguirono i grandi progetti nazionali, nati con scopi censitivi, ma ben presto coinvolti nel più ampio dibattito legato alla necessità di sviluppare strumenti, quali lessici e thesauri, ma anche tecniche di indicizzazione e recupero delle informazioni. 2. In Italia In Italia il punto di riferimento istituzionale per le problematiche di catalogazione del patrimonio culturale è l’Istituto Centrale per il Catalogo e la Documentazione (ICCD)2, la cui attività pluridecennale, caratterizzata da una funzione di indirizzo e di coordinamento, è culminata nella recente realizzazione del Sistema Informativo Generale del Catalogo (SIGEC), «ideato con il preciso scopo di consentire la gestione integrata di tutte le componenti conoscitive – alfanumeriche, multimediali, geogra�che – disponibili per i beni»3 (Mancinelli 2004, 115). L’ICCD, nato nel 1975 sotto la guida di Oreste Ferrari, si occupa del coordinamento delle attività di ricerca per la de�nizione degli standard per la catalogazione nei settori archeologico, architettonico-ambientale, storico-artistico ed etnoantropologico (Papaldo, Ruggeri 1993). Nei primi anni Ottanta del Novecento si avviò lo studio di un programma di gestione automatizzata del Catalogo dei Beni Culturali, �nalizzato alla creazione di banche dati dei beni conservati nei musei o presenti nel territorio (Papaldo, Matteucci 1983) e venne dedicato un grande sforzo alla progettazione di un atlante storico-geogra�co, attraverso la de�nizione di un approccio metodologico �nalizzato alla realizzazione di una banca dati storico-geogra�ca (Ferrari 1989; Papaldo, Signore 1989). Sempre negli anni Ottanta l’Istituto ha lavorato per la creazione di dizionari terminologici �nalizzati a garantire l’omogeneità nella catalogazione4, nonché di schede di http://www.iccd.beniculturali.it/. http://www.iccd.beniculturali.it/Catalogazione/sistemi-informativi/. 4 Nel 1980 è stato pubblicato come primo il Dizionario terminologico dei materiali dell’età del bronzo �nale e della prima età del ferro, a cura di F. Parise Badoni. 2 3 180 La catalogazione informatica del patrimonio archeologico rilevamento dei beni, in cui i dati oggettivi, cioè quelli relativi alla locazione, provenienza, datazione, autore, materia, conservazione e documentazione fotogra�ca, risultano distinti da quelli soggettivi, cioè da quelli relativi alla descrizione, interpretazione e fortuna storico-critica. Le schede di catalogo realizzate dall’ICCD, disponibili oggi anche online sul sito web dell’Istituto5, sono di diverse tipologie. Per i beni archeologici esistono quelle NU (beni numismatici), RA (reperto archeologico), TMA (tabella materiali), AT (reperti antropologici), SI (sito archeologico), SAS (saggio stratigra�co), MA/CA (monumento archeologico/complesso archeologico); per lo scavo sono impiegate invece le schede US (unità stratigra�ca), USR (unità stratigra�ca di rivestimento) e USM (unità stratigra�ca muraria), de�nite dalle normative dettate da F. Parise Badoni e da M. Ruggeri Giove nel 1984 e nel 1988 (Parise Badoni, Ruggeri Giove 1984, 1988, anche on-line6). I dati delle diverse schede possono essere messi in relazione tra loro e possono con�uire in schede “a più ampio plesso”, come quelle dei centri urbani (Papaldo, Ruggeri 1993, 323). Nel corso degli anni esse si sono fatte più complesse nell’organizzazione, rendendo possibile un maggiore dettaglio nella descrizione dei dati. Per i beni mobili, immobili e territoriali archeologici e storico-artistici sono stati inoltre realizzati strumenti software per l’informatizzazione delle schede che li riguardano. Uno dei primi programmi, SAXA (Sistema per l’Acquisizione Controllata delle Schede dell’Arte) venne realizzato in collaborazione con l’IBM Italia; esso permetteva l’acquisizione delle schede secondo le norme stabilite dall’Istituto, la loro esportazione, le ricerche articolate e le estrazioni selettive di dati (Papaldo, Ruggeri 1993, 111). Più recente il programma DESC, con data entry, stampa e consultazione, che venne dotato anche di una prima interfaccia di tipo user-friendly, che ne facilitava l’utilizzo da parte degli archeologi. Esperimenti di informatica archeologica furono anche condotti, negli ultimi anni Ottanta, da alcuni progetti di ricognizione e classi�cazione dei beni archeologici, architettonici, ambientali, artistici e storici ed etnogra�ci, sviluppati nell’ambito dell’iniziativa sui “giacimenti culturali” (progetti ex art. 15 legge 41/1986). Un corposo �nanziamento di circa seicento miliardi fu destinato ad iniziative volte alla valorizzazione dei beni culturali e al loro recupero tramite l’uso di tecnologie avanzate e alla creazione di occupazione di giovani. Tali progetti hanno interessato diverse regioni del nostro Paese http://www.iccd.beniculturali.it/Catalogazione/standard-catalogra�ci/normative/nomative/. http://www.iccd.beniculturali.it/Catalogazione/standard-catalogra�ci/normative/nomative. Per le altre tipologie di schede cfr. la bibliogra�a su http://www.iccd.beniculturali.it/Documentazione/collezioni-bibliogra�che/catalogazione/). 5 6 181 A. Caravale e si sono occupati di trattare la grande quantità di dati ottenuti con banche dati alfanumeriche, contenenti schede realizzate su modelli dell’ICCD (AA. VV. 1989). Di alcuni di questi progetti, come “Neapolis”, “Pinacos, Eubea - Puteolis”, “T.A.R.A., Rami incisi delle Antichità Ercolanesi”, che hanno realizzato, tra il 1987 e il 1992, un impegnativo lavoro di catalogazione dei beni presenti a Napoli e nelle altre città dell’area vesuviana, si stanno ora cercando di recuperare i dati nell’ambito di altri progetti di più recente sviluppo. Purtroppo, non tutte le iniziative sviluppate nell’ambito dei giacimenti culturali hanno avuto un risultato positivo: diversi sono stati i progetti improvvisati, non in grado di creare successive strutture di lavoro più stabili e non si è stati sempre in grado di sfruttare al meglio il grosso sforzo impiegato nella formazione di giovani, che dopo la �ne quell’esperienza si sono nuovamente trovati nella dif�coltà del lavoro precario. L’esperienza è comunque stata utile per porre in risalto alcune problematiche comuni connesse alla catalogazione informatizzata, che si è poi tentato di sviluppare negli anni successivi, come quello di utilizzare sistemi tra loro compatibili e coerenti (Ferrari 1991, 15). Nel settore della catalogazione informatizzata, altro punto di riferimento istituzionale italiano, anche se diverso dall’ICCD per natura, compiti e �nalità, è la Scuola Normale Superiore di Pisa che, dalla �ne degli anni Settanta, si è occupata di catalogazione e gestione dei dati, di trattamento automatizzato di fonti e documenti e della creazione di lessici e thesauri, anche in collaborazione con l’Accademia della Crusca e, per il settore storico-artistico, con il J. Paul Getty Trust di Los Angeles (Parra 1993). La Scuola ha promosso numerosi progetti relativi al patrimonio archeologico, storico-artistico e archivistico, anche tramite il Centro di ricerche informatiche per i beni culturali (CRIBECU, oggi SIGNUM7) attualmente impegnato nella realizzazione di opere di catalogazione fruibili anche in rete (come Cart, catalogazione di opere d’arte della Regione Toscana), di archivi testuali, documentali e visivi e nella promozione di seminari e stage. Il Centro ha pubblicato dal 1980 al 2002 il «Bollettino d’Informazioni del Centro di Ricerche Informatiche per i Beni Culturali», con lo scopo di raccogliere contributi di studiosi italiani e stranieri nel settore della ricerca e della catalogazione informatica dei beni culturali, af�ancato da «Quaderni» monogra�ci. 3. In Gran Bretagna In Europa altri Paesi hanno operato, anche prima dell’Italia, in questo settore. L’Inghilterra è il Paese più all’avanguardia: qui l’opera di catalogazione 7 182 http://www.signum.sns.it/. La catalogazione informatica del patrimonio archeologico è iniziata in tempi quasi pionieristici a cura della Royal Commission on the Historical Monuments of England (RCHME), fondata nel 1908 con il �ne di costituire un inventario dei monumenti del Paese costruiti �no al XVIII secolo (a partire dalla metà degli anni Quaranta il censimento si allargò �no a comprendere gli edi�ci costruiti �no al XX secolo)8. Alla Royal Commission è stato nel 1963 aggiunto il National Monuments Record (NMR) “to include archaeology, as well as architectural information and archives within it”; nel 1999 la Royal Commission è stata assorbita dall’English Heritage9. Ai �ni del settore archeologico, è importante attualmente il contributo dell’Archaeology Data Service (ADS)10 per la creazione e la manutenzione di archivi digitali nella ricerca archeologica. La mission dell’ADS è quella di sostenere “research, learning and teaching with high quality and dependable digital resources”, conservando “digital data in the long term, and by promoting and disseminating a broad range of data in archaeology”. Il servizio inoltre “promotes good practice in the use of digital data in archaeology, provides technical advice to the research community, and supports the deployment of digital technologies”. Sono attualmente catalogati oltre un milione tra interventi archeologici, siti e monumenti, schedati utilizzando vocabolari controllati e richiamabili anche tramite una carta interattiva; è fornita anche una breve bibliogra�a, nonché indicazioni per un approfondimento della ricerca. Molto valido il lavoro condotto in questi Paesi sugli standard da utilizzare in ambito archeologico, largamente impiegati dalle istituzioni e particolarmente ricchi in quanto a problematiche considerate. Due sono quelli principali. Il primo, SPECTRUM (The UK Museum Documentation Standard), è uno standard per la gestione delle collezioni nato nel 1994 (con un successivo aggiornamento nel 1997) sulla base dell’esperienza di specialisti impegnati nel lavoro di documentazione nei musei britannici. Impiegato nella gestione delle collezioni librarie, archivistiche e museali, esso «de�nisce le procedure per la documentazione di oggetti e i processi a cui essi devono essere sottoposti per l’identi�cazione e descrizione delle informazioni necessarie a registrare e supportare le procedure» (D’Andrea 2006, 83). È scaricabile gratuitamente dalla rete11, dopo una registrazione da parte dell’utente interessato. L’altro standard impiegato in ambito archeologico è MIDAS (A Manual and Data Standard for Monument Inventories), sviluppato dall’English He8 Per la storia della Royal Commission on the Historical Monuments of England cfr. anche http://www.english-heritage.org.uk/server/show/nav.19925/ e Aberg , Leech 1992. 9 http:// http://www.english-heritage.org.uk/server/show/nav.2/. 10 http://ads.ahds.ac.uk/. 11 http://www.mda.org.uk/spectrum.htm. 183 A. Caravale ritage12. Finalizzato, tra l’altro, a migliorare il recupero delle informazioni tramite procedure automatizzate, a dare un formato comune per l’inventario dei monumenti e a sempli�care lo scambio di dati tra i diversi inventari esistenti, lo standard MIDAS fornisce agli utenti una comune cornice per lo sviluppo indipendente delle procedure di inventariazione con l’impiego di informazioni e descrizioni di base comuni per i beni catalogati. 4. In Francia Standardizzazione del linguaggio e strutturazione dei dati sono problematiche affrontate anche in Francia, grazie alle ricerche pionieristiche di J.-C. Gardin e R. Ginouvès. Qui opera dal 1964 l’Inventaire général des monuments et richesses artistiques de la France, la cui attività di catalogazione è stata preceduta dalla realizzazione di vocabolari controllati al �ne di agevolare l’uniformità delle informazioni13. Nato nel 1964 per volontà dell’allora ministro della cultura André Malraux e di André Chastel, l’Inventaire (Inventaire général du patrimoine culturel o semplicemente Inventaire général) aveva l’obiettivo di “recenser, étudier, faire connaître toute œuvre qui, du fait de son caractère historique, artistique ou archéologique, constitue un élément du patrimoine national”. In un momento in cui la Francia conosceva profondi cambiamenti nel suo paesaggio, si avvertì dunque la necessaria esigenza di «constituer au niveau national et sur tout le territoire, un ensemble documentaire pérenne et accessible à tous, dont l’exploitation scienti�que et la publication soient les prolongements logiques» (de Massary, Coste 2007). Anche in Francia un grosso sforzo iniziale è stato indirizzato verso la de�nizione di adeguate procedure di documentazione, a partire dalla identi�cazione delle varie categorie di informazioni e dei termini più adatti a descriverle. Dal 2004 il servizio è portato avanti su base regionale, da ricercatori con competenze diverse, per ciascuna delle 22 regioni della Francia. Elabora informazioni (banche dati, testi, fotogra�e, rilievi, cartogra�a, bibliogra�a) sugli edi�ci e sui beni artistici del Paese che si trovano in situ compresi cronologicamente tra il 400 d.C. e trenta anni dal momento della realizzazione del catalogo. Lo Stato, che ha conservato il controllo e il coordinamento del progetto, contribuisce a diffondere i risultati del lavoro tramite banche dati accessibili in rete e garantisce il controllo scienti�co dell’opera, nonché l’omogeneità delle informazioni, il metodo di procedimento, i vocabolari controllati. Sono attualmente consultabili in rete alcune importanti banche dati. 12 13 184 http://www.english-heritage.org.uk/server/show/nav.8331/. http://www.inventaire.culture.gouv.fr/. La catalogazione informatica del patrimonio archeologico Da quella, detta Joconde, dedicata alle collezioni dei musei nazionali francesi, con notizie sulle opere e fotogra�e delle stesse14, a quella sugli edi�ci storici e sul loro mobilio (Architecture et Patrimoine15), all’altra sui monumenti del XX secolo16. L’Inventaire è basato su sistemi di Information Retrieval, con informazioni inserite in campi descrittivi, riempiti con testo libero o con termini da vocabolari controllati, che vanno poi a con�uire in categorie più generali (localizzazione geogra�ca, oggetto, cronologia, de�nizione culturale, dati tecnici, analitici e amministrativi). 5. Conclusioni Lo sviluppo delle tecnologie informatiche ha avuto nel tempo una sensibile in�uenza sulle metodologie di catalogazione dei beni culturali, determinando l’evoluzione dalle banche dati ai sistemi multimediali e quindi allargando l’obiettivo di tali strumenti dalla catalogazione alla divulgazione. La rete è divenuta ambiente privilegiato per la consultazione e la condivisione delle conoscenze, per facilitare l’opera e l’integrazione degli enti preposti alla documentazione e alla tutela dei beni, ma anche per la fruizione da parte di un pubblico più ampio. L’obiettivo oggi non è più quello della catalogazione del solo bene ma anche delle sue relazioni con il contesto culturale di riferimento, mentre dal punto di vista informatico si tende non tanto alla de�nizione di standard omogenei, quanto piuttosto alla interoperabilità fra sistemi nati con caratteristiche e �nalità differenti, ma tutti utili all’accrescimento delle informazioni in una dimensione sovranazionale. Alessandra Caravale Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico CNR – Roma BIBLIOGRAFIA AA.VV. 1989, Rapporto sui progetti ex art. 15 Legge 41/1986, Catalogo della mostra, Roma. Aberg F.A., Leech R.H. 1992, The National Archaeological Record for England. Past, Present and Future, in C.U. Larsen, Sites and Monuments. National Archaeological Records, Kobenhavn, The National Museum of Denmark, 157-170. Barocchi P., Bisogni F. (eds.) 1978, First International Conference on Automatic Processing of Art History Data and Documents (Pisa 1978), Pisa. http://www.culture.gouv.fr/documentation/joconde.fr/pres.htm. http://www.culture.gouv.fr/culture/inventai/patrimoine/. 16 http://www.culture.gouv.fr/culture/inventai/itiinv/archixx/index.html. 14 15 185 A. Caravale Barocchi P., Fileti Mazza M. 2000, s.v. Beni culturali e ambientali. Beni culturali e informatica, in Enciclopedia Italiana, Appendice 2000, I, Roma, Istituto della Enciclopedia Italiana Treccani, 177-181. Corti L. (ed.) 1984, Automatic Processing of Art History Data and Documents, Proceedings and Papers (Pisa 1984), Firenze, Regione Toscana. Corti L. 1992, Beni Culturali, standard di rappresentazione, descrizione e vocabolario, Modena, Panini. Corti L. 1999, I Beni Culturali e la loro catalogazione, Torino, Paravia. D’Andrea A. 2006, Documentazione archeologica, standard e trattamento informatico, Budapest, Archaeolingua. de Massary X., Coste G. 2007, Principes, méthodes et conduite de l’Inventaire général du patrimoine culturel, Ministère de la Culture et de la Communication (http://www.culture. gouv.fr/culture/inventai/presenta/normes/livretPMC/livretPMC_2007.pdf). Ferrari O. 1989, Esperienza archeologica e catalogazione, «Bollettino di Archeologia», 1, 24-25. Ferrari O. 1991, La catalogazione dei beni archeologici e le tecnologie informatiche, «Archeologia e Calcolatori», 2, 13-17. Ginouvès R., Guimier-Sorbets A.-M. 1978, La constitution des données en archéologie classique, Paris, CNRS. Mancinelli M.L. 2004, Sistema informativo generale del catalogo: nuovi strumenti per la gestione integrata delle conoscenze sui beni archeologici, «Archeologia e Calcolatori», 15, 115-128. Moscati P. 1994, Informatica e Beni Culturali, in M. Cristofani (ed.), Beni Culturali. Ricerca - Didattica - Pro�li professionali. Atti del Convegno (Napoli 1991), Napoli, Università degli Studi di Napoli “Federico II”, 49-59. Moscati P. 2002, L’informatica in archeologia, in Il mondo dell’archeologia, I, Roma, Istituto della Enciclopedia Italiana Treccani, 318-323. Papaldo S., Matteucci D.R. 1983, Studio di un programma di gestione automatizzata del Catalogo dei beni culturali, Roma-Pisa, ICCD-CNUCE. Papaldo S., Ruggeri M. 1993, La catalogazione automatizzata del patrimonio archeologico nazionale in Italia, in J. Boardman, D.C. Kurtz (eds.), International Conference on Data and Image Processing in Classical Archaeology (Ravello 1992), «Archeologia e Calcolatori», 4, 323-327. Papaldo S., Signore O. (eds.) 1989, Un approccio metodologico per la realizzazione di una banca dati storico-geogra�ca / A Methodological Approach to Producing a HistoricalGeographical Databank, Roma, Multigra�ca. Parise Badoni F., Ruggeri Giove M. (eds.) 1984, Norme per la redazione della scheda del saggio stratigra�co, Roma, Multigra�ca. Parise Badoni F., Ruggeri Giove M. (eds.) 1988, Strutturazione dei dati delle schede di catalogo: beni archeologici immobili e territoriali, Roma-Pisa, ICCD-CNUCE. Parra M.C. 1993, Applicazioni informatiche nel campo dei beni culturali: le esperienze della Scuola Normale Superiore di Pisa, in J. Boardman, D.C. Kurtz (eds.), International Conference on Data and Image Processing in Classical Archaeology (Ravello 1992), «Archeologia e Calcolatori», 4, 101-107. Signore O. 1993, Cataloguing art objects: a comparison between French and Italian standards, in European Museum Documentation Strategies and Standards. Proceedings of an International Conference (Canterbury 1991), Cambridge, Museum Documentation Association, 138-140. Trigari M. 1992, Come costruire un thesaurus, Modena, Panini. Vasco Rocca S. 2002, Beni Culturali e catalogazione. Principi teorici e percorsi di analisi, Roma, Gangemi. 186 La catalogazione informatica del patrimonio archeologico ABSTRACT The article presents a brief description of the principal institutions which, during the 1970s and 1980s, were in charge of the computer cataloguing of their respective national cultural heritages, with speci�c emphasis on archaeological heritage. Particular attention is dedicated to the Italian experience, with some reference to the situation in England and in France during the same period. The 1970s and 1980s are, in fact, two particularly remarkable decades, in which centralised national projects followed the �rst isolated experimentations, and developed tools, such as lexicons and thesauri, as well as techniques for indexing and information retrieval. The article focuses in particular on the activity conducted in Italy by the Istituto Centrale per il Catalogo e la Documentazione (ICCD), as well as that of the Scuola Normale Superiore in Pisa. As far as England is concerned, the Author describes the pioneer research work of the Royal Commission on the Historical Monuments of England (RCHME), founded in 1908, and, more recently, that of the Archaeology Data Service (ADS); for France, the Author focuses on the work conducted since 1964 by the Inventaire général des monuments et richesses artistiques de la France. 187 Archeologia e Calcolatori 20, 2009, 189-204 1984-2009 DA TE.M.P.L.A. AL CENTRO DI RICERCA PER LE TECNOLOGIE MULTIMEDIALI APPLICATE ALL’ARCHEOLOGIA. UN CASO DI STUDIO NELLA STORIA DELLE APPLICAZIONI MULTIMEDIALI IN ARCHEOLOGIA 1. Introduzione La nascita del Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia, istituito presso il Dipartimento di Archeologia dell’Università di Bologna nel 2001, ha radici nella storia stessa dell’evoluzione delle tecnologie informatiche e del loro affermarsi in ambito archeologico. In chiave retrospettiva, i modi ed i tempi di questo percorso vanno oggi riletti alla luce dei passaggi fondamentali che hanno caratterizzato il lento progresso delle applicazioni informatiche-multimediali nel periodo compreso tra gli inizi degli anni ’80 e la metà degli anni ’90. Più che la capacità di immaginare scenari applicativi, soluzioni concettuali o rivoluzioni metodologiche, fu determinante in quegli anni operare scelte di campo strategiche rispetto alle limitatissime possibilità offerte dalle nascenti tecnologie informatiche, in quella fascia di costo che risultava essere compatibile con i limitati budget della ricerca archeologica. Il quadro delle possibilità di gestione complessiva di immagini, suoni e �lmati, alla �ne degli anni ’70 offriva uno scenario desolante, molto al di sotto delle aspettative che i mezzi di comunicazione avevano indotto negli anni precedenti. Se sulla carta l’informatica già prometteva la rivoluzione di ogni consuetudine operativa nei più svariati ambiti applicativi, il completo passaggio al digitale dei sistemi multimediali analogici di massa dell’epoca, basati su supporti a nastro per la registrazione/archiviazione audio-video e su pellicola per la fotogra�a, avrebbe comportato, �no ai giorni nostri, un lungo e travagliato processo di assestamento dell’intero comparto industriale dell’elettronica su nuovi standard tecnologici. Questo orizzonte spaziava dalla revisione delle tecnologie di input-output dei dati, all’innovazione dei supporti di registrazione ed archiviazione, a quella dei sistemi di connessione e dei protocolli di trasmissione, �no all’implementazione dell’intero assetto hardware e software degli elaboratori, compresa la necessità di ripensare l’architettura dei sistemi operativi in chiave multimediale, dotandoli di un’interfaccia di tipo gra�co basata su un linguaggio di tipo iconico più che testuale. In questo scenario, le applicazioni multimediali in archeologia subivano un netto ritardo rispetto ad altri segmenti applicativi, in particolare 189 A. Gottarelli quelli orientati alla gestione delle banche dati e alla loro rappresentazione quantitativa e spaziale su base matematico-statistica, che risultavano già più maturi in un contesto di tecnologie ancora limitato al solo trattamento dei dati di tipo alfanumerico. In campo gra�co, i maggiori progressi tecnologici dei primi anni ’80 si limitavano ad ambiti funzionali trainati dalle capacità di investimento del settore industriale, quali il segmento della progettazione CAD-CAM dell’industria meccanica e quello della sensoristica e dei sistemi di visione nell’ambito dei processi di automazione. Da questi prenderanno le mosse le prime applicazioni in ambito archeologico, con esperienze pilota legate alla modellazione tridimensionale wireframe di grandi emergenze monumentali e al trattamento dell’immagine elettronica da telecamera. In riferimento a quest’ultimo, le prime applicazioni svolte in Germania e legate al riconoscimento automatico dei pro�li di materiali ceramici, daranno il via ad una tematica, quella del trattamento numerico dell’immagine, che avrà ampi sviluppi nel decennio successivo. È in questa fase pioneristica che nel 1985 lo scrivente inizia la sperimentazione di sistemi di rilevamento videometrico dello scavo archeologico presso l’allora Istituto di Archeologia dell’Università di Bologna, con il sostegno di Daniele Vitali, direttore degli scavi del complesso etrusco-celtico di Monte Bibele, sull’Appennino bolognese (Fig. 1). Presentati i risultati ottenuti al Convegno Informatica e Archeologia classica, tenutosi a Lecce nel 1986 (D’Andria 1987), prenderà vita nel decennio successivo un lungo iter di sperimentazione su svariati siti italiani ed esteri, promuovendo le soluzioni di telerilevamento da stativo e mosaicatura digitale presso numerosi centri di ricerca (Fig. 2). I contenuti del Convegno di Lecce, prima occasione di confronto delle esperienze italiane, tratteggiano con esattezza lo stato dell’arte della disciplina in quegli anni. La maggioranza degli interventi risultavano orientati al progetto di basi dati e alla loro elaborazione matematico-statistica, mentre due soli erano i contributi di natura multimediale: la ricostruzione 3D wireframe del grande complesso monumentale di Babilonia, basata su sistema Catia (CAD francese di derivazione aerospaziale), e lo studio preliminare sull’applicazione della videodocumentazione digitale dello scavo archeologico (videometria) sul Monte Bibele (Gottarelli 1987). A posteriori quei soli interventi, oltre che rappresentare due tra i più promettenti �loni delle applicazioni informatiche in archeologia, anticipavano la dicotomia che avrebbe caratterizzato l’insieme delle esperienze degli anni ’90, rispetto al diverso approccio che poteva essere dato al problema da parte degli operatori. Da un lato grandi tecnologie di alto costo, grandi investimenti e la tendenza a manifestare esperienze pilota di grande impatto, ma che dif�cilmente potevano permeare le consuetudini operative della massa 190 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia Fig. 1 – 1986. Prime applicazioni della videometria digitale presso l’abitato etrusco-celtico di Pianella di Monte Savino, Monte Bibele, Bologna. degli archeologi. Dall’altro la �loso�a del “fai da te”, del costo compatibile e della ri�essione su applicazioni che fossero commisurate all’avanzamento delle potenzialità tecnologiche della fascia consumer. In quest’ultimo caso, l’esperienza della videometria era espressamente conseguente all’uscita sul mercato, nel 1984, del personal computer Apple Macintosh, il primo con un mouse di serie e con una interfaccia di tipo WIMP (Windows, Icons, Mouse, Pointer), a cui fu presto possibile interfacciare un convertitore analogico digitale per la digitalizzazione di immagini da telecamera. Queste potevano essere acquisite a 1 bit di profondità cromatica, il cui dettaglio gra�co era l’equivalente di un disegno puntinato al tratto. Fa sorridere pensare che quei primi esperimenti di elaborazione dell’immagine dello scavo archeologico avvenissero su un computer che, pur essendo cento 191 A. Gottarelli Fig. 2 – 1986. Videometria digitalizzata dello scavo di una abitazione: livello raster ad 1 bit di profondità cromatica e livello vettoriale. Scavi di Pianella di Monte Savino, Monte Bibele, Bologna. volte più potente di quello che, solo quindici anni prima, aveva condotto l’uomo sulla Luna, si presentava con 128 Kb di memoria RAM, senza hard disk e con memoria di archiviazione e sistema operativo residenti su dischetto removibile da 400 Kb! Contrariamente ai settori applicativi della gestione del dato alfanumerico e della gra�ca vettoriale, che già avevano raggiunto l’integrità funzionale nei sistemi di acquisizione, elaborazione ed edizione, il settore della gra�ca raster e della elaborazione ed archiviazione di immagini, suoni e �lmati iniziava quell’inseguimento per il raggiungimento degli standard minimi di integrità del dato che avrebbe interessato il decennio successivo e su cui un ruolo trainante per il mercato consumer lo ebbero le soluzioni innovative della piattaforma Apple. I livelli minimi per lo standard video si raggiunsero nel 1988, con il formato NTSC (640×480), limitatamente all’immagine a livelli di grigio, 192 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia o colore a 8 bit. Nel 1990 si raggiunse lo standard PAL (768×576) con possibilità di gestione colore a 24 bit. Per la pienezza di gestione del dato multimediale video, con suono 48 Mhz, formato PAL a 24 bit di profondità cromatica visualizzato a 25 fotogrammi al secondo, bisognerà attendere il nuovo millennio, con il completo assestamento dei protocolli di connessione audio-video, la maturazione dei supporti DVD e la completa conversione al digitale di telecamere e apparecchi fotogra�ci. Innovazioni cui si dovettero far corrispondere fattori di crescita esponenziale delle capacità di calcolo e di dimensione dei processori e dei supporti di archiviazione. A tutto ciò corrispondeva in ambito archeologico un progressivo diffondersi di esperienze legate alla costituzione di sistemi di archiviazione di immagini e alla visualizzazione museogra�ca, mentre nell’ambito della modellazione gra�ca si introduceva la possibilità di integrare nei tradizionali CAD di origine industriale la componente raster, quale elemento qualitativo di rappresentazione delle super�ci. L’uscita sul mercato di modellatori più orientati alla rappresentazione architettonica e ambientale di tipo analiticoqualitativo, con tecnologie derivate dall’industria dei video games e da quella cinematogra�ca, comportava, nei primi anni ’90, l’annuncio e la rapida diffusione della “virtual archaeology” (Reilly 1990), quale tematica di punta per la modellizzazione e visualizzazione del dato archeologico, cui andava assegnata, negli anni a venire, una particolare importanza nella diffusione e spettacolarizzazione dei contenuti della ricerca archeologica presso il grande pubblico (Forte 1996; Barceló, Forte, Sanders 2000). 2. La nascita di Te.m.p.l.a. Ma i veri elementi di innovazione della pratica del lavoro dell’archeologo, e della disciplina in generale, riguardavano la crescita in quel contesto di una nuova generazione di giovani studiosi che si rendevano via via capaci di una gestione più consapevole e condivisa della risorsa informatica, nel rispetto delle speci�cità dei diversi ambiti applicativi della ricerca. A coloro che si posero in tale prospettiva apparve subito chiaro che la corsa al potenziamento dei contenuti multimediali che un elaboratore poteva acquisire ed archiviare avrebbe posto altrettanto celermente il problema della reale capacità relazionale che i pacchetti software dell’epoca offrivano nella gestione di questa crescente e variegata massa di dati. Era in sostanza necessaria una radicale innovazione concettuale nell’architettura dei software, in particolar modo per quel principio che vedeva gli applicativi nascere sulle esigenze della grande domanda del mercato, e dunque marchiati su funzioni speci�che e su speci�che tipologie di dati. La svolta silente si ebbe con l’introduzione sul mercato, nel 1987, di HyperCard la prima piattaforma programmabile per la gestione di dati iper193 A. Gottarelli Fig. 3 – 1999. Videata del CD multimediale interattivo realizzato in occasione della mostra I principi etruschi tra Mediterraneo ed Europa. Museo Civico Archeologico di Bologna. testuali, termine a cui nel tempo verrà attribuita la capacità di rappresentare strutture relazionali tra i diversi media. Precursore ed ispiratore del protocollo HTTP (HyperText Transfer Protocol) e del Javascript, sulla sua scia si evolveranno piattaforme di sviluppo con potenziate funzionalità, quali SuperCard e principalmente Director, che costituiranno l’ossatura per lo sviluppo in archeologia di una moltitudine di soluzioni multimediali basate su linguaggi object-oriented, nei più svariati ambiti applicativi: dalla realizzazione di piccoli software dedicati a speci�che funzioni, ai sistemi di archiviazione dei media su base relazionale; dai chioschi informativi per allestimenti museogra�ci, ai prodotti multimediali distribuiti su supporti CD e DVD (Fig. 3). Proprio attraverso la sperimentazione di soluzioni integrate per la gestione del dato multimediale, �n dal 1988 si intraprendono i primi passi verso soluzioni applicative basate su sistemi ipertestuali. In quell’anno viene presentato presso la Summer School in archeologia della Certosa di Ponti194 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia gnano di Siena, dedicata a Le scienze in archeologia (Mannoni, Molinari 1990), un primo sistema informativo ipertestuale relativo all’archiviazione delle impronte digitali e dattilari sulla ceramica a vernice nera di Monte Bibele, da cui ha inizio una lunga e pro�cua collaborazione dello scrivente con il Dipartimento di Archeologia e Storia delle Arti dell’Università di Siena, illuminato dalla �gura indimenticabile di Riccardo Francovich, concorrendo alla costruzione del sistema informativo e dei laboratori informatici di quella istituzione. Nello stesso 1990, per iniziativa di Francovich e di Mauro Cristofani e per cura di Paola Moscati, prenderà il via il piano editoriale della rivista «Archeologia e Calcolatori», punto di riferimento imprescindibile negli anni a venire per gli sviluppi di tale disciplina. La possibilità dei giovani archeologi di poter intervenire direttamente sullo sviluppo del software, o quantomeno di comprenderne i meccanismi di progettazione, modi�cava radicalmente i termini di quel dif�cile rapporto che negli anni precedenti era intercorso tra le �gure professionali tradizionali del mondo dell’informatica e quello dell’archeologia. E questa si rivelava essere la premessa che avrebbe dato ai “Metodi informatici della ricerca archeologica” quel pieno titolo e quella dignità disciplinare che, agli inizi del nuovo millennio, ne avrebbe consentito l’inserimento tra gli insegnamenti caratterizzanti l’iter formativo universitario dell’archeologo. È in questo contesto che, a partire dal 1992, viene istituito il primo insegnamento di “Informatica applicata all’archeologia” presso l’Università di Siena, e che lo scrivente si costituisce in Te.m.p.l.a., studio professionale per la realizzazione di sistemi informativi e prodotti multimediali, dando inizio ad una lunga collaborazione con svariati Musei, Soprintendenze e Università italiane, e promuovendo numerose realizzazioni di sistemi informativi multimediali, progetti museogra�ci e video in computer gra�ca. Tra questi, nel 1994, realizza una delle prime applicazioni italiane di “virtual archaeology”, con la ricostruzione della tomba egizia del generale Horemheb (Fig. 4), parte integrante del rinnovato allestimento museogra�co della sezione egizia del Museo Civico Archeologico di Bologna (Gottarelli 1996). Con la direzione della Summer School della Certosa di Pontignano sul tema Sistemi informativi e reti geogra�che in archeologia: GIS-INTERNET (Gottarelli 1997), il tema delle tecnologie multimediali in archeologia si affaccia sul web, agli albori della sua affermazione di massa. Nello stesso 1995 è istituito presso la Facoltà di Conservazione dei Beni Culturali dell’Università di Bologna l’insegnamento di “Tecniche della documentazione, classi�cazione ed edizione”, primo insegnamento di informatica applicata all’archeologia attivato presso tale Università. In seguito, nel 2001, viene fondato presso il Dipartimento di Archeologia dell’Università di Bologna il Centro di Ricerca dipartimentale Te.m.p.l.a - “Tecnologie Multimediali per l’Archeologia”, e viene istituito, coerentemente con la declaratoria del nuovo 195 A. Gottarelli Fig. 4 – 1993. Un fotogramma del video in computer gra�ca con la ricostruzione 3D della tomba men�ta del generale Horemheb. Museo Civico Archeologico di Bologna. ambito disciplinare “Metodologia della ricerca archeologica” (L-ANT/10), l’insegnamento di “Metodi informatici della ricerca archeologica” presso la Facoltà di Conservazione dei Beni Culturali. Al Centro Te.m.p.l.a. saranno da assegnarsi negli anni seguenti numerosi progetti e realizzazioni ad alto contenuto di innovazione tra cui: il primo sistema multimediale tridimensionale basato su schermo statico dinamico, presso il Castello di Beseno (Trento) e la realizzazione del primo Museo Multimediale Polifunzionale presso il parco naturalistico di Onferno, nel Comune di Gemmano (Rimini). 3. Un Centro di Ricerca per la multimedialità in archeologia L’esperienza maturata nel corso dei due decenni precedenti aveva fatto comprendere che il più ef�cace inserimento della nuova disciplina nell’ambito dei corsi universitari legati all’archeologia e, più in generale ai beni storici e 196 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia culturali, doveva comportare un’uscita decisa dalla fase pioneristica e sperimentale legata ai singoli progetti applicativi, per giungere ad una ri�essione più complessiva sulle ricadute che una capillare diffusione delle tecnologie informatiche avrebbe comportato sulla stessa infrastruttura informativa e �sica delle istituzioni preposte alla ricerca e alla didattica. È in questa prospettiva che, con il nuovo millennio, veniva progettata la nascita di un Centro di Ricerca il cui scopo primario era istituire una organizzazione per la logistica, il coordinamento, la programmazione e lo sviluppo delle oramai molteplici attività collegate con l’uso delle tecnologie multimediali e dell’informazione in ambito archeologico. Il Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia gestisce oggi le funzioni di un Network Archeologico di Ricerca (NADIR) e della rete telematica che collega le diverse sedi dipartimentali di Bologna, Ravenna, Monterenzio e Acquaviva Picena, cui si lega l’attività ordinaria di amministrazione e tutoraggio della rete informatica, e la cui �nalità ultima è la promozione della conoscenza sulle implicazioni metodologiche e procedurali che l’uso delle tecnologie dell’informazione hanno sulle consuetudini disciplinari. È inoltre attivo nello studio e nell’organizzazione di network integrati per la ricerca, conducendo ricerche sulle tecnologie di telerilevamento dello scavo archeologico, sui sistemi di visione assistiti da elaboratore e, più in generale, sulla modellizzazione digitale dell’informazione archeologica, dall’acquisizione delle informazioni sul campo �no alla loro elaborazione, archiviazione e musealizzazione multimediale. Al �ne di accentuare il carattere parallelo ed infrastrutturale del Centro rispetto alle istituzioni a cui afferisce, la struttura concettuale di Te.m.p.l.a. è di tipo simbolico, basata su tre distinti livelli, ispirati alla tripartizione dei livelli discendenti comune a tutte le tradizioni cosmologiche dell’antichità: il livello celeste, la terra di mezzo ed il livello infero. Il livello superiore è AEROSTAT che si occupa della ricerca di tecnologie aerostatiche per l’archeologia. Il livello di mezzo è TECA, acronimo di Tecnologie per la Catalogazione Archeologica, che si occupa della progettazione di sistemi di archiviazione multimediale e del relativo software. Il livello inferiore è NADIR, acronimo di Network Archeologico di Ricerca, che si occupa della gestione logistica integrata delle tecnologie, della rete telematica e delle sedi �siche. 4. La nuova frontiera della multimedialità: il Network logistico integrato NADIR è dunque un’idea di “rete di lavoro” il cui �ne è l’organizzazione complessiva dei processi operativi della ricerca, basati sull’integrazione tra l’infrastruttura della rete telematica e l’infrastruttura delle sedi �siche e delle 197 A. Gottarelli aree funzionali entro cui la ricerca stessa ha luogo (Gottarelli 2008). Si occupa quindi della standardizzazione dei sistemi tecnologici di elaborazione, archiviazione ed edizione dei dati su architetture multimediali object-oriented, e si occupa inoltre dell’amministrazione della rete informatica, dell’arredo, della segnaletica, dell’organizzazione delle aree di lavoro nelle diverse sedi, della logistica e del coordinamento delle reciproche funzioni informative. Il Network logistico è innanzitutto basato su un sistema di codi�ca di luoghi, aree e funzioni secondo una gerarchia basata sul privilegio di accesso dell’utente. Il Network è strutturato in nodi, che si identi�cano con le sue sedi o centri di attività, distinti per istituzione di appartenenza e luogo (es. sede di Bologna sigla del nodo ArBo, dove Ar=Archeologia e Bo=Bologna). Attualmente è composto da cinque nodi: le sedi istituzionali di Bologna (ArBo) e Ravenna (ArRa) e quelle convenzionate di Monterenzio (ArMo), Quinzano (ArQu) e Acquaviva Picena (ArAq). A loro volta i nodi sono suddivisi in aree funzionali, che si diversi�cano per tipo di attività e per relativo colore e privilegio di accesso. Le aree funzionali sono poi suddivise in isole operative, che sono postazioni in cui si svolge una particolare funzione tecnologica. Le isole operative sono identi�cate dalle precedenti sigle più il numero IP (Internet Protocol) del singolo computer (Fig. 5). Fig. 5 – 2002. Schema del sistema di codi�ca delle aree dipartimentali del Network NADIR. 198 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia 5. Networking e web software Il Dipartimento, nelle sue attuali quattro sedi, dispone di circa 60 isole operative collegate in rete, dislocate in 12 aree funzionali, dedicate alla ricerca ed alla didattica di laboratorio. A queste si aggiungono le dotazioni personali degli studi dei docenti, dei ricercatori e del personale tecnico-amministrativo. La veri�ca degli accessi secondo il livello di privilegio e alcune funzioni di controllo in remoto di comandi di sistema, quali shutdown, restart e logout, oltre che il controllo del livello di attività dei singoli computer, sono monitorati dalla centrale operativa Te.m.p.l.a. per mezzo del software proprietario NADIR. La sua architettura web software, fortemente innovativa, è basata su piccoli applicativi residenti su server che vengono condivisi da tutti i computer collegati in rete, venendo a comporre l’interfaccia gra�ca di ognuno. La tecnologia, progettata in linguaggio Lingo su Director MX 2004, è composta da un piccolo player (2 Mb) multipiattaforma che, una volta installato sulla macchina remota, si occupa dell’apertura via rete degli elementi dell’interfaccia gra�ca: questi costituiscono a loro volta singoli applicativi �nalizzati a speci�che funzioni. Ogni possibile aggiornamento può quindi avvenire intervenendo unicamente sul �le condiviso, la qual cosa consente una decisiva sempli�cazione nella gestione dell’intero sistema. Oltre al controllo in remoto dell’attività dell’intero parco macchine, il player NADIR è in grado di operare il controllo ambientale delle diverse aree per mezzo di telecamere. 6. Gestione logistica delle tecnologie mobili La rete NADIR sperimenta inoltre strategie innovative per la gestione logistica delle apparecchiature orientate alla ricerca sul campo, secondo il criterio che vede tutte queste essere oramai da considerarsi vere e proprie periferiche di un sistema informatico integrato. Un magazzino centralizzato per la distribuzione delle tecnologie di documentazione e rilevamento dello scavo archeologico è stato allestito presso il nodo di Bologna. L’organizzazione del magazzino è impostata sulla uniformità del packaging di protezione degli strumenti e sulla codi�ca dei contenitori secondo un criterio posizionale. Gli scaffali sono costantemente videocontrollati per l’aggiornamento in automatico (tramite un sistema di riconoscimento video) dei contenitori presenti e di quelli prelevati. Il packaging, frutto di una liberale sponsorizzazione della ditta GTLine di Anzola dell’Emilia (Bologna), è costituito da contenitori in resina della linea Explorer Cases, ad elevata tenuta ermetica (sabbia ed acqua), ad alta resistenza agli urti e allo schiacciamento e che risultano dotati di valvola anti decompressione per il trasporto aereo in 199 A. Gottarelli stiva, al �ne di preservare le componenti elettroniche. Le valigie di dimensione media, dedicate principalmente alle stazioni totali laser, sono state appositamente corredate con accessorio a zaino per il trasporto in località impervie. 7. Isole operative speciali: il progetto Unibook.it Il Network promuove il progetto e la creazione di isole operative ad alto contenuto tecnologico, �nalizzate alla realizzazione di servizi multimediali altamente strategici per la ricerca. Unibook.it è un modulo tecnologico sperimentale, costituito da tre tipologie di strumenti tra loro collegati, �nalizzato a rendere un servizio per la ricerca unitario e ben identi�cato, in quanto sistema integrato per la digitalizzazione ultrarapida, elaborazione, archiviazione e stampa istantanea di testi scienti�ci. Il sistema, che si può con�gurare come primo modulo di un più ampio progetto strategico d’Ateneo, costituisce nell’insieme un unicum basato su tecnologie assolutamente innovative, non ancora presenti in Italia in questa con�gurazione, il cui motore è costituito da una unità di scansione ultrarapida di materiale bibliogra�co rilegato modello Kirtas APT 2400. Questa apparecchiatura, grazie al sistema automatico di scorrimento delle pagine, è in grado di scansionare 2400 pagine all’ora, a 24 bit di profondità cromatica e ad una risoluzione di 600 dpi, nel formato pagina originale massimo di 27,5×35 cm. All’unità Kirtas APT 2400 è interfacciato un secondo modulo tecnologico, in cui si integrano la doppia funzione di scansione rapida di documenti non rilegati, a colori e a toni di grigio, con la funzione di stampa digitale ad alta velocità. Questa seconda unità modulare è costituita da un sistema Xerox Nuvera Copier/Printer 100 e da un secondo sistema Xerox DocuColor 250. Le due unità garantiscono alte prestazioni di stampa alla velocità di 100 pag./ minuto in formato A4, e 60 pag./minuto in formato A3, alla risoluzione di 4800×600 dpi. A queste funzioni sono integrati due moduli per la scansione veloce da caricatore di fogli singoli A3/A4, con velocità di 120 pag./minuto a 600×600 dpi (Fig. 6). La costituzione di una unità sperimentale per il completo trattamento digitale di testi rilegati, che è condizione indispensabile per la realizzazione speditiva di grandi archivi bibliogra�ci in formato digitale, ha ricadute strategiche sulla possibilità di accedere velocemente alle oramai estesissime fonti bibliogra�che mondiali, promuovendo, al tempo stesso, la migliore visibilità e diffusione del proprio “prodotto della ricerca”. La possibilità inoltre, a partire dagli archivi digitali, di fornire un servizio di stampa istantanea on demand di testi specialistici che, nella maggior parte dei casi, pur risultando fondamentali per la ricerca non sono più editi, costituisce una risorsa strategica per la difesa della stessa diffusione dei contenuti della ricerca scienti�ca, in un mercato editoriale sempre più costretto dalla massi�cazione della domanda. 200 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia Fig. 6 – 2006. Progetto del modulo tecnologico Unibook.it per la digitalizzazione ultrarapida di testi rilegati e la loro stampa on demand. 8. Gestione in remoto di nodi museali: il progetto di Museo Multimediale Polifunzionale Le funzioni del Network logistico prevedono in�ne la possibilità di concepire, sul territorio, nuove forme di gestione del dato multimediale in ambienti museali appositamente allestiti, con funzioni interamente controllate in remoto da centrale operativa. Il progetto, in corso di realizzazione, del Museo Multimediale Polifunzionale di Onferno, presso il Comune di Gemmano (Rimini), è relativo alla costituzione di un “box” per la gestione �essibile delle strutture culturali tipiche di un Comune basandosi su un unico ambiente interamente videoproiettato, la cui destinazione d’uso può essere modi�cata via software. Una prima con�gurazione prevede la funzione di salone informativo preliminare alla visita della riserva naturalistica di Onferno, con contenuti multimediali di carattere archeologico e storico-naturalistici; una seconda consente la trasformazione 201 A. Gottarelli Fig. 7 – 2008. Museo Multimediale Polifunzionale di Onferno (Gemmano, Rimini). Progetto delle pareti attrezzate alla videoproiezione. Fig. 8 – 2008. Museo Multimediale Polifunzionale di Onferno (Gemmano, Rimini). Vista d’insieme dell’ambiente. 202 Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia dell’ambiente in sala conferenze; una terza in cinema-teatro; una quarta in luogo di culto policonfessionale. Il sistema di videoproiezione verte senza soluzione di continuità sulle tre pareti dell’ambiente espositivo, dove verranno allestiti tre grandi schermi costituiti da pannellature sospese (Fig. 7). Questa soluzione vuole accentuare il carattere estensivo del sistema proiettivo su tutte le super�ci verticali della sala, in modo tale da potenziare la percezione di immersività dell’osservatore all’interno del contenuto informativo, oltre che suggerire l’idea di “museo videoproiettato”, ove il contenuto multimediale non è parte distinta e puntualmente delimitata dell’allestimento, ma ne è elemento strutturale e costitutivo. Il principale sistema di proiezione è costituito da 8 videoproiettori Hitachi CP-A100 a focale ultracorta. Tale tecnologia garantisce un cono di proiezione la cui geometria consente la visualizzazione estensiva per settori contigui senza l’interferenza di coni d’ombra dati dalla presenza degli osservatori. Tali rapporti geometrici hanno comandato sull’intero assetto del sistema espositivo, �ssandone le dimensioni ed i rapporti interni (Fig. 8). Il sistema prevede la predisposizione di un sistema informatico di controllo in rete, basato su computer Mac Pro 8 core (2 processori INTEL Xeon 5400 Quad Core, 3.2 Ghz) per il controllo degli 8 videoproiettori a parete. Un ulteriore computer è destinato al controllo del sistema di videoproiezione a pavimento e alla gestione del monitor touch screen per la selezione dei programmi di visualizzazione. Il sistema prevede la messa in rete geogra�ca degli elaboratori e dei videoproiettori: questi ultimi sono muniti di scheda ethernet per il controllo in remoto delle funzioni di spegnimento, accensione, allarme furto e monitoraggio usura lampada. Il progetto comprende la sperimentazione del controllo e gestione in remoto della sala, oltre che l’assistenza on site per i primi 24 mesi di attivazione, a garanzia della piena funzionalità del sistema. Secondo i principi ispiratori di tale soluzione, il lungo iter di sviluppo delle tecnologie multimediali in ambito archeologico, storico ed ambientale, entra così, alla �ne della prima decade del nuovo millennio, in una nuova dimensione concettuale che porterà ad una sostanziale rivoluzione nel modo stesso di concepire lo spazio �sico dei luoghi preposti alla musealizzazione e trasmissione dell’informazione culturale. Antonio Gottarelli Dipartimento di Archeologia Università degli Studi di Bologna BIBLIOGRAFIA Barceló J.A., Forte M., Sanders D.H. (eds.) 2000, Virtual Reality in Archaeology, BAR International Series 843, Oxford, Archaeopress. 203 A. Gottarelli D’Andria F. (ed.) 1987, Informatica e Archeologia classica. Atti del Convegno internazionale (Lecce 1986), Galatina, Congedo Editore. Forte M. (ed.) 1996, Archeologia. Percorsi virtuali delle civiltà scomparse, Milano, Arnoldo Mondatori Editore. Gottarelli A. 1987, Tecniche di documentazione dello scavo archeologico: introduzione alla videometria digitalizzata, in D’Andria 1987, 63-90. Gottarelli A. 1996, Museogra�a e informatica: la ricostruzione virtuale della tomba men�ta del generale Horemheb, in Moscati 1996. Gottarelli A. (ed.) 1997, Sistemi informativi e reti geogra�che in archeologia: GIS-INTERNET. Atti del VII ciclo di lezioni sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena, 1995), Firenze, All’Insegna del Giglio. Gottarelli A. 2008, NADIR. The Archaeological Research Network of the Department of Archaeology, University of Bologna, in N. Marchetti, I. Thuesen (eds.), ARCHAIA. Case Studies on Research Planning, Characterisation, Conservation and Management of Archaeological Sites, BAR International Series 1877, Oxford, Archaeopress, 181184. Mannoni T., Molinari A. (eds.) 1990, Scienze in archeologia. Atti del II Ciclo di lezioni sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena, 1988), Firenze, All’Insegna del Giglio. Moscati P. (ed.) 1996, Atti del III Convegno internazionale di archeologia e informatica (Roma 1995), «Archeologia e Calcolatori», 7. Reilly P. 1990, Towards a virtual archaeology, in K. Lockyear, S. Rahtz (eds.), Computer Applications and Quantitative Methods in Archaeology, BAR International Series 565, Oxford, Tempus Reparatum, 133-139. ABSTRACT By means of the NADIR network, designed by the Research Centre for Multimedia Technologies Applied to Archaeology (Te.m.p.l.a.), the Department of Archaeology of the University of Bologna organises, controls and develops the use of multimedia technologies in archaeological activities. The reach of NADIR covers a broad spectrum of activities that ranges from the management of the net and the working seats, to the organisation of the equipment logistics, to the realisation of special operational workspace and services (e.g., Unibook.it) and the experimental projects for the remote-control of workspaces and multimedia exhibition halls (e.g., the Multimedia and Multifunctional Museum of Onferno). 204 Archeologia e Calcolatori 20, 2009, 205-221 FROM ARTEFACT TYPOLOGIES TO CULTURAL HERITAGE ONTOLOGIES: OR, AN ACCOUNT OF THE LASTING IMPACT OF ARCHAEOLOGICAL COMPUTING 1. Introduction Historical accounts of archaeological computing typically situate its growth as a corollary of the rise of systems theory, positivism and the cult of science of post-Second World War developed Western societies. The number-crunching power of the computer was seen to be a perfect match for the nomothetic aspirations of processual archaeology of the 1960s and 1970s, which was served by a methodological approach based on hypothesis testing and statistical inference. Yet the post-processual shift in 1980s archaeology saw a disillusionment with the objectivist claims of formal and mathematical approaches to archaeological research, and a repositioning of the role of computers as a tool for research: «A mathematical archaeology which could explain material culture as an aspect of a logical relation, which would attempt to explain the complex data we investigate using statistical tests and procedures externally applied to the data is incompatible with archaeology being an active mediation of past and present. However […] statistical procedures, especially those which are computer-based, are a valuable heuristic device, manipulating large bodies of data, summarizing variability, redescribing, but in no way explaining anything or providing the basis for contentions» (Shanks, Tilley 1993, 245). Cognitive archaeology was advanced in the mid-1990s as a response to post-processualism by accommodating some of the criticisms of the latter, especially regarding the importance of the symbolic, ideological and cognitive practices of past cultures, while keeping a distance from its assumed relativism and subjectivism. In a recent systematization of the relationship between developments in archaeological episteme and archaeological computing practice, the emergence of cognitive archaeology is associated with the consolidation of Geographic Information Systems and arti�cial intelligence-based approaches, as well as the emergence of the new application methods of individual modelling, visualization and webography (Zubrow 2006). The prime importance of GIS, visualization and electronic communication in current archaeological practice is acknowledged by other workers (Richards 1998; Huggett, Ross 2004). However, while growing interest in archaeological archives and data management is manifest in recent publications (Lock, Brown 2000; Evans, Daly 2006), early work on formal and computer-based approaches 205 C. Dallas to archaeological typology and artefact analysis remains peripheral to our current understanding of digital archaeology. This paper attempts to redress this situation, by reclaiming the theoretical and methodological signi�cance of the work of pioneering researchers, from the 1950s onwards, who contributed to the development of new theoretical and methodological instruments towards the categorization of archaeological artefacts. While their approaches are diverse, their work is invariably grounded on the use of formal and computer-based approaches towards constituting archaeological databases and establishing artefact typologies. Their seminal contribution in problematising established notions of archaeological data constitution, description, style, archaeological typology, and the construction of archaeological knowledge, pre�gures recent theoretical developments and can offer valuable perspectives to current research challenges in digital heritage and material culture theory. The approach followed to establish this goal is based on a biographical narrative of this author’s involvement with archaeological computing and cultural heritage informatics from the early 1980s to the present. It may be read as a journal, and a notebook of key in�uences, readings and research concerns that shaped twenty-years of a professional journey from archaeology to the �eld of museums and information, but also as an attempt to identify themes in archaeological computing, material culture theory and artefact-based research which remain relevant to current concerns and prospects regarding the role of cultural heritage institutions, memory practices and technological mediation in the information age. 2. From archaeological computing to cultural heritage informatics: a personal account 2.1 The 1980s In 1980, when I went up to Oxford for postgraduate studies in Classical archaeology, the spirit of the place was more humanities than science, more hermeneutics than explanation, and more scriptorium than laboratory. My research was on a series of over a thousand grave-reliefs from Classical Athens, a material already studied literally to death for more than a century, and one that had produced elegant, erudite and insightful monographs, mostly of an art connoisseurship and cultural history slant. At the time I was intellectually stimulated by structuralism and semiotics, promising approaches to decipher the complex world of ideas, symbols and meaning manifest in ancient art and iconography, which also appeared to engage in fruitful dialogue with social, mythographic, and symbolic interpretations of Greek funerary monuments, a central part of my Classical archaeologist’s cosmos. 206 From artefact typologies to cultural heritage ontologies Like others of my generation, I became stimulated by the archaeological theory debates of the time: I shared the promise of a uni�ed science of archaeology; the quest for developing formal methodologies and middlerange theories, applicable across archaeological problems and contexts; the dissatisfaction with the descriptive tedium of traditional archaeology, and with its interpretive timidity; the intense interest in formal approaches to archaeological description and argumentation, such as practised by the French logicistes; and, not least, the fascination with the capabilities of the computer, still novel in archaeology twenty �ve years after Gardin’s pioneering experiments (reported in Gardin 1967), as the new orderer of data, information and knowledge. I was fortunate to join Susan Hockey’s humanities computing classes, took courses in computer programming and social science statistics at the Oxford University Computing Service (of which, together with fellow computing archaeologists Sebastian P.Q. Rahtz and Seamus Ross, I had become a regular customer), and started attending CAA and TAG (Theoretical Archaeology Group) conferences. I was fascinated by the rigour and elegance of David Clarke’s Analytical Archaeology (Glaser, Strauss 1967), impressed by the clarity of Jean-Claude Gardin’s Archaeological Constructs (Gardin 1980), and intrigued by the new complexities introduced by several of the contributions in Ian Hodder’s Symbolic and Structural Archaeology (Hodder 1982). In 1986, I was introduced by Gary Lock to John Wilcock’s Research Centre of Computer Archaeology at North Staffordshire Polytechnic. As a visiting research fellow, I spent a couple of days each week at the RCCA, debating anything from the Harris matrix to expert systems, and from polythetic classi�cation to 3D-visualisation, with the young researchers at the Centre, including Gary Lock himself, now of the University of Oxford, a pioneering �gure in a �eld as broad as quantitative archaeology, GIS and archaeological information systems; Jeremy Huggett, and Julian Richards, both established academics with signi�cant research contribution, the latter leading the Archaeology Data Service in the UK; Paul Reilly, whose radical “virtual archaeology” is even more relevant today, but who was virtually lost to archaeology after his conversion to a business career in the 1990s; and, last but not least, Dick Spicer, who met an untimely death, and was thus literally lost to archaeology, and his peers. As for myself, I shortly afterwards returned to Greece with my young family, and took a job in museums. 2.2 Towards a semantic representation My D.Phil. thesis – The signi�cance of costume in Classical Attic grave stelai: a statistical analysis – was an attempt to provide a social interpretation of the function of costume and other personal attributa in the iconography 207 C. Dallas Fig. 1 – Examples of Classical Attic gravestone compositions. 208 From artefact typologies to cultural heritage ontologies of Classical Athenian funerary monuments. It was based on the quantitative analysis of a dataset of about sixteen hundred formal descriptions of the iconography of human �gures on Attic stelai, aiming at the de�nition of �gure types based on costume, and at the identi�cation of social and symbolic associations for these types. Analytical methods used ranged from simple descriptive statistics to hypothesis testing, numerical classi�cation and scaling. Analysis showed that important aspects of social identity, such as social status, deceased vs. survivor status, and social age, categorised according to a formal system of transitions, both constitute and are signi�ed by the typology of costume and other iconographic traits of �gures depicted (Dallas 1987a, 1987b; Fig. 1). This intensive encounter with the power of quantitative analysis, supported by statistical software packages such as SAS and SPSS, made me aware of the acute importance of data constitution – selection of cases, but also, description of the empirical archaeological realities at hand – for the validity of the results, and indeed I dedicated a full chapter in my thesis in discussing the issue. I was already familiar with the early work of Jean-Claude Gardin’s research group in CNRS, which from the mid-1950s onwards produced several formal “descriptive codes” for diverse kinds of archaeological entities, from ornament to civic monuments (Gardin 1958, 1967, 1976, 1978; Lagrange 1975; Salomé 1980), and was impressed by his semiotic approach, based on the representation of latent structure by means of a succinct calculus of morphological primitives, de�ned by virtue of methodological principles of segmentation, orientation and (formal) differentiation (Gardin 1967). I was also fascinated by earlier work of American anthropologists who, under the in�uence of structuralism and generative linguistics, had introduced structural and apparently fruitful methods for the formal representation of artefacts (Munn 1966; Glassie 1975; Deetz 1977), and found considerable interest in more recent formal, semiotic and structural approaches to iconography, artefact analysis and design systematics (Hoffmann 1977; Hodder 1982, 1987; Lagrange, Renaud 1983; Washburn 1983; Moscati 1986; Guimier-Sorbets 1990). Critical examination revealed to me some important shortcomings of the traditional quantitative analysis present in my doctoral thesis. In short, crucial aspects of a broad spectrum of complex archaeological entities, including iconographies (and unlike �bulae or arrowheads), seem to require concepts of internal syntactic structure and external relationality lacking from Clarke’s elegant attribute-artefact-type conceptualisation (1968, 35-37), and from the consequent quantitative analysis of a global attribute list, on which the whole edi�ce of archaeological statistical inference and numerical typology, from Spaulding (1953) onwards, is founded. Increasingly, I saw the issue of data constitution as one of “description as symbolic representation”, and sought insight in the relevant literature of 209 C. Dallas Fig. 2 – A state transition network and compositional transformation rules for Classical Attic grave stelai (Dallas 1992b). the �eld of arti�cial intelligence (Brachman, Levesque 1985; Charniak, McDermott 1985; Levesque 1986). Further experimentation with the iconography of Classical Attic grave stelai led me to identify and discuss alternative formal representations of stele composition, including one- or twodimensional strings, classi�cation trees, state transition networks based on geometric transformations (Fig. 2), syntactic categories representing betweenand within-scenes functions (such as congruence, congruence of context vs symmetry, parallelism), semantic paths and rewrite-rule grammars (Fig. 3). These conceptualisations appeared to account more fully for the syntactic (i.e., relational) and semantic (i.e., narrative) structure of gravestone compositions than a rectangular, case-attribute matrix (Dallas 1992c). 210 From artefact typologies to cultural heritage ontologies Fig. 3 – A grammar for Classical Attic stele composition (Dallas 1992b). In an approach inspired by earlier research work in syntactic image recognition (Eshera, Fu 1986) and space syntax in architecture and urban design (Hillier, Hanson 1984; Hillier et al. 1987), I also thought that the shortcomings of the global attribute list in capturing compositional structure in iconographies, or ancient Greek house layouts, may be countered by the adoption of an attributed relational graph representation, amenable to classi�cation by means of inexact graph matching and providing for a structural 211 C. Dallas understanding of emerging archaeological types (Dallas 1992b). Another experiment consisted in identifying graph structures based on a formal measure for the collocation of �gurative subjects (or motifs) in iconographic compositions, and examining how such structures may be used as a nonhierarchic, semiotic expression of social categorisation mechanisms (Dallas, Thiopoulos 1993; Dallas 1996). Complementary kinds of substantive knowledge emerged from each different representation. At a time when information systems had started becoming more widely available in museums and archaeology, and the orthodoxy of the relational data model was being challenged by object-oriented alternatives, it became clear to me that rich semantic representations supporting the multiple embedding of terminological and descriptive systems, multiple specialisation and instantiation, object part composition, uncertainty and temporality (Dallas 1994; Bearman 1996) could provide a potentially more fruitful way to represent and understand material culture. 2.3 The 1990s I had joined the Benaki Museum (Fig. 4) as Head of the newly-established Documentation and Systems Department, in 1990, at a time of widespread increase in the use of computers in cultural heritage institutions. While the immediate task of our small team was the practical generation of simple electronic inventories, we soon came across the object description and representation issues archaeological research was already struggling with: in a heterogeneous collection of archaeological artefacts, art works, ethnographic objects, historical memorabilia and curia spanning from Aegean prehistory to the mid-20th century, the challenge of providing a descriptive system – a structure and a terminology – that could account adequately for variability and complexity in the collection was, indeed, a formidable one. Discussions in the Data Standards Working Group of CIDOC con�rmed our suspicion that the problem was not limited to us, but concerned the whole museum community. Several international museums in the early 1990s were in the midst of notable change, shifting their attention from the care of collections to communicating with their audiences, and changing their interpretive strategies from objects to object histories. Collections management systems had been established for years in major international museums, and many (Dallas et al. 1993; Dallas, Garzotto 1993) already experimented with using electronic media for communication with the public. The revered “primacy of the object” was challenged by the ascent of the notion of information, touching upon all aspects of form, function and meaning of museum objects, and bridging the epistemic and pedagogical functions of museums themselves. We found relational databases, promoted at the time as the new mantra for museum documentation and collections management systems, to be 212 From artefact typologies to cultural heritage ontologies Fig. 4 – Benaki Museum. Room 4-5. a poor match for scholarly discourse about museum artefacts, seen as heterogeneous and diverse, complex in terms of part composition and meaning layering, and densely connected with other important information objects, such as periods and events, places, time intervals and relationships, people and an almost inde�nite array of possible associations (Dallas 1992a). Since 1992, I worked with Panos Constantopoulos, Martin Doerr and their team at the Centre for Cultural Informatics at ICS/FORTH towards developing a semantic information system for the storage and manipulation of scholarly knowledge on museum artefacts, based on painstaking conceptual analysis of a wide variety of artefact-related information, and involving such issues as the relationship between artefact types, the description of compositional structure of complex objects, and the elucidation of the notions of artefact creation, modi�cation and use. The system, CLIO (or MITOS, as known then internally at the Museum) was based on ICS/FORTH’s Semantic Index 213 C. Dallas Fig. 5 – Benaki Museum CLIO information system query screen (Constantopoulos 1994). 214 From artefact typologies to cultural heritage ontologies Fig. 6 – Qualitative metaschema of the CIDOC Conceptual Reference Model. System, an information kernel implementing the Telos knowledge representation language, and capable of incorporating representations of domain knowledge from material culture disciplines (including background information on artefact typologies, styles, periods and provenance places) as well as representations of individual artefacts or “occurrences” (Dionissiadou, Doerr 1994; Christoforaki et al. 1995; Fig. 5). The CLIO conceptual model provided an elegant, parsimonious and expressive framework for the symbolic representation of aspects of artefact knowledge drawn from art historical, ethnographic and archaeological scholarship. While the actual CLIO system was withdrawn from active use at the Benaki Museum a few years after its inception, the model was adopted in 1996 by CIDOC, the International Documentation Committee of the International Council of Museums, as the basis for the de�nition of an international Conceptual Reference Model, or ontology, for cultural heritage information (Fig. 6). The CIDOC CRM was expanded by a team of international researchers from the museum disciplines, information and computer science, and was accepted in 2006 as ISO standard 21117, still evolving with minor improvements to the present (Crofts et al. 2009). Debate in the CIDOC CRM Working Group focused more on issues of CRM harmonisation with other metadata and cultural heritage documentation standards, as well as on ensuring its interoperability and information integration between heterogeneous cultural heritage information systems, rather than on developing formal representations of material culture amenable to 215 C. Dallas descriptive analysis and conceptual manipulation, such as envisaged earlier by symbolic and structural archaeology. Nevertheless, as we have shown in our earlier experimentation with CLIO, the CIDOC CRM could be a useful foundation for building information systems for artefact research, providing for the expression of such compositional, locational and relational information as deemed crucial for archaeological knowledge work. 2.4 The new millennium In the last few years, my interests shifted to a quest for broader understanding of the meanings of artefacts in their evolving contexts of use as evidence for scholarship, and as agents for cultural meaning through museum exhibition and digital communication. The intellectual foundations for this quest can be traced back to interpretative approaches to artefact analysis (Pearce 1994; Tilley 1999), notions of object agency and biography of things borrowed from the anthropology of material culture (Kopytoff 1986; Gell 1998) and, not least, the dramatic shift of museum interpretation from objects to object histories (Vergo 1989). My recent exploration of the concept and practice of archaeological virtual exhibition, a site for the situated emergence of knowledge as archaeologists, exhibition curators and audiences engage with symbolic representations of past realities (Dallas 2007b), owes a lot to earlier investigation of artefact-based archaeological representation. Our collective work at the Digital Curation Unit - Athena Research Centre since 2007 is also informed by the need for particular attention to the epistemic traditions and research requirements of material culture disciplines such as archaeology (Dallas 2007a; Constantopoulos, Dallas 2008). As the spectre of information deluge and the danger for future obsolescence of epistemic memory becomes a pressing reality, the interests of information managers and curators on the one hand, and those of scholars and �eld researchers on the other, converge (McCarthy 2007; Ross 2007). In our recent work in the DARIAH: Preparing the European digital infrastructure for the arts and humanities projects (in which we are happy to collaborate, among others, with the UK Archaeology Data Service), we consider a key priority for future information systems to be their ability to express, and accommodate, research questions based on the epistemic discourse, domain knowledge, and object representations of the human sciences (Constantopoulos et al. 2008; Benardou et al. 2009): themes that motivated many of us who, back in the early 1980s, became part of a growing second generation of computing archaeologists. 3. Postscript The 21st century marks the beginning of an era of post-disciplinarity. In the past decades, archaeology has been moving closer to other human 216 From artefact typologies to cultural heritage ontologies sciences – both social and historical – and has been increasingly re�exive of its epistemic nature and social role. Artefacts, as “good to think” objects of knowledge, are increasingly seen from multiple perspectives, and the functions of places of memory – archaeological sites, museums, libraries and archives – in promoting engagement with the past become increasingly blurred. This paper presents a biographical account of a second generation computing archaeologist’s engagement with seminal methodological and theoretical perspectives established by some pioneering workers in the �eld. As such, it supplements rather than attempts to replace an historiography of archaeological computing, or of the methodological and theoretical currents of New Archaeology, structuralist and cognitive archaeology with which it is normally associated (Trigger 1989; Preucel 2006; Zubrow 2006). Based on a phenomenological epistemic stance, it focuses on establishing a “representation of experience” through biographical narrative of an individual’s activity, and encounters with others, in a particular area of archaeological research: material culture, and, in particular, artefact description, analysis and classi�cation. Research activity, viewed through three decades of dramatic change in contemporary archaeology, may be seen as the manifestation of agency of a community of knowers and actors involving their individual motives and goals: archaeologists, workers from �elds as diverse as anthropology, folklore studies and art history, museum documentation and information professionals, computer scientists, and others, engaging with cultural heritage informatics at a time of increasing digitisation of the archaeological heritage and the development of major digital repositories and digital libraries of resources relevant to archaeological and cultural heritage research. The object of such research activity is, from one point of view, the pursuit of particular questions in material culture theory – especially, with regard to artefact description, the de�nition and status of types and properties, and the elaboration of notions of object history, function and meaning based on a rigorous conceptual model. It is also, from another yet not unrelated point of view, a pursuit of developing good “mediating tools” for the construction of useful representations of artefacts in the context of distributed, heterogeneous information systems. Information technology, in the guise of archaeological information systems, digital repositories, artefacts and digital libraries of archaeological knowledge, has been an important “mediating tool” in its own right, in rendering the research activity related through the above narrative possible. Archaeological computing, its methods and tools, has been an essential, yet culturally embedded, rather than merely instrumental, factor in shaping up the particular paths of research and debts to important �rst-generation theoretical and methodological traditions presented here. The biographical account can be read meaningfully through the lens, and theoretical vocabulary, of cultural-historical activity theory (Dallas 2007a; Kaptelinin, Nardi 2007; Leont’ev 2007). 217 C. Dallas Contemporary perspectives to cultural heritage information are informed by the pragmatic need to develop formalisms, schemas and functional speci�cations for information systems – repositories, digital libraries, services and tools – able to serve the objectives of long term digital preservation and adequate intellectual and physical access to information resources ranging from primary evidence to scholarly argumentation. As such systems are being developed and put in practice, and as vast collections of typically uncategorised, non-curated digital surrogates of cultural objects appear on the web, it becomes evident that a reductionist approach to documenting these objects cannot ensure their future epistemic adequacy (McCarthy 2007). The theory and practice of contemporary digital curation of archaeological, and more broadly, cultural heritage, viewed as an engagement with the conceptual and knowledge-related aspects of material culture as evidence, should, in that sense, be informed by the epistemic traditions of the curating disciplines, including archaeology (Dallas 2007a). The seminal work of archaeological computing pioneers such as Spaulding, Gardin and Clarke in the �eld of artefact description and typology, and the complex and �uid insights it created on the emerging nature of archaeological knowledge, remains an essential source of intellectual stimulus for the development of adequate conceptual representation models of material culture, in the context of digital infrastructures for knowledge and communication in the cultural heritage disciplines. It may prove, surprisingly, to be one of the most enduring legacies of a pioneering generation of archaeological thinkers. Costis Dallas Department of Communication, Media and Culture Panteion University, Athens Faculty of Information University of Toronto REFERENCES Bearman D. 1996, Overview and discussion points, in Research Agenda for Networked Cultural Heritage, Santa Monica, CA, Getty AHIP, 7-22. Benardou A. et al. 2009, Understanding the information requirements of arts and humanities scholarship: implications for digital curation, «International Journal of Digital Curation», 2010 (accepted for publication). Brachman R.J., Levesque H.J. (eds.) 1985, Readings in Knowledge Representation, San Francisco, CA, Morgan Kaufmann Publishers Inc. Charniak E., McDermott D. 1985, Introduction to Arti�cial Intelligence, Reading, MA, Addison-Wesley. Christoforaki M., Constantopoulos P., Doerr M. 1995, Modelling occurrences in cultural documentation, in P. Moscati (ed.), III International Symposium on Computing and Archaeology (Roma 1995), «Archeologia e Calcolatori», 7, 1996, 22-25. 218 From artefact typologies to cultural heritage ontologies Clarke D.L. 1968, Analythical Archaeology, London, Methuen. Constantopoulos P. 1994, Cultural Documentation: The Clio System, Technical Report FORTH - ICS/TR - 115. Constantopoulos P., Dallas C. 2008, Aspects of a digital curation agenda for cultural heritage, in IEEE International Conference on Distributed Human-Machine Systems (Athens 2008), Prague, Czech Technical University, 317-322. Constantopoulos P. et al. 2008, Preparing DARIAH, in Proceedings of the International Conference on Virtual Systems and MultiMedia (VSMM08), Nicosia, Cyprus (http:// www.dcu.gr/dcu/Documents/documents/preparing-dariah/en/attachment/). Crofts N., Doerr M., Gill T., Stead S., Stiff M. (eds.) 2009, De�nition of the CIDOC Conceptual Reference Model (version 5.0.1), ICOM/CIDOC CRM Special Interest Group (http://cidoc.ics.forth.gr/docs/cidoc_crm_version_5.0.1_Mar09.pdf). Dallas C. 1987a, Death, costume and social identity: a quantitative study of the iconography of classical Attic stelae, «Archaeological Computing Newsletter», 11, 9-17. Dallas C. 1987b, The Signi�cance of Costume on Classical Attic Grave Stelai: A Statistical Analysis, D.Phil. thesis, University of Oxford. Dallas C. 1992a, Information systems and cultural knowledge: the Benaki Museum case, «Computers and the History of Art Journal», 3, 1, 7-15. Dallas C. 1992b, Relational description, similarity and classi�cation of complex archaeological entities, in G. Lock, J. Moffett (eds.), Computer Applications and Quantitative Methods in Archaeology, BAR International Series 577, Oxford, Tempus Reparatum, 167-178. Dallas C. 1992c, Syntax and semantics of �gurative art: a formal approach, in S. Rahtz, P. Reilly (eds.), Archaeology and the Information Age: A Global Perspective, London, Routledge, 230-275. Dallas C. 1994, A new agenda for museum information systems, in S. Ross (ed.), Problems and Potentials of Electronic Information in Archaeology Seminar: Pre-circulated Papers, London, British Library, 251-264 (http://eprints.rclis.org/archive/00007978/, accessed August 8, 2008). Dallas C. 1996, Multimedia in exhibitions, in Introduction to Multimedia in Museums, CIDOC Multimedia Working Group, 10-16 (http://cidoc.mediahost.org/content/archive/cidoc_site_2006_12_31/introtomultimediamuseums.pdf). Dallas C. 2007a, An agency-oriented approach to digital curation theory and practice, in J. Trant, D. Bearman (eds.), The International Cultural Heritage Informatics Meeting Proceedings, Toronto, Archives & Museum Informatics (http://www.archimuse.com/ ichim07/papers/dallas/dallas.html/, accessed August 5, 2009). Dallas C. 2007b, Archaeological knowledge, virtual exhibitions and the social construction of meaning, in P. Moscati (ed.), Virtual Museums and Archaeology. The Contribution of the Italian National Research Council, «Archeologia e Calcolatori», Suppl. 1, Firenze, All’Insegna del Giglio, 31-64. Dallas C., Garzotto F. 1993, Dynamic multimedia from a museum database: the Gold of Greece application, in D. Lees (ed.), Museums and Interactive Multimedia, Cambridge, Archives and Museum Informatics & Museum Documentation Association, 131-139. Dallas C., Smith P., Lock R., Cornforth J., Davidson C. 1993, Digital multimedia and classical culture: the Sacred Way perspective, in D.A. Roberts (ed.), European Museum Documentation: Strategies and Standards, Cambridge, Museum Documentation Association, 117-130. Dallas C., Thiopoulos C. 1993, Collocation of �gurative subjects on classical Attic stelai and semiotic categorisation, in CAA93: Computer Applications and Quantitative Methods in Archaeology (Stoke-on-Trent 1993), unpublished. 219 C. Dallas Deetz J. 1977, In Small Things Forgotten: The Archeology of Early American Life, New York, Anchor Books. Dionissiadou I., Doerr M. 1994, Mapping of material culture to a semantic network, in Proceedings of the 1994 Joint Annual Meeting of the International Council of Museums Documentation Committee and Computer Network (Washington DC 1994). Eshera M., Fu K. 1986, An image understanding system using attributed symbolic representation and inexact graph-matching, «IEEE Transactions on Pattern Analysis and Machine Intelligence», 8, 5, 604-618. Evans T.L., Daly P.T. (eds.) 2006, Digital Archaeology: Bridging Method and Theory, New York-London, Routledge. Gardin J.-C. 1958, Four codes for the description of artifacts: an essay in archaeological technique and theory, «American Anthropologist», n.s. 60, 2, 335-357. Gardin J.-C. 1967, Methods for the descriptive analysis of archaeological material, «American Antiquity», 32, 1, 13-30 (http://www.jstor.org/stable/278775, accessed August 12, 2008). Gardin J.-C. 1976, Code pour l’analyse des formes de poteries, Paris, CNRS. Gardin J.-C. 1978, Code pour l’analyse des ornements, Paris, CNRS. Gardin J.-C. 1980, Archaeological Constructs: An Aspect of Theoretical Archaeology, Cambridge-New York, Cambridge University Press. Gell A. 1998, Art and Agency: An Anthropological Theory, Oxford, Clarendon Press. Glaser B.G., Strauss A.L. 1967, The Discovery of Grounded Theory: Strategies for Qualitative Research, New York, Aldine. Glassie H. 1975, Folk Housing in Middle Virginia: A Structural Analysis of Historic Artifacts, Knoxville, Tennessee, University of Tennessee Press. Guimier-Sorbets A. 1990, Les bases de données en archéologie: conception et mise en oeuvre, Paris, CNRS. Hillier B., Hanson J. 1984, The Social Logic of Space, Cambridge, Cambridge University Press. Hillier B., Hanson J., Graham H. 1987, Ideas are in things: an application of the space syntax method to discovering house genotypes, «Environment & Planning B: Planning & Design», 14, 4, 363-385. Hodder I. 1982, Symbolic and Structural Archaeology, New York, Cambridge University Press. Hodder I. (ed.) 1987, The Archaeology of Contextual Meanings, Cambridge, Cambridge University Press. Hoffmann H. 1977, Sexual and Asexual Pursuit: A Structuralist Approach to Greek Vase Painting, London, Royal Anthropological Institute. Huggett J., Ross S. 2004, Archaeological informatics: beyond technology, «Internet Archaeology», 15 (http://intarch.ac.uk/journal/issue15/inf_index.html, accessed September 21, 2009). Kaptelinin V., Nardi B.A. 2007, Acting with Technology: Activity Theory and Interaction Design, Cambridge, MA-London, MIT Press. Kopytoff I. 1986, The cultural biography of things, in A. Appadurai (ed.), The Social Life of Things: Commodities in Cultural Perspective, Cambridge, Cambridge University Press, 64-91. Lagrange M.S. 1975, Code pour l’analyse des monuments civils, Paris, CNRS. Lagrange M.S., Renaud M. 1983, L’interprétation des documents �gurés en archéologie et histoire de l’art: essai de simulation sur ordinateur, in F. Lissarague, F. Thélamon (eds.), Image et ceramique grecque (Rouen 1982), Rouen, Université de Rouen, 43-66. Leont’ev A.N. 2007, Activity, consciousness and personality (http://lchc.ucsd.edu/MCA/Paper/leontev/index.html). Levesque H. 1986, Knowledge representation and reasoning, «Annual Review of Computer Science», 1, 225-287. 220 From artefact typologies to cultural heritage ontologies Lock G.R., Brown K. (eds.) 2000, On the Theory and Practice of Archaeological Computing, Oxford, Oxford University Committee for Archaeology. McCarthy G. 2007, Finding a future for digital cultural heritage information resources using contextual information frameworks, in F. Cameron, S. Kenderdine, Theorizing Digital Cultural Heritage: A Critical Discourse, Cambridge, MA, MIT Press, 245-260. Moscati P. 1986, Analisi statistiche multivariate sugli specchi etruschi, Roma, Accademia Nazionale dei Lincei. Munn N. 1966, Visual categories: an approach to the study of representational systems, «American Anthropologist», 68, 936-950. Pearce S.M. (ed.) 1994, Interpreting Objects and Collections, London-New York, Routledge. Pearce S.M. (ed.) 1990, Objects of Knowledge, London, Athlone Press. Preucel R.W. 2006, Archaeological Semiotics, Oxford, Blackwell Publishing. Richards J.D. 1998, Recent trends in computer applications in archaeology, «Journal of Archaeological Research», 6, 4, 331-382 (http://dx.doi.org/10.1023/A:1022879819064; accessed September 21, 2009). Ross S. 2007, Digital preservation, archival science and methodological foundations for digital libraries, in 11th European Conference on Research and Advanced Technology for Digital Libraries, Keynote Paper (Budapest 2007) (http://www.ecdl2007.org/Keynote_ECDL2007_SROSS.pdf). Salomé M. 1980, Code pour l’analyse des représentations �gurées sur les vases grecs, Paris, CNRS. Shanks M., Tilley C.Y. 1993, Re-constructing Archaeology: Theory and Practice, London, Routledge. Spaulding A. 1953, Statistical techniques for the discovery of artifact types, «American Antiquity», 18, 305-313. Tilley C.Y. 1999, Metaphor and Material Culture, Oxford-Malden, Blackwell. Trigger B.G. 1989, A History of Archaeological Thought, Cambridge-New York, Cambridge University Press. Vergo P. 1989, The New Museology, London, Reaktion Books. Washburn D.K. 1983, Structure and Cognition in Art, Cambridge, Cambridge University Press. Zubrow E.B. 2006, Digital archaeology: a historical context, in T. Evans, P.T. Daly (eds.), Digital Archaeology: Bridging Method and Theory, London, Routledge, 10-31. ABSTRACT Research in theoretical and computer-based archaeology, from the 1950s onwards, established important perspectives for the formal representation and analysis of tangible cultural entities such as complex artefacts, iconographic compositions and archaeological assemblages, and became a precursor for the emergence of knowledge-based tools, methodologies and standards for artefact-centred information systems in contemporary museums. One particular case in point is CLIO, a semantic information system intended for research use, developed by ICS/FORTH and the Benaki Museum in Greece in the early 1990s, which became a foundation for the de�nition of the Conceptual Reference Model of the International Documentation Committee of ICOM (CIDOC CRM), recently adopted as the ISO standard for cultural information representation. It is argued here that, as the capabilities of computer applications to provide access to complex, multimedia cultural information increase, so does also the validity and importance of earlier research advances in artefact-centred archaeological computing; and, conversely, that the advent of digital infrastructures for material culture disciplines such as archaeology highlights the pertinence, and potential bene�ts, of further work on archaeological formal analysis and knowledge representation. 221 Archeologia e Calcolatori 20, 2009, 223-245 MAN AND SKY: PROBLEMS AND METHODS OF ARCHAEOASTRONOMY 1. Introduction: the nature of Archaeoastronomy The term “Archaeoastronomy” is currently used to de�ne the studies concerning «what peoples throughout history and prehistory have made of the phenomena in the sky, how they used these phenomena and what role they played in their cultures» (Sinclair 2006); however these studies were initially de�ned as “Astro-archaeology”, being devoted to the search for evidence of astronomical interest in archaeological �nds. This type of research thus pertained mainly to what astronomers held as evident concerning the practices of ancient cultures. When these studies started to include anthropological considerations, the term “Archaeoastronomy” was introduced, in order to distinguish this academic discipline from the study of the in�uence of celestial phenomena on the present day population folklore, that is instead de�ned “Ethno-astronomy”. To date, Archaeoastronomy, Ethno-astronomy, Historical Astronomy (the studies dedicated to recovering data of astrophysical interest from historical documents of pre-telescopic epoch, i.e. before the 17th century AD) and History of Astronomy are usually grouped as “Cultural Astronomy”, though not every scholar agrees on the appropriateness of grouping all these studies into a single discipline. Furthermore, a different school of thought does not even consider Archaeoastronomy a separate discipline but a sub-discipline of Archaeology. For instance, Bostwick (2006) states that the archaeologist necessarily has the main role in archaeoastronomical studies, since the object of these studies are archaeological �nds that hence need to be studied by archaeological methods, taking into account the cultural context of the site. This point of view was already af�rmed by Judge (1984), who noticed that the topics of Archaeoastronomy were much more relevant to Archaeology than to Astronomy and this fact implies that Archaeoastronomy has to be developed within Archaeology. However, many scholars believe that the lack of any archaeological, historical or anthropological information should not be a constraint to an archaeoastronomical analysis, in the case that astronomical considerations make it manifest that an ancient cultural product is in connection with celestial phenomena; on the other hand, it has also been suggested that historical and anthropological data alone should be suf�cient to prove the astronomical interest on the part of the makers of a given artifact (Aveni 2006). It is clear, in any case, that Archaeoastronomy, since the 1980s, has developed as an interdisciplinary science. It must thus be considered “good practice” that an archaeoastronomical working group includes at least one archaeolo223 A. Polcaro, V.F. Polcaro gist, who guarantees that archaeological and anthropological principles are followed, and one astronomer, who ensures the best quality in the observation and interpretation of astronomical phenomena (Bostwick 2006). Notice that Archaeoastronomy has never been considered a �eld of Astronomy, since it is not strongly linked with the science presently de�ned with this name and the only use made of modern astronomical science is limited to the one of Positional Astronomy, in order to �nd the positions of celestial bodies at a given moment of the past. However, cultural interest for astronomical phenomena had a very important role in the birth of science. The History of Science, and in particular of Astronomy, can thus be greatly helped by Archaeoastronomy. Therefore, the contribution of Archaeoastronomy is double: on one hand, it completes and extends our knowledge of ancient cultures, highlighting the importance and the interpretation they gave to celestial phenomena, and on the other, it completes the framework of the History of Astronomy in those areas where no written texts exist. 2. The evolution of Archaeoastronomy The �rst studies, aimed at recognizing the role of celestial phenomena in ancient civilizations and conducted with coherent and at least partially codi�ed methods, can be identi�ed in the United Kingdom between the end of the 19th and the beginning of the 20th century (Ruggles 1999), when a scienti�c discussion started about the possible astronomical meaning of a number of archaeological sites in the British Islands. Some scholars had actually been speculating for centuries on possible astronomical alignments in Stonehenge; however, the archaeologist Sir W.M. Flinders Petrie (1880) seems to have been the �rst to quantitatively study this aspect of the famous Surrey megalithic monument, by checking the simplest hypothesis: the presence of an alignment with the summer solstice sunrise. Fourteen years later the astrophysicist Sir N. Lockyer returned to the idea of astronomical orientations in ancient buildings. His studies (Lockyer 1894, 1906) on the orientation of Egyptian pyramids and of Stonehenge were taken as a model for subsequent archaeoastronomical studies, while his book Surveying for Archaeologists (1909) established the basic principles for the part of Archaeoastronomy devoted to the detection of astronomical alignments. Furthermore, Lockyer was the �rst to suggest the dating of ancient monuments by using the evaluation of the shift in stellar alignments due to the precession of the rotation axis of the Earth (see below). Though this method turned out later to be scarcely productive, Lockyer can still rightly be considered the “father of Archaeoastronomy”. In fact, other scholars obtained signi�cant results by using Lockyer’s methods. For instance, Boyle Somerville (1912) noticed how a signi�cant 224 Man and sky: problems and methods of Archaeoastronomy percentage of the megalithic alignments in Callanish (a megalithic Scottish site dated to the end of the 2nd millennium BC), pointed to the directions of the rising of the Moon in particular moments of its cycle, revealing that the local culture had a profound knowledge of the complex apparent motion of the Moon that had not previously been considered compatible with its organizational level. These early studies gave rise to many similar research projects, concerning other European prehistoric sites as well as important Egyptian, Mesopotamian and pre-Columbian monuments and sites, so that, in the middle of 20th century, it was widely accepted that astronomical orientation was an important component of the architectural solutions chosen by many cultures (Walker 1997). Archaeoastronomical studies became hugely popular with the general public thanks to the work of the astronomer Gerald Hawkins (1965), who claimed that, due to its position and orientation, Stonehenge was a sort of sophisticated computer used to determine particular positions of the Sun and Moon cycles and many other astronomical phenomena, including eclipses. An unexpected result of his work was the sudden gain in popularity of Stonehenge, which, in people’s minds became the symbol of Archaeoastronomy. However, Hawkins’ work, though it was published in major journals including even «Nature», was extremely objectionable for the statistical methodology employed as well as for having totally ignored all previous archaeological and paleoethnological knowledge of the social organization of the inhabitants of Surrey in the 3rd millennium BC. The unquestionable incompatibility of Hawkins’ conclusions with the archaeological and paleoethnological framework was proven once and for all by Renfrew (1979). Actually, Hawkins’ mistake was to believe that it was possible to study the impact of celestial phenomena on ancient cultures without taking into account their context and unfortunately, this error is still common to date. Hawkins’ claims and all the more so the plethora of pseudo-scienti�c publications which followed, sometime supporting clearly absurd hypotheses, provoked a general rejection of all of Archaeoastronomy by the large majority of archaeologists. Consequently, the use of archaeoastronomical methods in Archaeology underwent a decade of stagnation. However, in the same years, a number of signi�cant research projects were conducted, such as the ones by Alexander Thom, a professor of Civil Engineering at Oxford University who dedicated himself entirely to these studies after his retirement. Thom noticed that a statistical analysis of numerous stone circles in the British Islands showed a basic consistency in their structural characteristics and orientations, implying a remarkably detailed knowledge of the lunar motion by their builders, despite the low level of social organization of the corresponding cultures (Thom 1978). However, while many of Thom’s results in Archaeoastronomy are widely accepted to date, his claim of a standard unit of measurement (the 225 A. Polcaro, V.F. Polcaro “Megalithic Yard”) in the Neolithic British Islands and Bretagne has been discarded both by classical (Kendall 1974) and Bayesian (Freeman 1976) statistical reassessment of his data. An important role in the recovery of archaeoastronomical methods by the archaeological community was played by the Royal Society, which in 1981 promoted the �rst Oxford International Conference on Archaeoastronomy, where the study of astronomical orientations of archaeological sites was just one of the topics discussed. These Conferences were very important for a reciprocal understanding between humanities scholars, scientists and astronomers, and were later iterated in different localities, though they kept the name of “Oxford Conference”. Presently these meetings include various studies on cultural expressions connected with Astronomy in past and present cultures. A similar role was played in Italy by the Accademia Nazionale dei Lincei, that organized a number of important conferences on Archaeoastronomy. The new interdisciplinary studies on Archaeoastronomy and the recent evolution of Archaeology, which focuses more on the symbolic and religious spheres in the evolution of cultures, has meant that Archaeoastronomy, at least in Anglo-Saxon countries, is often mentioned in tutorial manuals and is a subject commonly taught in basic Archaeology courses (Fisher 2006). Major international and national scienti�c societies are devoted to these studies and hold periodic conferences on these topics. During the last �ve years Archaeoastronomy has also seen signi�cant development in Italy (Moscati in press). Moreover, it is interesting to note that Archaeoastronomy developed also thanks to the interest and the work of people who were neither professional humanities scholars or astronomers, but engineers, artists or simple amateurs, who gave signi�cant contributions to the �eld. For instance, the well-known painter Anna Sofaer, studying from an artistic point of view the rock art of Chaco Canyon (an Anasazi site, dated 900-1150 AD), was the �rst to notice that Sun, passing through a �ssure in the rocks, illuminates different areas of the paintings, clearly marking the days of solstices. 3. Celestial phenomena of archaeoastronomical interest In principle, past cultures should have been interested by all astronomical phenomenon visible to the naked eye. However, it is obvious that some of these phenomena are so evident and linked to vital factors that it is dif�cult to believe they were ignored in any cultural context (Lanciano 2006). These phenomena are thus the �rst to be considered in an archaeoastronomical study. The most important ones are obviously those connected with the solar cycle, since the Sun has always been recognized by mankind as the source of life. Because of the rotation of the Earth around its axis, the Sun seems to move in the sky and, rising daily in the East and setting in the West, originates 226 Man and sky: problems and methods of Archaeoastronomy the alternating of day and night. Due to the orbital motion of Earth around Sun and the inclination of the Earth’s axis in respect to the orbital plane, the points of the horizon of the rising and the setting of Sun, as well as its maximum height over the horizon, change daily, provoking the variation of the light and darkness period through the year. Solstices are the days when the height of the Sun over the horizon at midday and the length of the day are maximum (summer solstice) or minimum (winter solstice); obviously these days are the ones when the rising point of the Sun reaches its maximum northern or southern position, respectively. Equinoxes are instead the days when the length of daylight and darkness are equal and the Sun rises and sets exactly at the astronomical East and West, respectively. Since climate is mainly determined by the length of the daylight period, solstices and equinoxes usually correspond to the season changes. It is thus not surprising that winter and summer solstices, connected with the start of the coldest and warmest period of the year respectively, have been recognized since the very beginning of civilization and methods allowing the forecast of their arrival can be identi�ed in very ancient monuments and practices. The Moon has been as important as the Sun: its cycle of 29,53 days (“synodic month”) de�ne the month and its division on four parts, correspondent to the four Moon phases. The Moon illuminates some nights, allowing hunting and �shing, regulates tides and many biological cycles, while other ones (like a woman’s menstrual cycle) have nearly equal periodicity, perhaps by chance but more probably because of evolutionary reasons. Thus, as the apparent motion of the Sun gives a daily and yearly time reference, the motion of the Moon �xes intermediate periods (month and week). It is thus not by chance that the majority of ancient calendars is based on the lunar month. The Moon follows daily and seasonal paths in the sky that resemble those of the Sun; however the azimuth of the moonrise (or moonset) can oscillate by up to ± 6o 40’ (for an observer at 36o latitude) around the Sun rising (or setting) azimuth in the course of a monthly lunar cycle: the extreme points of this cycle are called “lunistices” or “lunar standstills”. In addition, the Sun gravitational perturbation leads to a precession of the Moon orbital axis, with a period of 18,61 years. Thus, every 18,61 years, the rising or setting Moon reaches a northern extreme in rising and setting azimuth respect to the summer solstice, and a southern extreme respect to the winter solstice. These points are called “major lunar standstills”. While such standstills can in principle be determined using horizon observations, as is the case of the solstice Sun, the Moon year-to-year angular displacement along the horizon is very small and near to a standstill. However, due to this cycle, four extreme azimuths must be considered for the Moon: the rising and setting points of North and South major standstill (corresponding to the smallest and the greatest azimuth of the Moon rising and setting point, respectively) and 227 A. Polcaro, V.F. Polcaro the North and South “minor standstill” (the corresponding positions after 9,3 years). The Moon’s 18,61 year cycle has been clearly codi�ed in monuments left by a number of cultures (e.g. the Celtic one: Gaspani, Cernuti 1997), though its importance has been at times exaggerated. In addition to the Sun and Moon, stars have also certainly always attracted man’s attention and the practice of grouping stars into “constellations”, that is in �gures seen by man in the patterns of stars over the celestial sphere, can be dated to the most ancient times. These �gures, as well as the same association in a single �gure of a number of stars at a relatively small angular distance, are obviously different from one culture to another, except in a few cases (such as the Pleiades). Because of the Earth’s rotation, stars seem to be rigidly rotating throughout the night around a �xed point, the “Celestial Pole”. From the geometrical point of view of an observer on the Earth’s surface, stars can thus be considered �xed on a rigid sphere rotating around a motionless Earth, as in the Ptolemaic model, and the Celestial Pole can be considered the intersection point of this sphere with the Earth’s axis. It is manifest that, because of the orbital motion of our planet, only stars situated in the opposite direction respect to the Sun can be seen at night. The stars visible at sunset in a given day are thus seen to rise later every night, until they are visible only shortly before sunrise, while other stars subsequently take their place, except for the “circumpolar stars”, the ones that, because of their angular position near to the Celestial Pole, are over the horizon during the night all the year long. The heliacal rising of a star (or other celestial body such as the Moon or a planet) occurs when it �rst becomes visible above the eastern horizon at dawn, after a period when it was hidden by the brightness of the Sun. Single bright stars have surely been used in calendric function by many cultures, since their seasonal cycle of visibility was used as an early warning of other important natural phenomena (Walker 1997): the case of the heliacal rise of Sirius, announcing the Nile �ooding in ancient Egypt is well known, as well as the one of the agricultural calendar of archaic Greece, based on the appearance and disappearance of stars and constellations, reported by Hesiod in the poem Works and Days. The case of planets needs to be examined with caution. The difference between stars, that were later de�ned in the Ptolemaic vision of the World (though it has obviously a much more ancient origin) as “�xed stars” and planets, the “wandering stars”, that is the ones with an apparent motion different from the one of the celestial sphere, was probably known since a very early epoch: it was, for instance, clearly de�ned in 3rd millennium BC Mesopotamian astronomy (Pettinato 1998). However, the planets’ motion is far less obvious than that of the Sun and Moon. The importance given to planets over the course of time is thus certain (as is proven by the fact that most cultures 228 Man and sky: problems and methods of Archaeoastronomy dei�ed planets, which they considered as objects of veneration and fear) but their actual use for calendric purpose is still far from clear (Iwaniszeswsky 2003), and the only documented case, to date, is the use of the Venus visibility cycle in Mesoamerican pre-Columbian calendars (Aveni 1993). The above mentioned celestial phenomena are all periodic ones and they are thus functional to the de�nition of temporal scales allowing a better organization of social activities. However, we have also to consider phenomena that are unexpected, either because they are one-time events or because they have a long, and thus not easily recognizable, periodicity. Some of these events (such as supernovae and comets) had a signi�cant role in the development of the various “World visions” imagined in the course of the history. On the other hand, the contribution of Archaeoastronomy to the study of transient phenomena has been extremely limited up to now because of the scarce likelihood of recovering material �nds connected with these events, while Historical Astronomy and Ethno-astronomy have provided a very productive method for exploring this �eld. 4. Archaeoastronomy measurements and data analysis Archaeoastronomy employs most of the human science methodologies and technologies, though the data analysis is obviously speci�c (Moscati in press). Most common archaeoastronomical studies start from the assumption that the ritual and/or calendric interest of particular artifact builders for a given astronomical phenomenon is shown by alignments with the horizon points where this phenomenon is seen. Because of the reasons explained in the previous paragraph, archaeoastronomical research usually starts with the search for alignments with the average directions of Sun and Moon rise and set during the year and with the local meridian (i.e. with geographical East, West, North and South). Second, the setting and rising directions of Sun and Moon at the extremes of their apparent motions (i.e. the solstices and lunar standstills) are examined. Third, the heliacal rising and setting directions of the most brilliant stars can be considered. Since they are always based on azimuth measurements, �eld archaeoastronomical measurements are, in these instances, topographic measurements and thus do not differ from the normal survey of an archaeological site, except for the need to refer all measurements to the geographical North and not to the magnetic one, since the difference between the magnetic and geographical North can be strongly in�uenced by the presence of natural or arti�cial local magnetic �elds (iron mass, electric lines, etc.). However, in the case of topographic surveys addressed to archaeoastronomical studies, a number of speci�c problems, analyzed in the following paragraphs, can take on particular relevance. 229 A. Polcaro, V.F. Polcaro 4.1 Positional Astronomy codes for archaeoastronomical studies The main problem in archaeoastronomical measurements is the determination of the geographical North, to be used as the topographic reference for following measurements of the selected alignments, using any kind of instrumentation. This calibration can be done using various techniques, but the one most used and accurate is the determination of the direction of culmination of any celestial body (usually the Sun, though a star can give a more precise result), that unequivocally identi�es the local meridian direction. When it is impossible (e.g. because of clouds) to take the measurements at the exact time of the culmination, the calibration can be done in any moment during the period of visibility of the celestial body over the horizon, if its geographical azimuth at the moment of the measurement is known. The computation of this parameter or of the exact time of the meridian transit of the selected celestial body (the local noon in the case of the Sun) is an easy task which can be performed by using astronomical or nautical ephemeredes. However, the calculation is boring and the possibility of error is signi�cant: it is thus wiser to use a Positional Astronomy computer program. All available commercial programs or freeware are able to give the required result with remarkable precision. A more complex problem is presented when the measured alignment has to be compared with the appearance of the sky in the epoch when the artefact under study was built and on the day we suppose to be the one of the ancient observations. The change in the position of celestial bodies in the sky, at least due to equinox precession and star proper motion, must be computed for this purpose. Due to the fact that the orientation of the Earth’s axis is slowly changing, tracing out a conical shape, completing one circuit in 25,771.5 years the equinox precession originates an angular movement of the celestial pole position, whose value as a function of time is given by a differential equation taking into account the Earth’s angular velocity and angular momentum, the angle between the plane of the Moon orbit and the ecliptic plane and many other parameters, including the Earth’s dynamical ellipticity or �attening, which is adjusted to the observed precession because Earth’s internal structure is not known in suf�cient detail (Williams 1994). This equation can be solved only by numerical integration and the results are given in polynomial form. To date, the best approximation is given by Williams (1994) and Simon et al. (1994); however, these solutions are applied only in the best professional computer codes, while the large majority of commercial programs use the older Lieske et al. (1977) solution (the so called “IAU formula”, since it is based upon the International Astronomical Union IAU/1976/ system of astronomical constants) or its �rst order approximation or even a simple proportional correction with the average value of -0.024 arcsec per century. 230 Man and sky: problems and methods of Archaeoastronomy Taking into account the negligible effect of the equinox precession on the solstice sunrise and sunset azimuth of the Sun and the intrinsic uncertainties in the evaluation of this value by ancient cultures (see below), once again most commercial codes and freeware can be used to check if an ancient artifact has this kind of alignments; actually, in most cases, the solstice alignments are still working to date, with minor differences respect to the time when they were built, even when the related structures are 6000 years old. However, the use of approximate solution can give signi�cant differences with respect to the results obtained by Williams (1994) in case of lunar standstills and position (including heliacal rising and setting) of stars. On the other hand, the differential equation of the equinox precession itself contains a number of coef�cients that are not exactly known, and the value of which is obtained by adjusting the solution on historical eclipse data. These events have been described with adequate precision only since the 8th century BC and the values obtained on these data are then extrapolated back for previous epochs. No computer code, including the professional ones, can thus guarantee the reconstruction of the exact sky appearance before the middle of the 2nd millennium BC and the uncertainties increase going back in time. The position of stars is affected by a further problem. Obviously, stars are not �xed on a celestial sphere as in the Ptolemaic model, but are orbiting around the Galactic Centre with complex trajectories. The composition of this motion with that of the Sun would make their relative position as seen from Earth variable in time even in the case that the Earth’s axis is not affected by its precession; the change in star position on the celestial sphere due to this effect is called “proper motion”. Though most of the stars are so far from Earth that this effect is negligible, some stars are close enough to have signi�cant proper motions and thus past positions signi�cantly different from the one computed taking into account the equinox precession only. Some of these stars, such as those in the Big Dipper and the Centaurus, are very luminous and were surely important for ancient peoples. All commercial Positional Astronomy codes use very approximate values for proper motion correction; when more reliable values are used, results can be quite different (Antonello 2008, for the case of the Big Dipper). Concerning lunar standstills, an evaluation of the precision of the lunar motion reconstruction by a speci�c Positional Astronomy code can be obtained by comparing its result on past Moon eclipses with the one recorded on the NASA-JPL database1, by far the most precise available to date. The matching of these reconstructions clearly proves an accurate computation of 1 http://planets.gsfc.nasa.gov/eclipses/eclipses.htm. 231 A. Polcaro, V.F. Polcaro the Moon position. To the author’s knowledge, best results in this sense are obtained by two freewares: Planetario V2.0, by Massimino (2002) and Solex V10.02, by Vitagliano (2008). 4.2 Measurement precision An enduring discussion among Archaeoastronomy scholars concerns the required measurement precision. Very re�ned techniques, based on GPS and able to reach a precision of 0.01 deg, have been proposed and employed to determine the direction of the meridian (Gaspani 2006). Other scholars claim the need to use total station or, at least, repeated theodolite measurements (Esteban, Cabrera 2005), while others simply use a good bearing compass or a laser-compass (Hoskin 2004; Polcaro, Polcaro 2006). This discussion actually no longer has a raison d’être since the angular precision necessary for an archaeoastronomical study critically depends on the nature of the artifact under consideration (Hoskin 2004). In fact, it is evident that a measurement precision of the supposed alignment higher than the one of the building technique is useless. Although the use of the theodolite in order to measure the alignments of a re�ned Greek or pre-Columbian temple is at least reasonable, this instrument becomes completely useless if the artifact under study is a Bronze age dolmen. In this case, a series of measurements made by means of a bearing compass, giving a precision of ±1 deg on the single measurement and of at least ±30 arcmin with a series of repeated measurements, is surely preferable; it is, in fact, illogical to suppose a mastery of higher precision technologies from the builders and furthermore, the greater ease of transport and use of the bearing compass allows one to attain a higher number of measurements, ceteris paribus a major element of success for a survey. We just wish to point out that a hundredth degree precision is, in any case, useless, since even the present day building techniques do not reach this degree of precision. On the other hand, there are a number of reasons suggesting that, even in the case of developed building techniques, a measurement precision much higher than ±1 deg can be useful only in a few cases. For instance, if we want to verify the alignment of a given artifact with the rising azimuth of the Sun at solstice, we have to bear in mind that the Sun is an extended object, with an angular diameter of 32’35”. The direction to be considered thus depends on what the builders’ culture considered as the “sunrise direction”: it could be the point where the �rst direct light appears, the center of the Sun when its disk is fully visible, the direction of a gnomon shadow when it �rst becomes observable or others. This direction can signi�cantly differ from the others; lacking further information, it thus seems useless to re�ne the measurement precision under the angular diameter of the Sun. A similar situation is present 232 Man and sky: problems and methods of Archaeoastronomy also in the case of lunar alignments. In conclusion, it is worth noticing that the actual azimuth of the horizon points where Sun or Moon are seen to rise or set critically depends on the observer’s horizon pro�le and that it can be considered equal to the theoretical one only in the case of a completely �at and free horizon, as on the sea or a broad plain. It is actually evident that the presence of a mountain (or even of a small hill) to the East allows the observer to see the celestial body only when it is at an angular height higher than the angle covered by the obstacle. This datum can easily be computed when a detailed topographical map of the site is available; however, signi�cant factors, such as the exact position of the observer, the eventual presence of forest trees and the same geological effects altering the obstacle pro�le over the centuries, are hardly ever evaluated. The resulting uncertainties can easily overcome the instrumental precision of the same bearing compass. When the hypothesis being tested is an alignment with the heliacal rising or setting of a star, the problem is even more complex. From the Positional Astronomy point of view, given the date and the geographical coordinates, computation of the day when a star is exactly on the astronomical horizon of the observer at sunrise or sunset and the related azimuth is a relatively easy task. However, this does not imply that on that day and at that time the star was actually visible. In fact, we have to take into account not only the horizon pro�le, as discussed before in the case of the Sun and Moon, but also a number of atmospheric effects that can be very relevant in the case of a point-like object, such as a star. In particular, the atmospheric refraction, due to the variability of the Earth’s atmospheric density as a function of height, has the effect of increasing the apparent angular height over the horizon. This effect can be computed by using an atmosphere model2, when atmospheric conditions at the time of the observation are known. However, in the case of archaeoastronomical applications, these conditions have to be evaluated as average climatologic values, with a high level of uncertainty. A further and more complex problem emerges from the fact that the instant of the actual visibility of a star is a function of its contrast with respect to the background light of the sky, which depends not only on the star luminosity and the observer’s eyesight but also on the sky view and transparency, on the possible presence of fog or haze and other local and time-variable phenomena. A new research branch, named “Celestial Visibility” (Schaefer 1993) is now developing precise formulas for determining the visibility limits of astronomical objects. Other scholars (Cernuti, Ga2 Positional astronomy codes usually employ the ICAO standard atmosphere model (Doc 7488-CD, Third Edition 1993) or occasionally the IOS (ISO 2533:1975) one for the atmospheric refraction computation. 233 A. Polcaro, V.F. Polcaro spani 2006) are presently applying the “Fuzzy Logic” methods to this topic. However, from a practical point of view we are forced to admit the possibility of a delay in the order of a number of days in the actual observation of the phenomenon, respect to the theoretical date of heliacal rising or setting of a celestial object, depending on the local and unpredictable behavior of the atmosphere. The related direction over the horizon must thus be considered intrinsically variable by a number of degrees from year to year. 4.3 Proofs of intentionality of an astronomical alignment The power of Archaeoastronomy lies in the fact that its hypotheses are based on a few very evident events, of undoubted universal interest. Its weakness, on the other hand, is the risk of a quasi-automatic search for solar and lunar alignments in any archaeological site worldwide, scanning the horizon looking for any peculiar feature that could be useful for calendric purposes, taking their presence for granted in all cultures and in all epochs. It is thus unfortunately common that some scholars claim the presence of solar or lunar alignments, on the basis of the astronomical evidence alone, regardless of the archaeological context, usually in cases where the builders’ culture is poorly known. However, as stressed by Iwaniszeswsky (2003), «It is very easy today, with PCs and astronomical software at hand, to investigate astronomical elements in different cultures. Nevertheless, the danger of reaching premature and culturally biased conclusions is great, since computations can be easily performed while historical and anthropological investigations are more challenging. Setting a problem in its proper cultural milieu is much more dif�cult than performing the calculations». In fact, the existence alone of astronomical alignments in a monument does not prove the actual intention of the builders to purposely search for these effects, since they can be the result of chance or coincidence. Thus, many astronomical alignments, even those claimed by famous scholars, have been objected to on the grounds that they were not thought of by their builders but exist only in the minds of present day scientists (Renfrew 1979; Schaefer 2006). This concern has been proven true on many occasions and has generated, as we saw in the case of Stonehenge (but this is certainly not the only one), a diffused mistrust of Archaeoastronomy among professional archaeologists. For this reason, Schaefer (2006) suggested that, in order to claim the intentionality of an astronomical alignment, two and possibly three conditions must be satis�ed: it must be statistically signi�cant at a level of at least 3 σ, its intentionality must be con�rmed by archaeological evidence and, where possible, it should be supported by ethnographic or anthropological attestations of the symbolic value of the claimed astronomical alignments. Actually, following Schaefer (2006), the probability, respect to the “null hypothesis” 234 Man and sky: problems and methods of Archaeoastronomy of chance coincidence, to �nd within 1 deg a single alignment corresponding to the eight astronomically relevant directions known to most cultures (the four cardinal directions and the ones of the sunrise and sunset at the winter and summer solstices) in a given architectural structure is equal to 1/22, i.e. 2.08 σ: it is thus quite a signi�cant probability. Furthermore, we must take into account other non astronomical reasons of a given orientation, such as the slope of the ground or the choice of a south-eastern orientation of the building in order to take advantage of the sunlight and heat (Castellani 2003). The situation is much worst if we want to check the alignment with the heliacal rising or setting of a bright star. There are 21 stars brighter than 2nd visual magnitude. The corresponding heliacal rising and setting azimuths are thus 42, covering, because of what was said before, 84° of the horizon. This corresponds to a probability of chance coincidence respect to the null hypothesis greater than 1/5: it is obvious that it is meaningless to claim the intentionality of an alignment solely on the basis of such low statistical evidence. It is thus wise to avoid any excess of enthusiasm and �ights of fancy in Archaeoastronomy (as already stressed, e.g. by Romano 1994 and Iwaniszeswsky 2003, Schaefer 2006 and many others) and rely only on well documented archaeological, anthropological and statistical facts. However, the statistical procedures to be followed in an archaeoastronomical analysis of a single monument are considerably different from those employed in a survey of the alignments of a series of monuments built by the same culture. Below, we will illustrate these differences by using two speci�c cases studied by the authors. 4.3.1 The case of single monument: the “Preta ’ru Mulacchio” on Monte della Stella The Monte della Stella is a 1131 m high mountain, belonging to the range separating the Alento Valley from the Tyrrhenian Sea, south of the city of Agropoli in Italy. At 1030 m above sea-level, a large, isolated outcrop of bedrock is present. This rock (Fig. 1) is well known to local people and called the “Preta ’ru Mulacchio”, the expression meaning in the local dialect “The Bastard Child Rock”. The “Preta” is basically composed of three rocks that originated for natural reasons from a single block of arenite in its upper part and from a rough conglomerate in the lower one; between the three rocks, two tunnels (thereafter F and G) were thus formed. However, it is easy to see that the “Preta” was profoundly modi�ed by human intervention: large stones were wedged into exact positions between the three original blocks or positioned as a cover (Ienna 2005; Polcaro, Ienna 2009). We found that F gallery has an astronomical azimuth of 359 deg and G gallery of 240 deg. Inside the measurement precision (±1 deg), the galleries 235 A. Polcaro, V.F. Polcaro Fig. 1 – The “Preta ’ru Mulacchio”: N-W side view, section at 1.5 m from ground, alignments and light effects. are thus respectively oriented to the meridian and to the sunset of the winter solstice. The meridian alignment of F gallery let a “Sun blade” penetrate inside at noon (Fig. 1c). The length of this beam of light obviously varies during the year from a minimum at the summer solstice to a maximum at the winter solstice, when it reaches exactly the end of the F gallery (Fig. 1d). We must �rst evaluate the probability of the “Sun blade” length at the winter solstice being equal to the length of the gallery due to chance coincidence. Since, from a statistical point of view, the “Sun blade” could have a length equal to the one of the gallery on each day of the year, or even never reach this value, we can infer that the probability of having the length of the light beam at noon and the one of the gallery on a given day is ≤1/365, corresponding to 3.25 σ. Furthermore, following Schaefer (2006), the probability, respect to the “null hypothesis” of chance or coincidence, to �nd within 1 deg 236 Man and sky: problems and methods of Archaeoastronomy a single solar alignment in a given architectural structure is equal to 1/22, i.e. 2.08 σ. The composed probability of having, in the case of the winter solstice, at the same time two coexisting solar alignments within 1 deg (as in our case the meridian and the sunset) and the length of the “Sun blade” equal to the one of the gallery is thus ≥4.38 σ, corresponding to about 1 over 180000. We can thus conclude that the “Preta ’ru Mulacchio” withstands the statistical test of intentionality in the alignments. Furthermore, there is also clear archaeological evidence of the intentionality of these alignments: for instance, the triangular stone D, making the length of the gallery equal to the one of the “Sun blade” exactly at noon of the winter solstice has actually been purposely wedged into its position. Lastly, modern folklore associated with the rock seems to recall very ancient fertility rites (La Greca 1997), often connected with the winter solstice, the day of the “rebirth” of Sun. We can thus claim that the “Preta ’ru Mulacchio” is most probably a monument, dated to an epoch presently unknown but possibly preceding the Greek colonization of Cilento, built in order to determine with a high degree of precision the winter solstice for ceremonial reasons. 4.3.2 The case of surveys: the dolmens of the Wadi Zarqa valley Statistic analysis alone can indicate the intentionality of an astronomical alignment when this orientation is found in a statistical signi�cant sample of structures typologically similar and having reference to the same cultural context (see, e.g. the study by Aveni, Romano 1994, of the “mutare”, small arti�cial mounds of soil and stones found in Veneto between the Piave and Tagliamento rivers attributed to the Villanovan culture). The statistic tools used in this case are exactly the same as those used in other kinds of archaeological surveys (Fletcher, Lock 2005). However, again in this case, archaeological and anthropological considerations are needed if we want to interpret these alignments or consider other monuments of the same culture. For instance, dolmens and other megalithic structures, dated to the Early Bronze age, are very common in the whole Palestinian area (Prag 1995). These monuments are precious evidence of the symbolism used by the populations living in this area at the time, who did not leave us written records of their world vision. On the other hand, it has been clearly demonstrated in many other archaeological contexts that megalithic structures are often astronomically oriented and that these orientations could supply useful information about the religion of their builder. In the speci�c case of the Early Bronze age Palestinian sites, the archaeo-topographic and archaeoastronomical studies of the megalithic monuments are scanty and only Belmonte (1997) performed a detailed archaeoastronomical survey of two dolmen �elds (Ala Safat and Al-Matabi). During a survey of dolmen �elds dated to the Early Bronze I in Jordan (i.e. to the end of the 4th millennium BC), started in October of 2004 and still 237 A. Polcaro, V.F. Polcaro in progress, we measured the alignment of a statistically signi�cant sample of dolmens in the upper Wadi Zarqa valley (Polcaro, Polcaro 2006). The number of dolmens aligned in angular bins of 8° was then computed in order to increase the statistics. The results were �rst checked versus the hypothesis of isotropic distribution in azimuth and, when a statistically signi�cant peak was found, it was best-�tted by using Gaussians, in order to evaluate the hypothesis of a random distribution around a �xed direction. In this way we measured and analyzed the alignments of a random sample of 44 dolmens (6.7% of the total and thus statistically signi�cant) in the dolmen �eld of Jebel Mutawwaq, an Early Bronze Ia site, excavated and described by Fernández-Tresguerres (1998), and a total of 29 other dolmens from four minor dolmen �elds in the upper Wadi Zarqa valley (where we measured all the surviving dolmens). Our survey shows, with a very high statistical signi�cance, that dolmens from the Jebel Mutawwaq �eld are predominantly oriented in the meridian direction: 24 of them (54,5%) are oriented between 168° and 192°. A smaller, but still signi�cant number (6) seems to cluster around the alignment of 152° (Fig. 2); this excess is best �tted by the sum of two Gaussian, one centered on South and the second to 152°. This model has a statistical probability, evaluated by means of the reduced χ2 test, equal to 94%. The standard deviation of both Gaussian is of 6,5°, corresponding to a random error of the alignment of ±3,25°, most probably due to the precision achieved during the building of the dolmens. The distribution of the whole sample of dolmens we measured in the �elds of the Zarqa valley can be �tted by the same model (with a statistical signi�cance of 5,4 σ respect to the isotropic distribution) and its statistical probability, evaluated by means of the reduced χ2 test is equal to 99%. A comparison with the results of the Belmonte (1997) survey of the dolmens of the Ala Safat �eld, used as comparison sample, con�rmed the model. Archaeological considerations lead us to conclude that these orientations were linked to the complex funerary customs of the local semi-nomadic people, who inhabited Palestine between the end of the 4th millennium and the beginning of the 3rd millennium BC. The related rituals were most probably performed during festivals dedicated to the god Dumuzi, identi�ed with the Orion constellation, which coincide with the winter solstice. Actually, the 152° azimuth corresponds to the direction of the Orion constellation when the shape of the man seen in it appears to “stand up”, i.e. he is in a vertical position (Fig. 3). The Mesopotamian god Dumuzi is considered by ancient Near East scholars to be a “western” god, i.e. the myth came to Sumeria from the West (Botero, Lavander Flagan 2004). It is thus probable that he was venerated by the shepherds of the Jordan valley and of the nearby regions. This conclusion, reached mainly on the basis of statistical considerations, could be considered only speculative. On the other hand, it is supported 238 Man and sky: problems and methods of Archaeoastronomy Fig. 2 – Orientations distribution of a statistically signi�cant sample of dolmens from the Jebel Mutawwaq site. Fig. 3 – Reconstruction of the sky over the Wadi Zarqa at the winter solstice of 3000 BC (by using PlanetarioV2.0). 239 A. Polcaro, V.F. Polcaro by the analysis of other archaeological sites belonging to the same cultural context. For instance, archaeological excavations conducted in 1988-1991 (Aveni, Mizrachi 1998) provided information on the geometry of Rujm el-Hiri, a well-known megalithic monument on the central lower Golan, and on alignment associations between the architecture of this complex and astronomical events. These studies clearly demonstrated that its north-eastern entryway is aligned, with a remarkable precision, to the direction of the summer solstice sunrise in the middle of the 4th millennium BC, while the two boulders, located on the eastern section of the outermost circular stone wall of the complex, form a sight line from the geometric centre of the complex, identifying the direction of the equinoctial sun with an accuracy of less than 1,5°, corresponding to a precision in time of 3-4 days. On the basis of these measurements and of the analysis of the local environment, these authors suggest that the north-eastern entryway was used for ritual processions on the occasion of the festivals dedicated to the god Dumuzi during the summer solstice; these rituals are well known in the Mesopotamian context (Cohen 1993). On the other hand, the orientation of the Rujm el-Hiri south-eastern entryway turns out to be equal to 151°51’, thus more than 20° away from the direction of the winter solstice. Aveni and Mizrachi (1998) evaluated many other astronomical and topographical hypotheses, but none of them �ts with the experimental data. They thus conclude that: «The SE gate may be oriented to a place in which some historically signi�cant episode for these people took place». It is obvious that this kind of a conclusion is not satisfactory. In fact, the orientation of the Southeast Gate of Rujm el-Hiri is just the same as the one found in our survey of the Wadi Zarqa valley dolmens (Polcaro, Polcaro in press). We can thus argue that this orientation in the Southeast Gate of Rujm el-Hiri had a role in ceremonies dedicated to Dumuzi in occasion of the winter solstice, similar to the one of the north-eastern Gate used for rituals connected with the same god on the summer solstice. This �nding allows us to interpret all the main orientation of the Rujm el-Hiri complex in a single conceptual framework, strongly supporting the Aveni and Mizrachi (1998) conclusions concerning the cultural role of this monument. The study of the “Temple of Snakes” in Jebel Mutawwaq (Polcaro in press) further con�rms the association of the 152° alignment with Orion constellation and the cult of Dumuzi; this point will be explained in detail below. 5. Conclusion: an Archaeology based on a synthesis of human and physical science? The examples that we have summarized show how the use of Archaeoastronomy can be extremely useful not only in studies of historical cultures, 240 Man and sky: problems and methods of Archaeoastronomy where written sources can help to outline the astronomical knowledge and religious customs of people, but mainly in research on prehistoric cultures. From the �rst known Neolithic cultures it is clear that the observation of the starry sky was a central point in the formation of cults, rituals and mythologies of mankind. Studies on ritual and funerary practices are based mainly on translations of religious texts and interpretations made by philologists, correlated with the analysis of data obtained from archaeological excavations. The synthesis of these two sciences allows us to obtain a more or less precise reconstruction of what ancient peoples thought about religion. Actually, archaeological investigation on temples and religious buildings supplies information about cult objects and the dynamics of rites performed in the sacred buildings: these results, when put in relation to the text interpretations, clarify the modalities, times and ideological meanings of the ceremonies. In funerary contexts, archaeological investigation makes it possible to analyze the funerary gifts and rituals; consequently, these elements, together with a philological analysis, put us in a position to attempt a reconstruction of the eschatology and the ideology of death. However, in the absence of textual references, the excavation alone enables us to reconstruct the actions performed during the ritual, but it does not assure the identi�cation of the innermost meaning of the rite; in a purely “archaeological” investigation, the understanding of the underlying mythological framework is also lost. The use of sciences such as Geology, Paleobotany, Physical Anthropology and many others is, to date, central to an archaeological investigation and to the subsequent analysis of data obtained from the excavation. On the other hand, only rarely can a physical science help us understand the “ideology” underlying a ritual act; it can better clarify the modality and the times of the act, however, it can never reveal to the modern scholar its surrounding superstructure. This is the great value and potential of Archaeoastronomy, as long as it is strongly linked and continuously compared with excavation data. A practical example can be given by the excavations of a well de�ned environment, such as a sanctuary, where the archaeological investigation, correlated with the use of physical sciences, analyzes all the �ndings inside the sacred structure, including equipment left, traces of rites such as accumulations of ashes or longlasting depositions of objects in a given area; the analysis of the architectural typology can clarify cultural in�uences and correlations of the structure under investigation with the coeval context where it was designed and built. However, these results cannot always answer one of the �rst questions that an archaeologist asks himself about a sacred building: to whom was it dedicated? Who was the god or the complex of divine entities worshipped here in the rituals reconstructed through the excavations and the subsequent interpretation of the material �ndings? Sometime, even when textual data are lacking, the answer can be given by the same cult equipment present in situ; 241 A. Polcaro, V.F. Polcaro however, often many doubts remain and can be solved only by the chance discovery of a symbol speci�cally connected with a single divinity. On the contrary, if, during these investigations, the measurement of the orientation of the sacred building reveals that it was aligned with a precise point of the sky such as a particular position of a celestial body on a given day of the year, we can gather information which is totally absent from the data collected during the analysis previously described, but strongly indicative of the actual purposes of the buildings. We previously mentioned the case of Jebel Mutawwaq “Temple of the Snakes”. A recent analysis performed by one of the authors (Polcaro in press) on this complex, dated to the 4th millennium BC, identi�ed the orientation of the entryways of this temple to the particular azimuth where the hero, represented in most of cultures by the Orion constellation, “stands up”. This discovery was the key point for the identi�cation of the deity venerated in this structure. This god has been identi�ed in the typology of the god “dying and resurrecting”, well known in the cultural contexts of the Near East (Dumuzi/Tammuz; Xella 2001), and also documented in later sources (Polcaro in press). The relationship of a god similar to Dumuzi/Tammuz with applications representing snakes and trees on cult vessels found in the temple cell on one hand and the alignment of the temple entryways to the particular position of the Orion constellation seasonally appearing and disappearing in the Sky and representing the god passing from the House of Gods to the Netherworld, found by the previously described analysis of the Wadi Zarqa valley dolmens, on the other, is an example of the capacity of Archaeoastronomy to support Archaeology in various cultural contexts, providing valuable assistance in the interpretation of material data. Andrea Polcaro Dipartimento di Scienze Storiche, Archeologiche ed Antropologiche dell’Antichità Sapienza Università di Roma Facoltà di Lettere Università degli Studi di Perugia Vito Francesco Polcaro Istituto di Astro�sica Spaziale e Fisica Cosmica – Roma Istituto Nazionale di Astro�sica Acknowledgements We are indebted to Prof. Khaled Douglas and Dr. Gajus Sheltema who accompanied us during part of the survey of dolmen �elds in Jordan. We also wish to thank Dr. Vittoria Caloi (INAF-IASF Rome) for critical reading and revision of the text. REFERENCES Antonello E. 2008, Origini remote di miti e costellazioni: l’Orsa maggiore, in V. Kruta (ed.), Gli occhi della notte. Celti, Etruschi, Italici e la volta celeste, Milano, Skira, 25-27. 242 Man and sky: problems and methods of Archaeoastronomy Antonello E. (ed.) in press, Atti del 7o Convegno annuale della Società italiana di Archeoastronomia Il Cielo e l’Uomo: problemi e metodi di Astronomia culturale (Archeoastronomia, Etnoastronomia, Storia dell’Astronomia) (Roma 2007), in press. Aveni A.F. 1993, Gli imperi del tempo, Bari, Dedalo. Aveni A.F. 2006, Evidence and intentionality: on method in Archaeoastronomy, in Bostwick, Bates 2006, 57-70. Aveni A., Mizrachi Y. 1998, The geometry and astronomy of Rujm el-Hiri, a megalithic site in the southern Levant, «Journal of Field Archaeology», 25, 475-496. Aveni A., Romano G. 1994, Orientation and Etruscan rituals, «Antiquity», 68, 545-563. Belmonte J.A. 1997, Mediterranean archaeotopography and archaeoastronomy: two examples of dolmenic necropolises in the Jordan Valley, «Archaeoastronomy», 22, S37-S43. Bostwick T.W. 2006, Archaeoastronomy at the gates of orthodoxy: introduction to the Oxford VII International Conferences on Archaeoastronomy Papers, in Bostwick, Bates 2006, 1-13. Bostwick T.W., Bates B. (eds.) 2006, Viewing the Sky through Past and Present Cultures. Oxford VII International Conferences on Archaeoastronomy, Pueblo Grande Museum Anthropological Papers 15, Phoenix (AZ). Botero J., Lavender Fagan T. 2004, Religion in Ancient Mesopotamia, Chicago, University of Chicago Press. Castellani V. 2003, Italia: archeoastronomia e necropoli preistoriche, «Rivista di Archeoastronomia», 1, 33-48. Cernuti S., Gaspani A. 2006, Introduzione all’Archeoastronomia: nuove tecniche di analisi dei dati, Firenze, Tassinari. Cohen M.E. 1993, The Cultic Calendars of the Ancient Near East, Bethesda, Maryland, CDL Press. Esteban C., Delgado Cabrera M. 2005, Method for the astronomical analysis of the horizon around archaeological sites, in Proceedings of the International Conference on The Rock-cut Sacred Places of the Thracians and other Palaeo-Balkan and Ancient Anatolian Peoples (Stara Zagora Spa, Bulgaria, 2005) (http://www.rock-cut.thracians. org/en/c_resume.php; accessed 13 February 2009). Fernández-Tresguerres Velasco J.A. 1998, Jebel Mutawwaq y los inicios de la edad del Bronce en el Norte de Jordania, in J.-L. Cunchillos, J.M. Galán, J.-A. Zamora, S. Villanueva de Azcona (eds.), Actas del Congreso El Mediterráneo en la Antigüedad: Oriente y Occidente, Sapanu, Publicaciones en Internet II (http://www.labherm.�lol. csic.es/; accessed 3 April 2006). Fletcher M., Lock G.R. 2005, Digging Numbers, Oxford, Oxford University Press (2nd ed.). Flinders Petrie W.M. 1880, Stonehenge, Plans, Description and Theories, London, Edward Stanford. Fisher V.B. 2006, Ignoring Archaeoastronomy: a dying tradition in American Archaeology, in Bostwick, Bates 2006, 103-113. Freeman P.R. 1976, A Bayesian analysis of the megalithic yard, «Journal of the Royal Statistical Society», Series A, A139, 20-55. Gaspani A. 2006, Il GPS in archeoastronomia, «Rivista di Archeoastronomia», 4, 135-196. Gaspani A., Cernuti S. 1997, L’astronomia dei Celti, Aosta, Keltia Editrice. Hawkins G. 1965, Stonehenge Decoded, London, Doubleday & Co. Hoskin P. 2001, Tombs, Temples and their Orientations, W Sussex, Ocarina Books Ltd. Ienna D. 2005, Simbologie e rituali di fecondità nel Cilento montano, «Annali Storici di Principato Citra», 3, 11-58. Iwaniszewski S. 2003, Archaeoastronomical analysis of Assyrian and Babylonian monuments: methodological issues, «Journal for the History of Astronomy», 24, 79-93. 243 A. Polcaro, V.F. Polcaro Judge W.J. 1984, New light on Chaco Canyon, in D.G. Noble (ed.), New Light on Chaco Canyon, 1-12, Santa Fe, School of American Research Press. Kendall W.S. 1974, Hunting quanta, «Philosophical Transactions of the Royal Society London», A276, 231-66. La Greca A. 1997, Appunti di storia del Cilento, Acciaroli, Centro di Promozione culturale del Cilento. Lanciano N. 2006, Strumenti per i giardini del cielo, Roma, CNIS. Lieske J.H., Lederle T., Fricke W., Morando B. 1977, Expressions for the precession quantities based upon the IAU /1976/ system of astronomical constants, «Astronomy & Astrophysics», 58, 1-16. Lockyer N. 1894, The Dawn of Astronomy, Kessinger Publishing (Facsimile edition 1997). Lockyer N. 1906, Stonehenge and Other British Stone Monuments Astronomically Considered, Kessinger Publishing (Facsimile edition 2003). Lockyer N. 1909, Surveying for Archœologists, London, Macmillan and co. Massimino P. 2002, Planetario V2.0 (http://ntserver.ct.astro.it/cgiplan/; accessed 7 February 2008). Moscati P. in press, Archeoastronomia: metodi e strumenti, in Antonello in press. Pettinato G. 1998, La scrittura celeste, Milano, Mondadori. Polcaro A. in press, Jebel Mutawwaq Dolmens: cult of ancestors in Eb I Wadi Az-Zarqa valley, in Proceedings of 6th International Conference of the Archaeology of the Ancient Near East (ICAANE) (Rome 2008), in press. Polcaro A., Polcaro V.F. 2006, Early Bronze age dolmens in Jordan and their orientations, «Mediterranean Archaeology and Archaeometry», 6, 3, 166-171. Polcaro A., Polcaro V.F. in press, L’orientamento della Porta SE del complesso megalitico di Rujm el-Hiri, in Antonello in press. Polcaro V.F., Ienna D. 2009, The Megalithic complex of the “Petra ’ru Mulacchio” on the Monte della Stella, in Cosmology across Cultures (Granada 2008), ASP Conference Series Volumes 409, 370-374. Prag K. 1995, The Dead Sea dolmens: death and landscape, in S. Campbell, A. Green (eds.), The Archaeology of Death in the Ancient Near East, Oxbow Monograph 51, Oxford, Oxbow Books. Renfrew C. 1979, Problems in European Prehistory, Cambridge, Cambridge University Press. Romano G. 1994, Archeoastronomia italiana, Padova, CLEUP. Ruggles C.L.N. 1999, Astronomy in Prehistoric Britain and Ireland, New Haven and London, Yale University Press. Schaefer B.E. 1993, Astronomy and the limits of vision, «Vistas in Astronomy», 36, 311361. Schaefer B.E. 2006, Case study of three of the most famous claimed archaeoastronomical alignements in North America, in Bostwick, Bates 2006, 27-56. Simon J.L., Bretagnon P., Chapront J., Chapront-Touzé M., Francou G., Laskar J. 1994, Precession formulae and mean elements for moon and planets, «Astronomy & Astrophysics», 282, 663-683. Sinclair R.M. 2006, The nature of Archaeoastronomy, in Bostwick, Bates 2006, 1326. Somerville B. 1912, Prehistoric monuments in the outer Hebrides and their astronomical signi�cance, «Journal of the Royal Anthropological Institute», 42, 15-52. Thom A. 1978, Megalithic Lunar Observatories, Oxford, Clarendon Press (1st ed. 1971). Vitagliano A. 2008, Solex V10.02 (http://chemistry.unina.it/~alvitagl/solex/; accessed 7 February 2008). 244 Man and sky: problems and methods of Archaeoastronomy Xella P. 2001, Quando un dio muore. Morti e assenze divine nelle antiche tradizioni mediterranee, Verona, Essedue. Walker C. (ed.) 1997, L’astronomia prima del telescopio, Bari, Dedalo. Williams J.G. 1994, Contributions to the Earth’s obliquity rate, precession and nutation, «Astrophysical Journal», 108, 711-724. ABSTRACT Archaeoastronomy is a discipline devoted to the study of the astronomical observations preceding the invention of the telescope. It is an interdisciplinary science, requiring the knowledge of astronomers, archaeologists, linguists, anthropologists and architects. It has highlighted the great importance that ancient civilizations attributed to celestial phenomena and demonstrated how the analysis of the testimonies of this interest can greatly help us in the understanding the past history of mankind. However, we must avoid the mistake of believing that it is possible to study the impact of celestial phenomena on ancient cultures without taking into account their context: unfortunately, this error is still common to date. This paper illustrates the evolution of Archaeoastronomy since the beginning of the 20th century, its basic principles and the modern methodologies for Archaeoastronomy measurements and data analysis. Moreover, the proofs needed to claim the actual intentionality of an astronomical alignment are discussed, showing the potential of Archaeoastronomy, as long as it is strongly linked to, and continuously compared with, excavation data, and combined with Archaeology in various cultural contexts, thus providing valuable assistance in the interpretation of material data. 245 Archeologia e Calcolatori 20, 2009, 247-259 DIGITIZATION AS A SCIENCE 1. Introduction The birth of this article is closely related to the processes that have been going on for the past few decades that have brought about changes in the Humanities and have in�uenced the activities of institutions involved in the Humanities and the practical activities arising from them. These processes include the formation of a network society (Castells 2005), the birth of new paradigms in science theory, the development of interdisciplinarity among sciences, the increased need for education in the Humanities and the development of digital technologies. The situation is perhaps chie�y characterized by the digital technologies developed over the past few decades that are increasingly in�uencing all aspects of human life. These technologies provide new means of documentation and communication, and offer opportunities to create new methods of scienti�c research and models of practical activity in order to optimize pre-existing methods of scienti�c research as well as to develop interdisciplinary research. They change the processes of accumulation, storage, accounting, study of sources of the Humanities and the spreading of scienti�c information. At the same time, the role of the Humanities, institutions and researchers in these processes changes as well as the attitude of society towards science and the institutions fostering it. However, many problems related to the practical aspects of digitization1 have yet to be solved. We can af�rm that one of the most important sources of these problems is the lack of scienti�c research on digitization. In many countries digitization is basically perceived just as a practical �eld of activity and it is conducted only on a practical basis2. Following this approach, the impression is created 1 The term “digitization” is mostly used in this work in the sense of application of computer technologies in the environment of cultural heritage, the Humanities and Social Sciences. On the one hand, application of digital technologies in natural (not man made) spaces is suf�ciently studied in the contexts of other sciences; on the other hand, explication of the study results of this article beyond cultural (man made) spaces would be incorrect considering the basic education of the author. Moreover, it seems that digitization is becoming a practical and scienti�c problem namely in cultural (man made) space. But, of course, application of some conclusions given in the article is also possible beyond cultural spaces. 2 In different countries the relationship between digitization practice and scienti�c research and the relationship between self-educated persons and professionals participating in digitization is different and depends on the general level of digitization of the cultural heritage in the country. In late 2006-early 2007, during the “Digital Preservation Europe” project a comparison of the situation of scienti�c research on digitization of cultural heritage in different countries was made. The study 247 R. Laužikas that no speci�c theoretical knowledge is necessary for digitization and that this can be done by any specialist who has at least elementary training on how to press the buttons on a scanner or digital camera. Therefore, some digitization projects having poorer resources and less-skilled staff become a mere scanning of analogical documents and, after a project is completed, even its users hardly know what they should do with the scanned images since they are not linked to each other by any structure, their scanning resolution and �le formats are different, and no plans for long-term storage or further project development are foreseen strategically. Broader approaches are much more suitable when: 1) Digitization is considered to be a method suitable for documentation, storage, scienti�c research, communication. If digitization is considered to be a method then, along with its practical application, it can also be comprehensible in the context of scienti�c research where the basis of scienti�c research is a method theory (Popper 1959). For instance, methods like mathematical statistics are already included in the Classi�cation of Study and Research Areas, Fields and Branches. 2) Another case in which we may identify a scienti�c character in digitization, is the empirical and experimental �xing of objective phenomenon of reality that could be investigated by this new science. In this way, the sciences which originated from the practical activities of “memory institutions” – libraries, archives, museums – are de�ned. Nowadays they are also acknowledged as independent research disciplines and academic subjects. Consequently, the subject of this article is digitization as scienti�c research. The aim is to provide the answers to the following questions: can digitization be comprehended as a kind of scienti�c research? What is the purpose of scienti�c research on digitization? Can the science of digitization have special terminology and methods? 2. Digitization as a science? This article will not study any conceptions or paradigms of modern science. There is plenty of special literature on this subject (Popper 2001; Chalmers 2005). For a description of digitization as a science we will use, �rst of all, the aforementioned theoretical model, according to which the showed that Lithuania, Serbia and Turkey fall into the last but one cluster. Only Bulgaria, Latvia and Ukraine are worse (in the last cluster). Absolute leader in this �eld is the United Kingdom. Germany and Holland are in the second cluster (Laužikas 2007). In these European countries, as well as in the USA and Australia, scienti�c research (especially applied research) on digitization is at a high level. The most tangible results include scienti�cally reasonable references, rules, and standards intended for digitization practitioners as well as methods and training programs in Universities. 248 Digitization as a science process of conversion of digitization, as a practical activity, into scienti�c research may be analyzed and described in the same way as the conversion of museum studies, as the �eld of practical activity, into museology. That is, due to certain speci�c practical activities, objective and empirically observable phenomenon emerges and scienti�c research is necessary to perceive it. Therefore, descriptions of the object of scienti�c research on digitization given in this section are based on Friedrich Waidacher’s model for the de�nition of museology (Waidacher 2007). Waidacher’s approach is basically positive, and is founded on the concept that only phenomena soundly based on empirical and experimental experience may be called scienti�c. Naturally, the model of development of museum studies, as a practical activity, in the science of museology may only hypothetically be applied to modelling the development of other practical activities towards a science. Therefore, we will try to further analyze the concepts introduced into the �eld of theories of other areas of science as well. 2.1 Occurrence of a scienti�c problem In order to answer the question of when a practical �eld of activity becomes a science, �rst of all we have to determine whether its adequate development, solution of its practical problems «requires theoretical knowledge meeting the highest standards of development in that �eld» because theoretical knowledge «helps to assess empirical data, to scrap emotional ballast, to foresee proper methods for problem solving» (Waidacher 2007). Are there any problems in digitization, as a practical activity, the solving of which requires theoretical knowledge? In this case we should give an af�rmative answer. Consequently, digitization, as a practical �eld of activity, acquires the features of a science. Therefore, in the following paragraphs we will try to describe the subject of digitization as scienti�c research, to give its de�nition, its links to other sciences and practical activities, and the issues of terminology and methods. 2.2 Possible object of the science of digitization The object of the science of digitization would be an objective �eld of reality, as a part of general cognition, that originated from the practical application of digital technologies and that is determined and studied empirically and experimentally by digitization as a science. At �rst sight, it may seem that the object is obviously the applied aspects of computerized science because it is a new �eld of reality that did not exist before computers came into existence. On this basis, the de�nition of so-called e-Science was created (De�ning e-Science 2008). But it is clear that, regardless of whether we use a computer or not, the object of a speci�c science (history, 249 R. Laužikas archaeology, museology) and its problems remain the same. Only the aspects of information management change. Information systems grounded on digital technologies work like a tool to serve the needs of a scienti�c discipline and expand its methodological base, but this does not necessarily give rise to a new science (“digital history”, “digital archaeology”). Other potential objects are “born digital” and “digitized” data. They also did not exist before computers came into existence. In this case, born digital data, i.e. data existing entirely in the digital environment and having no equivalents in an analogue world, should be mentioned. However, data and information have always existed and became a subject of scienti�c research on information and communication a long time ago. From the scienti�c standpoint of a process as well as the semiotic school, we can �nd few differences between the data functioning in analogue and digital environment. This situation is explained quite well and its scienti�c character “eliminated” by Arkadij Sokolov’s theory of “the effect of information glasses” (Соколов 2002). One more aspect that could be an object is the methods applied to the practical activity of digitization. But the methods are general, borrowed from the sciences of mathematics, mathematical statistics, informatics and computer science. After all, it does not make much difference whether a threedimensional scanner is used for making a geodetic topographic survey or for scanning a heritage object; similarly, calculation of correlation coef�cients for astronomical and historical data and calculation of the same correlation made by hand on paper and by computer do not differ methodologically. Therefore, what is the �eld of reality suitable for potential scienti�c research, which is studied by digitization? It is already clear that the aforementioned elements – digital tools, institutions, hardware and software, methods, data, information, people, etc. – are not intrinsically separate objects of research on digitization as a science and they may be equally successfully analyzed. They are present not only in the environment of cultural heritage and the Humanities but in natural, technological environments as well and not only in digital but also in analogue environments. But it is relevant for us that in the practical activity of digitization they are not present separately but as a closed set of interrelated elements. Therefore, what remains to be done is to explore their relation that may be an actual object of research on digitization as a science. This relation (and the object of research on digitization as a science at the same time) may be called emulativity. In digitization, it is a speci�c relation between man and reality when people select from reality and/or arti�cially generate the objects, on the basis of which they create emulative systems in a digital environment, emulating and imitating the activity of natural systems operating in reality (that operated in the past or will operate in future). Emulativity is a speci�c phenomenon induced by digital technologies, virtual 250 Digitization as a science world and Internet and may be studied in many ways including personality psychology.3 but in this article we will limit our comments to that part of emulativity which is related to the application of computer technologies to creation4, heritage protection, the Humanities and Social Sciences; we will study theoretical interpretations and practical realizations of emulativity in the above mentioned �elds only. It is important to note that emulative systems are not copies of systems existing in reality; but are as independent, dynamic and freely evolving as the systems of reality that they emulate These systems have all the features of evolving systems determined by Ilya Prigogine (Пригожин, Стенгерс 1986; Пригожин 2002; Prigogine 2006): a) these systems evolve; b) evolution of systems is based on an objective time line which ensures irreversibility of processes; c) variability of system components which lasts for a long time causes changes in the whole system; d) evolution of a system is a process that can be forecast only in part; e) sometimes an evolving system experiences disturbances that change it essentially (system mutations); f) the smoother the system is, the higher its level of self-organization and the less it responds to mutational effect; g) both systems (that of reality and emulative) evolve at different speeds; h) two systems (that of reality and emulative), the evolution of which started in different points of space and time, increasingly recede from each other; i) two systems (that of reality and emulative) are not inter-integrating. In this context, the emulative system appears to be a perdurant object5 while digitization as a science (thanks to digital technologies, by the way) acquires the latest paradigm de�ned by I. Prigogine; it is not con�ned to ideal3 Where personality psychology is mentioned, psychological phenomena caused by activity in virtual media typical of many modern people (such as transfer of a part of real life or personality into virtual environments) are kept in mind (Suler 2004). 4 Creation and creativeness in this article are perceived not in the classic sense – like an artistic activity of some kind – but in the widest sense – like any creating activity by a man, an individual’s inclination to new, original or innovatory arrangement, modelling or thinking of something, thanks to which new things are born from knowledge and experience. 5 Endurantism and perdurantism are two opposing philosophical theories investigating persistence of objects with regard to time and they were formed during the last decades of the 20th century. Endurantists af�rm that objects are three-dimensional entities, they have spatial parts and wholly exist at each moment of their existence. Perdurantists af�rm that objects are four-dimensional entities (the fourth dimension and component of objects is time) and they exist at each moment of their existence only partially. The origin of these philosophical theories may be linked to A. Einstein’s general and special relativities. Endurantism is more suitable for Newton’s descriptive space of physics and it is problematic in description of Einstein’s space-time objects (Hales, Johnson 2003). 251 R. Laužikas ized and simpli�ed situations but seeks to re�ect and cognize the complexity of the real world through emulative systems (Prigogine 2006). Consequently, the object of digitization, like museology, applied to creation, heritage protection, the Humanities and Social Sciences is immaterial and independent of changes in digital technologies, institutional, legal or otherwise. Technologies may only help or disturb the implementation of emulativity. But emulativity of cultural heritage, like an object of the science of museology-museality, is related with material, reality witnessing objects that, on the basis of appropriate theoretical assumptions, are selected and transferred to a museum or digital emulative system. Objecti�cation of museality as well as of emulativity is conducted by interaction with material objects. But in this case emulativity has one essential feature, which makes it different from museality. In museology the object is taken from reality, is transferred to a museum and becomes an exhibit. During this process the utilitarian function of the object vanishes and the museum function appears and increases (Mensch 1992). Whereas during the process of digitization, neither the object itself nor its copy is transferred to the emulative system, but the emulant, which operates in other, arti�cial, non-reality system, is created by means of recoding on the basis of the object existing in reality. This problem is related to the treatment of the relation of the new object, like sign (in the sense of semiotics), existing in other systems with an object of reality. In museology, treatment of an exhibit (the new object) as an icon is more acceptable, i.e. it is a denotation (Peirce 1894). Whereas digitization of cultural heritage is a transfer of data of an object existing in reality to another, arti�cial system by means of recoding. During the recoding conversion of the analogue system into the discrete system what usually causes the increase in the level of data structuralization occurs, but there is an unavoidable loss of data. The quantity of the lost data depends on the intensity of simpli�cation or idealization of the emulative system being created compared to the system existing in reality. Consequently, the emulant is by no means an iconic sign. We can assert that it is an index because its links with an object of reality are direct rather than conventional as it would have to be if an emulant were a sign of a symbolic nature (Peirce 1894). Regardless of the option of digitization technology: the object’s digital photograph (index I is created), three-dimensional scanning (index II is created) or the description by database �elds (index III is created) even if we do not belong to any cultural or subcultural group creating conventional symbols, we will be able to recognize easily that the digitized object of reality is, for example, a car and not a house. 2.3 Possible trends of scienti�c research on digitization Emulativity phenomenon may be studied from different aspects – historical, philosophical, sociological, psychological, fundamental, applied, etc. This 252 Digitization as a science fact lays the foundations for the systematization of digitization as a science. We can exclude historical, fundamental and applied research on digitization. Historical research is a type of research, the goal of which is to establish the alternation of emulativity like phenomenon and other objects and processes related to this phenomenon in time and its in�uence on public life. Basically, it answers the following questions: Who/what? Where? When? What were they doing? Why? What were the after-effects? Fundamental research is an experimental and theoretical activity seeking to recognize the essence of emulativity as a phenomenon of reality without having any intention at the time of using the results for any speci�c purpose. One of the goals of fundamental research is to systemize the �eld of reality by conceptions, to formulate general conclusions and trace the consistent patterns. Applied research is experimental and theoretical works of cognition are intended for the achievement of speci�c practical goals of digitization and for solving practical tasks of digitization. Applied research creates the conditions for the application of results of fundamental research6 to a speci�c activity of digitization. More serious historical or fundamental research on digitization requires signi�cant human resources and many research sources. This kind of full research is possible in the countries where the digitization of the scienti�c data of cultural heritage and of the Humanities, like a practical activity, has been conducted for a long time (for 30-40 years) and where application of digital technologies in the �elds of cultural heritage and the Humanities has been a separate academic subject or even a separate university specialty for at least two decades (in the United Kingdom, Italy, France, USA, Australia, Germany, etc.). In other countries it is more meaningful to conduct applied research on digitization science, i.e. about digital documentation, studies, communication. This kind of research should solve practical problems of digitization, seek practical goals and give methodical instructions. 2.4 Interdisciplinarity of research on digitization On the basis of the inductive theory of science conception we can af�rm that in the modern world there exists new, objective, empirically �xable and experimentally approvable phenomenon induced by the development of digital technologies that may be called emulativity. This phenomenon is a basis for the origin of scienti�c research on digitization and becomes an object of such research. During the study of the phenomenon of emulativity interdisciplinary �eld of knowledge on this phenomenon appears and interdisciplinary scienti�c theories are created on the basis of the accrued knowledge. 6 The de�nitions of fundamental and applied research are formulated on the basis of the terms of the Law on Science and Studies of the Republic of Lithuania. 253 R. Laužikas There are, therefore, no doubts that digitization research is interdisciplinary. First of all, it is linked by general relations with speci�c sciences investigating the groups of emulated objects in the real environment as well as with practical activities (librarianship, archivistics, museology, history, archaeology, heritage protection, etc.). Another large group of general relations is that with information and computer sciences. Through the links with these sciences, the technological possibilities of the practical application of emulativity are analysed. Models of the ef�cient interaction of specialists in information technologies and the Humanities that ensure the origin of highquality emulative systems are created. In concrete �elds of applied research there appear to be speci�c relations with some concrete sciences or practical activities. In fact, when analyzing the scienti�c data of digital sciences of heritage and the Humanities from the applied point of view, we cannot avoid links with mathematical statistics, science methodology, content analysis, etc.; since they are necessary for recoding, information management and communication links with semiotics, sciences of communication and information. 2.5 Terminology of the science of digitization In the context of interdisciplinarity, the issue of the terminology of digitization as a science should be determined. Science usually uses three types of terms: classi�able, comparative and quantitative (Waidacher 2007). At �rst sight, it may seem that in the digitization of the sciences of cultural heritage and the Humanities we may not need a separate terminology because we can use the one which is approved by libraries, museums, archives and specialists in information technologies. But this is not so. A speci�c, scienti�cally reasonable terminology of digitization is being created and developed but, naturally, the development of terminology is closely related to the development of fundamental research on digitization which has not yet reached a suf�cient level. Perhaps the most signi�cant international example of terminology in this �eld is the 23 new terms described and used in ISO 21127:2006 standard “Information and documentation. A reference ontology for the interchange of cultural heritage information”. Moreover, almost all major institutions conducting projects of digitization or digitization activities have constructed more or less extensive glossaries of digitization terms (Preservation Solutions 1998-2007; NEDLIB 1998-2008; Reference Model 2002; UNESCO 2003; California Digital Library 2005; eSciDoc 2007; British Library Glossary 2008; CSA Glossary 2008; North Carolina ECHO 2008). 2.6 Methods of the science of digitization Moreover, an insuf�ciently de�ned situation can be seen when reviewing methods applied in digitization as a science. When talking about methods 254 Digitization as a science we can give two basic opinions. The �rst involves the repudiation of separate methods in the science of digitization and the second, thinking that digitization may have speci�c methods of scienti�c research. The �rst opinion af�rms that the methods of other researches related to heritage and information technologies are used in research on digitization. Historical research uses historical methods while fundamental and applied research use general methods (typical of many sciences) – empirical induction, theoretical critical deduction, etc. or the methods of separate, related sciences in the �eld of communication research – research of the sciences of communication and information and educology, expression of emulativity in society – sociology and psychology, etc. The second opinion supposes that new speci�c methods originating on the basis of interdisciplinarity and comparativism of sciences may be applied to the research of emulativity as a speci�c phenomenon of reality. We can af�rm that a proper example of the group of such speci�c methods could be webometry – methods intended for studying digital emulative information offered in the Internet (Thelwall 2004). However, the issue of scienti�c methods can also be dealt with in other contexts. Until now, classic, inductive theory of science conception was followed in the article. But we would be wrong if we did not try the emulativity theory (as existence of independent phenomenon which is a basis of digitization as a science) with other approaches towards science, for example, deductivistic falsi�ability, one of Karl Raimund Popper’s scienti�c theories.7 According to Popper one of the most important requirements for the empirical theoretical system is its difference from other similar systems. This difference may be best determined through different speci�c methods applied to different systems. It can be af�rmed that speci�c method is one of the most important criteria for describing science; therefore, epistemology of science may be identi�ed with the theory of scienti�c method. Popper suggests that we adopt conventional methodological rules that would ensure the veri�ability (falsi�ability) of scienti�c statements: empirical science may be described via its own methodological rules in the same way like a game of chess may be described via its own rules. Can we, in this context, treat the methodological rules determined by digital technologies as an example of methodological rules of primary universal level? Can we derive from them singular methodological rules of the secondary level? The answer could be af�rmative. Methodological rules determined by digital technologies are justi�ed by universal laws of mathematics and logic. But, at the same time, due to the application of digital technologies, they go beyond the limit of the sciences of mathematics and logic (as well as of information and computer science) and seep into other sciences and many �elds of public 7 This theory was enunciated for the �rst time in 1934 in K.R. Popper’s book Logik der Forschung (The Logic of Scienti�c Discovery). 255 R. Laužikas life. The spread of digital methodological rules do not signi�cantly change the universal methodological assumptions of speci�c sciences (i.e. these rules do not destroy the formed system of sciences) but it in�uences and transforms the singular methods applied in these sciences. In addition, Popper formulates three requirements which must be satis�ed by a new scienti�c theory. First of all, a theory must originate from a simple, new, promising and enticing idea that allows us to determine relations among things that, at �rst sight, are unrelated. But a theory must be independently tested, i.e. it must explain not only already known facts but it should also make it possible to predict new, still unknown phenomena. And �nally, a theory must withstand the new and strict empirical and experimental tests in the future (this is the so-called empirical success of a theory). If singular forecasts created by the deductive method on the basis of a universal theory are not proved in the future empirically and experimentally, these forecasts are non-falsi�able which means that the universal theory, from which these forecasts originated in a logical manner, is non-falsi�able too. Consequently, the theory is rejected. The theory of existence of emulativity phenomenon perfectly satis�es the �rst two requirements. Acknowledgment of this phenomenon allows us to determine universal relations among many different things starting with an individual’s psychology and ending with phenomena generated by globalization. Due to strictly mathematically and logically motivated technological emulativity basis – digital technologies – all singular propositions, hypotheses and forecasts originated from this theory are empirically and experimentally tested. But the ability of a theory to stand up against the third requirement may only be guessed. 3. Conclusions 1) In many countries digitization is basically perceived just as a practical �eld of activity and it is performed according to this perception. We suggest that a broader approach would be more suitable by investigating the scienti�c character of digitization. 2) Digitization is considered to be a method suitable for documentation, storage, scienti�c research, and communication. If digitization is considered to be a method, then, next to its practical application, it can also be comprehensible in the context of scienti�c research where the basis of scienti�c research is a method theory. For instance, methods like mathematical statistics are already included in the Classi�cation of Study and Research Areas, Fields and Branches. 3) Another case where we could search for the scienti�c character of digitization is empirical and experimental �xing of objective phenomenon of reality that could be investigated by the new science. According to this concept, sciences which originated from the practical activity of “memory institutions” like 256 Digitization as a science libraries, archives and museums are de�ned. They are now also acknowledged as independent research disciplines and subjects of academic studies. 4) The object of digitization research may be called emulativity. In digitization it is a speci�c relation between man and reality when people, on the basis of special criteria, select from reality and/or arti�cially generate the objects, on the basis of which they create emulative systems in a digital environment emulating and imitating the activity of natural systems operating in reality (that operated in the past or will operate in future). Emulativity is a speci�c phenomenon induced by digital technologies, virtual world and Internet and may be studied in many senses including personality psychology. 5) Emulativity phenomenon may be studied from different aspects – historical, philosophical, sociological, psychological, fundamental, applied, etc. This lays the foundations for the systematization of digitization as a science. Rimvydas Laužikas Institute of Library and Information Science Vilnius University REFERENCES AHDS Case Studies 2003, London, AHDS (http://www.ahds.ac.uk/creating/case-studies/index. htm; accessed 12 September 2007). British Library Glossary of Digital Preservation Terms 2008, The British Library Board (http://www.bl.uk/reshelp/atyourdesk/docsupply/publisher/blejournal/glossary/index. html; accessed 25 February 2008). California Digital Library. Preservation Glossary 2005, The Regents of the University of California (http://www.cdlib.org/inside/diglib/glossary/?�eld=glossary&action=search&query= preservation; accessed 25 February 2008). Castells M. 2005, Tinklaveikos visuomenės raida (The Rise of the Network Society), Vilnius. Chalmers A.F. 2005, Kas yra mokslas? (What is This Thing Called Science?), Vilnius, Apostrofa. CSA Glossary ProQuest 2008 (http://www.csa.com/discoveryguides/cyber/gloss.php; accessed 25 February 2008). De�ning e-Science 2008, Glasgow, National e-Science Centre (http://www.nesc.ac.uk/nesc/de�ne.html; accessed 25 February 2008). Dictionary of Computing Terms (HTML) 2004, Needham, TechTarget (http://whatis.techtarget. com/de�nition/0,,sid9_gci211948,00.html; accessed 20 January 2008). Dublin Core Metadata Initiative 1995-2008 (http://dublincore.org/; accessed 16 February 2008). eSciDoc Project Glossary 2007 (http://www.escidoc-project.de/JSPWiki/Wiki.jsp?page=Glossary; accessed 16 February 2008). Hales S.D., Johnson T. 2003, Endurantism, Perdurantism, and Special Relativity, «The Philosophical Quarterly», 53, 213, 524-539 (http://www.bloomu.edu/departments/philosophy/pages/content/hales/articles/sr.html; accessed 25 February 2008). Hutchinson Encyclopaedia 2000, Abingdon, Helicon Publishing, (http://www.tiscali.co.uk/reference/dictionaries/computers/data/m0005831.html; accessed 16 February 2008). 257 R. Laužikas LauŽikas R. 2007, Digital preservation researches. European situation, Vilnius (http://www. digitalpreservationeurope.eu/publications/presentations/Lauzikas_Digital_preservation. pdf; accessed 12 August 2008). Manzuch Z., Lauzikas R., Petrauskiene Ž., Glosiene A. 2006, Outline of training principles and objectives. Deliverable 2.1. Workpackage 2, task 2.1., Vilnius (http://www. digitalpreservationeurope.eu/publications/reports/dpe_research_roadmap_D72.pdf; accessed 16 February 2008). Mensch P. van 1992, Towards a Methodology of Museology, PhD thesis, University of Zagreb, Amsterdam, Reinvardt Academie (http://www.xs4all.nl/~rwa/icofomhi.htm; accessed 14 March 2008). NEDLIB Networked European Deposit Library Glossary 1998-2008 (http://nedlib.kb.nl/ glossary.pdf; accessed 25 February 2008). North Carolina ECHO, Exploring Cultural Heritage Online Glossary 2008 (http://www. ncecho.org/guide/glossary.htm; accessed 25 February 2008). Peirce Ch.S. 1894, What Is a Sign?, in The Peirce Edition Project, Indianapolis, USA, Peirce Edition Project, 2005-2006 (http://www.iupui.edu/~peirce/ep/ep2/ep2book/ch02/ ep2ch2.htm; accessed 15 May 2008). Popper K.R. 1959, The Logic of Scienti�c Discovery, New York, Basic Books. Popper K.R. 2001, Rinktinė (Logik der Forschung), Vilnius, Pradai. Preservation Solutions Australia Glossary of Digital Preservation Terms 1998-2007 (http:// www.preservationsolutionsaustralia.com.au/parbica12/J0604-071005WS7.pdf; accessed 25 February 2008). Пригожин И. 2002, От существующего к возни-кающему (From Being to Becoming), Москва. Prigogine I. 2006, Tikrumo pabaiga: laikas, chaosas ir nauji gamtos dėsniai (End of Certainty), Vilnius. Пригожин И., Стенгерс И. 1986, Порядок из хаоса: Новый диалог человека с природой (Order out of Chaos: Man’s new dialogue with nature), Москва, Прогресс. Reference Model for an Open Archival Information System (OAIS) De�nitions 2002, Consultative Committee for Space Data Systems (http://public.ccsds.org/publications/ archive/650x0b1.pdf, accessed 16 February 2008). SAMDOK - Museerna Och Samtiden 2005, Stockholm, Nordiska Museet (http://www.museif.a.se/svenskamuseer/intressegrupper/samdok.html; http://www.nordiskamuseet. se/samdok/; accessed 06 October 2007). Соколов A.B. 2002, Общая теория социальной коммуникации, Санкт-Петербург: Михайлов (http://www.ecsocman.edu.ru/db/msg/278088.html; accessed 25 February 2008). Suler J. 2004, The Psychology of Cyberspace, «International Journal of Applied Psychoanalytic Studies», 1, 359-362 (http://www-usr.rider.edu/~suler/psycyber/cybaddict.html; accessed 25 February 2008). Thelwall M. 2004, Link Analysis: An Information Science Approach, San Diego, Academic Press (http://linkanalysis.wlv.ac.uk/; accessed 10 January 2008). UNESCO Guidelines for the Preservation of Digital Heritage 2003 (http://unesdoc.unesco. org/images/0013/001300/130071e.pdf; accessed 25 February 2008). Waidacher F. 2007, Bendrosios muzeologijos metmenys, Vilnius, Lietuvos Nacionalinis Muziejus. 258 Digitization as a science ABSTRACT The purpose of this paper is to give answers to the following questions: can digitization be comprehended as a kind of scienti�c research? What is the possible object of scienti�c research on digitization? Can the science of digitization have a particular terminology and methods? The paper focuses also on the discussion about the object of digitization research which may be called emulativity, i.e. a speci�c phenomenon induced by digital technologies, the virtual world and the Internet which may be studied in many senses including personality psychology. Possible trends of scienti�c research on digitization, interdisciplinarity, terminology and methods of the science of digitization are also discussed, from the perspective of digitization as a science. In many countries digitization is basically perceived as just a practical �eld of activity and performed according to this perception. We suggest that a broader approach would be more suitable by investigating the scienti�c character of digitization, aimed at the empirical and experimental �xing of objective phenomenon of reality that could be investigated by the new science. 259 Archeologia e Calcolatori 20, 2009, 261-276 SPATIAL PATTERN OF ARCHAEOLOGICAL SITE DISTRIBUTIONS ON THE EASTERN SHORES OF LAKE URMIA, NORTHWESTERN IRAN 1. Introduction The use of archaeological site distribution patterns in order to account for an archaeological landscape is a relatively new experiment in archaeology. Even though statistical theories and models in relation to site distribution patterns have evolved since the middle of the 80s, little attention has been paid to the potential for utilizing it as an explanatory method for the analysis of an archaeological landscape (Hodder, Orton 1976; Orton 1982). This article presents a model for an archaeological landscape in relation to distribution patterns of archaeological sites through the use of spatial processes. Needless to say, a spatial process encompasses a wide range of various parameters and this article is con�ned to one of them, in other words, understanding distribution pattern through the use of nearest neighbor analysis. Presented here are the results of a study to locate high-potential areas for archaeological sites in a largely surveyed area on the eastern shores of Lake Urmia northwestern Iran, including details of the analysis process. The project used environmental and archaeological data from over 118 known sites in the region and the results corresponded well with known sites in the study area. Generally, it is assumed that the selection of sites by the original inhabitants was at least partially based on a set of favorable environmental factors, such as distance to water or topographic setting. Another assumption is that modern day GIS layers consistently characterize changes from the prehistoric condition of the region suf�ciently well for them to be used to help discover additional sites. 2. Study area The setting of this study spans an area of 18000 square kilometers and it includes parts of the cities of Charoymak, Hashtroud, Maraghe, Malekan, Bonab, Ajabshir, Oskou, Azarshahr, Marand, Tabriz, Bostanabad in Eastern Azerbaijan province, and parts of Miyandoab city in western Azerbaijan. The area lies within E 47 16” to E 45 11” and N 36 53” to N 38 29”. The rivers which �ow through this area are connected to two basins of Mazandaran Sea and Urmia Lake which include Garangou, Aidogmoush, Zarrine Roud, Simine Roud, Talkhe Roud, So� Chai, Shabestar and Tasouj. 261 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali Fig 1 – Map showing the study area of this research in the eastern parts of Urmia Lake, northwestern Iran. Lake Urmia is a saline lake some 140 km long and 15-50 km wide located at an elevation of 1280 m above sea level in the northern part of the Zagros Chain. The lake constitutes an internal drainage basin fed by local rivers such as Zarrine Roud and Simine Roud. Most of the basin represents the areas left by the recession of the lake and is characterized by saline alluvial soils. The area in which Lake Urmia is located is a remarkable zone according to its geological evolution complexity and geomorphologic variability (Darvishzadeh 2004). Lake Urmia is like a great �at depression. Ecosystem and human settlements of the marginal lake regions have always been affected by the patterns caused by the water level �uctuations of the Lake. Great variability in water level occurred in the Pleistocene as re�ected in the wider alluvial terraces around the lake (Kelts, Shahrabi 1985). The main elevation in this area is Sahand heights – above 2000 meters – in the eastern part of the Lake. In the northern part lie Mishadoagh mountain and a range of adjacent mountains such as Takhat Solyiman, Bozkosh, Sabalan, and Gharedagh to the north and northeast. Underneath these heights there are valleys, plains, plateaus and in-between roads. Similarly, major faults of Azerbaijan can be identi�ed here which give rise to a lot of geological phenomena of the region (Alayi Taleghani 2003). Despite the fact that there is enough rain due to snow and cold weather and despite the presence of the stony and steep slopes of Sahand, the area is not covered with lots of plant. However, small wild almond trees in Shorkat area near Urmia could be seen (Figs. 1 and 2). 262 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia Fig. 2 – Topography and archaeological site distributions map of eastern Lake Urmia shores. Shabestar Oskou Azarshahr Tabriz Ajabshir Bonab Malekan Miyandoab Maraghe Hashtroud Charoymak Bostanabad Marand Total Islamic Historical Iron Bronze Chalcolithic Neolithic 8 2 5 6 8 2 4 2 1 1 1 1 2 2 2 1 2 2 2 5 3 2 4 8 1 2 3 4 2 1 2 6 6 4 3 1 7 6 1 4 4 2 18 28 13 11 38 2 2 2 1 1 3 3 1 2 2 2 3 2 51 56 29 45 75 13 Tab. 1- Chronological distribution of sites observed during the survey project in the eastern shores of Lake Urmia. 263 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali The long-term Lake Urmia archaeological project is run by the University of Tehran in collaboration with Cultural Heritage and Tourism Organization (CHTO). The project has undergone a systematic �eld survey and by the end of the 2006 �eld season, about 1000 km2 have been �eld-walked. The study area for this project composes some 670 km2, from which a total of 67 survey quadrats in 13 separate �elds were selected providing a number of observations with which a spatial analysis could be performed. The survey resulted in discovering traces of some 118 archaeological sites from the different cultural periods. Tab. 1 indicates the frequency of sites and their chronology discovered during the survey project (Tab. 1). 3. Material and methods 3.1 The technique Every point distribution is the result of a certain spatial process at a given time and a given space. The distribution of points (archaeological sites) on the landscape may have various patterns. They may take the form of clusters or they may be dispersed in a consistent distribution or their distribution may be entirely random without any speci�c pattern. There are three general categories of geographical patterns conventionally used as benchmark to describe how points structure spatially. The �rst category is cluster (aggregate) pattern when points of similar properties cluster together. Next, the disperse pattern is when points of similar properties are apart from each other. In the extreme case of disperse pattern, a uniform pattern is a pattern in which every point is surrounded by points of different property. Finally, the third category is the random pattern in which there does not seem to be any structural pattern. With spatial archaeology using the three categories and together with nearest neighbor analysis calculated from a geographical pattern of points it is possible to construct a number of patterns that characterize different types of archaeological site distributions in landscape and thus it is possible to detect spatial pattern from the point distributions and changes in point patterns at different times (Fortin, Dale 2005, 32-35). This comparison is carried out within a framework of a spatial statistic system and its outcome is to arrive at a pattern that shows how the sites under investigation have formed. At the beginning of the analysis, it is crucial to determine the number and forms of the sites. For this reason, in the 2005 and 2006 survey seasons, we �rst overlaid the study area with a regular square grid (100×100 m), and counted the number of points falling in each square. Using precision military global positioning system (GPS) receivers with real time 5 m accuracy, aerial photography, a sighting compass and landmarks on the horizon, we were able to survey entire grids and mark all the desired archaeological sites. 264 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia 3.2 GIS database The GIS database covers the majority of the eastern Urmia Lake shores and its immediate environs. The current basic raster and vector layers of the GIS database include: elevation (derived from elevation data), aspect (derived from the elevation data), slope (derived from the digital elevation data), land use/land cover maps (derived from spot image data), geology (generated from 1:25.000 geology map of the upper part of the region), faults (from the same 1:50.000 geology map), hydrology (from the three 1:50.000 maps and 1:25.000 maps), modern roads (from 1:50.000 and 1:25.000 maps), ancient roads (from project information and old maps), archaeological sites and �eld survey transects (from project surveys and other sources). Additional derived data layers showing different distance categories, or buffer zones, from roads, streams, faults, archaeological sites, and ancient roads were then generated from the data above. Additional data have recently been added that were derived from the 1:25.000 maps, including reclassi�cations and distance measurements from sites, ancient roads, and hydrology. In all there are currently over 118 point, vector, and raster data layers in the database. Archaeological sites and basin characteristics were calculated using the data sets compiled as layers in GIS system. To delineate boundaries of the sampling sites, a 50 m horizontal and vertical resolution Digital Elevation Model (DEM) and the river network were derived from 1:25.000 digital topographic map from the National Cartographic Centre of Iran; latitude and longitude coordinates of the 16 sampling sites were recorded in the �eld using a Global Positioning System unit, and then imported into GIS, where they were matched to the nearest point in the DEM. Each delineated feature was individually characterized in terms of topography (average altitude and slope), soils, river network and land use. Spatial features of these types of data sets included normalized difference vegetation index, land cover, elevation, slope, aspect, and total length of rivers. Data on each of these variables were then extracted for “buffer zones” consisting of the area included in a circle of 3 km diameter centered on georeferenced points. Three kilometers is the minimum diameter in which at least one point was found in the study area. Land cover of the study area was obtained from the survey data. The study area land cover map had 8 classes (pixel values correspond to class numbers). The hectares of each class were calculated for each “buffer zone”, overlaying the “buffer zone” grid to the land cover grid. Elevation, slope and aspect data on elevation, slope and aspect of the study area were obtained from the Digital Elevation Model (DEM). The elevation was divided into the following four classes: low (350 ft) to very high (10500 ft). Slope was divided into the following four classes: 265 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali �at (0), low (0-15), medium (15-30) and high (30-54). Utilizing the above data for each “buffer zone”, the following variables were calculated: number of pixel of each elevation class, average and S.D. of elevation; number of pixel of each aspect class, average and S.D. of slope. Total length of rivers in the study area was obtained from digital map. Applying a new intersection of “buffer zones” with study area hydrographic network, the total length of the rivers in each “buffer zone” was calculated (for more details of the technique see Warren, Asch 2000). More precise data regarding the presence of watercourses smaller than rivers (streams, springs and brooks) were recorded in the �eld, since they were not detectable from satellite images. All GIS databases were developed using ArcView 3.2. Five categories of obsidian material (in each quadrat) were determined as a function of the percentage of the land use patterns: lower (0-3 pieces), low (4-7 pieces), medium (8-12 pieces), high (13-16 pieces) and very high (> 17 pieces). Each �nd spot corresponded to a sampling point where obsidian distributions were determined by the project, as described in detail elsewhere (Niknami et al. in press). Knowledge of the environmental variables in�uencing activities of original inhabitants is used to produce GIS layers representing the spatial distribution of those variables. The GIS layers are then analyzed to identify locations where combinations of environmental variables match patterns observed at known sites. 3.3 Statistical analyses We tested the null hypothesis that the spatial pattern of archaeological sites did not differ from complete spatial randomness to describe an array of points that are distributed independently (Lee, Wong 2003). Nearest neighbor analysis is commonplace in the analysis of point pattern. The nearest neighbor distance for an event in a point pattern, is the distance from that event to the nearest event, also in the point pattern. Nearest neighbor calculates the statistic R which is the ratio of the observed average distance between nearest neighbors of a point distribution (robs) and the expected average distance (rexp) between nearest neighbors as determined by a theoretical pattern. For each pattern, the shortest distance among all neighbors becomes the nearest distance which is then averaged using all points. In its simplest form, the nearest neighbor statistic R compares the observed robs, with the expected, rexp (random), nearest neighbor distances and identi�es whether points are random (R≅), completely clustered (r= 0.0, in which all points lie on top of each other) or dispersed (R= 2, in which points distribute in a square lattice, or R= 2.149, which is the theoretical value for the most dispersed pattern, being that of a triangular lattice). The nearest neighbor general formula can be computed by the following process (Clark, Evans 1954): 266 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia where di is the nearest neighbor distance for point i and n is the number of points, A, is the area of the study region. The key test statistic for evaluating the signi�cance between an observed and random distribution is based upon the standardized Z score: If ZR > 1.96 or ZR < -1.96, it can be concluded that the calculated difference between the observed pattern and the random pattern is statistically signi�cant given that α = 0.05. Alternatively, if -1.96 < ZR < 1.96, we can conclude that the observed point pattern, although it may look somewhat clustered or somewhat dispersed visually, is not signi�cantly different from a random pattern, and we will fail to reject the null hypothesis. 4. Results Results from the nearest neighbor analysis suggested that all sites from the observed chronologies were aggregated (Tab. 2). The mean nearest neighbor distance indicates a highest value for the Iron Age sites while the Chalcolithic sites experiencing the lowest values of mean distance. Values of nearest neighbor statistic for Islamic sites were nearly signi�cant (p= 0.054), suggesting an aggregated pattern, but for the Neolithic sites indicating a less signi�cant pattern of aggregations. Nearest neighbor 267 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali Variate Islamic Historical Iron Bronze Chalcolithic Neolithic N 51 56 29 45 75 13 Robs 69.12 63.73 78.29 70.10 46.49 73.34 Rexp 76.45 79.22 88.36 95.40 54.21 84.50 R 0.90 0.81 0.88 0.73 0.85 0.86 Z -1.83 -1.40 -2.49 -3.21 -5.34 -0.58 p 0.054 ** *** *** *** 0.26 Tab. 2 – Nearest neighbor statistics for archaeological sites in eastern Urmia region. The parameter R represents the mean nearest neighbor distance (subscripts obs= observed, exp= expected). Values of R signi�cantly different than unity (p<0.05) are either clustered (<1.00) or uniformly distributed (>1.00). R= observed x nearest neighbor distance/expected x nearest neighbor distance (r obs /r exp ). *p <0.05 **p <0.01 ***p <0.001. distances for the Historical, the Iron Age, the Bronze Age and Chalcolithic sites were signi�cantly different from 1.0, indicating a more aggregated pattern for those sites. 5. Discussion Point pattern analysis is seen as an important tool for describing, interpreting, and analyzing spatial distribution features of the archaeological phenomena (Conolly, Lake 2006, 162). Analysis of archaeological settlement pattern is a brilliant approach as far as site distribution and settlement pattern is concerned. This approach has carved a special niche for itself both on intellectual and practical levels in the development of analytic tools such as GIS within archaeology. For instance, in the case of settlement pattern analysis, regular spacing of sites has been taken to re�ect either form of competition between settlements, the existence of site catchments, or a combination of both as a result of demographic growth from an initial random distribution. By contrast, clustering of sites may result from a number of factors, but localized distribution of resources and the emergence of polities or regional centers have often be highlighted (Ladefoged, Pearson 2000). Interpretations of spatial pattern, especially in landscape scale, provide insight into the underlying mechanisms responsible for the pattern (Bradley 2000). We propose that spatial clustering of archaeological sites is expected for at least two fundamental reasons: land quality and cultural and socio-economic factors. Land quality can be associated with several important features of habitation area such as land environmental characteristics, i.e. elevation, slope, soil structure, availability and persistence of food and water sources as well as quality or quantity of connection networks. Cultural interactions predominantly relate to complex hierarchical social and economic factors practiced by local populations. The clustering of sites results in a clumping 268 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia pattern of sites at a relatively smaller spatial scale (Schwarz, Mount 2006, 180-181). Spatial aggregation of sites may be evident because sites in each cultural period are distributed in a small range relative to the spatial scales that we examined. At our study region people traveled within a range from maximum 2 km in Neolithic to 3-5 km in the late Islamic period, assuming a perfectly home range movements of local site habitants. Home range dynamics would clearly result in aggregated spatial pattern of archaeological sites. The home range traveling of populations is best viewed as a circumscribed network of sites in any given period. Land preference also helps to explain the aggregated pattern of sites, although the factors most responsible for distribution patterns remain generalized. Over their entire geographical range, sites are known to occur in a wide range of habitat types from coastal plains, alluvial plains and piedmonts. Our recent research results from an intensive survey and modeling effort, based on classi�cation and predictive modeling of archaeological site distribution using GIS device in the Central Zagros region (Niknami, Saeedi 2006), indicated that densities of sites were related to the environmental variables of the region such as elevation, soil classes and distance to resources. We found that people mainly during prehistory preferentially selected their settlement areas at a moderately elevated part of the region (1500-2000 above sea level), and at a moderate cover of perennial vegetation as well as a short distance from the water supplies. Thus the selection of sites by ancient inhabitants may be driven, in part, by the physical characteristics of the land and water resources, which themselves may follow a clustered pattern. Cultural, social and economic factors help to explain the aggregated pattern of archaeological sites and the strong association between site distributions and behaviorally derived factors (Kvamme 1993). A comprehensive model for social structure of the interest is not available, but in some extent the cultural pattern of some excavated site and economic connection of them are paramount. Over the years archaeologists have developed a number of theoretical models to explain the composition of archaeological sites based on both basic economic principles and analogies to ethnographic examples. In these models pastoral groups perform various activities in a patterned manner, leading to the remains of most structured and organizational evidence of different types. A basic distinction within many models concerns the acquisition of raw material and access to the necessary needs by mobile groups. These models suggest that mobile groups often acquire the goods they need (pottery and stone for tools) from contacting peoples by including raw material extraction within their other subsistence activities and transport such goods and materials to the places year round. Worn out and broken tools are discarded and replaced with new ones either as groups encounter sources of new material on the landscape or make contact with other groups (Daniel 269 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali 2001). We also documented here traces of residentially stable populations which we assume were connected to their sedentary system of agriculture and their cultivated lands. Unlike mobile groups, stable populations often either directly make use of locally available materials or acquire their needs through trade. However, access to high quality goods even for sedentary peoples may be tempered by their degree of mobility, whereas an intermediate distance covered during trips may allow them to directly access supplies and a greater range of non-local and or higher quality materials (Barton et al. 2002, 170). Although this perspective has not been thoroughly dealt with in our research, our analyses point out some interesting connections to these models that highlight important details on how the pastoral and residential populations in our study area integrated various aspects of social contacts within the organization of their cultural system. Here we would note that like the land quality model mentioned before, the social behavior of ancient eastern Urmia inhabitants may have been bounded by an aggregated pattern imposed on the connection networks to form a relatively short distance structure (see below). As was explained earlier, the most important type of archaeological object occurring in the study area is obsidian artifacts (Niknami et al. in press). These obsidian sites are known to have played an important role in the maintenance of the economic characteristics and for the people in the region, and as such were likely to have played an important role in structuring behavior at the regional level. A visual examination of regression lines measuring relationships between obsidian site size and distance to obsidian source reveals that there is a tendency for the large sites, i.e. the largest sites containing class 4 and class 5 obsidians, to be located close to obsidian sources, suggesting that clustering around a source can be viewed as a behavioral trend of people making the least effort to obtain more valuable materials (Fig. 3). To explore this idea further, proximity to possible layers of ancient trade roads was calculated using a cost-distance function, the result was similar where high values indicate areas that are proximate to accessible routes. Thus if we were to think about access to a short distance water source in a similar way as we might model access to trade routes, then sites in this layer with high values might be preferentially chosen for clustering if being close to water sources was important. For this reason, the resulting layers demonstrate how the area along the drainage lines that are aggregated close to water sources produce values that are higher. Hence, in some cases at least, it would appear that following the drainage line could serve a dual purpose, providing access to water and several obsidian sites. The geographical features of the area in the eastern parts of Urmia Lake have two distinctive geographical characteristics that are entirely different from each other. These parts include a �at alluvial area which was irrigated 270 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia Fig. 3 – Clustered pattern of sites mentioned in the text based on the model on site size variables. by several permanent rivers and a network of seasonal rivers while the other part includes mountainous areas which extend across from northeast, centre, and southeast of the area. The geography of the environment is such that we can infer that the low laying valleys in mountainous areas could have affected the free movement of the people in the past and therefore, the movement of the people naturally followed the natural course of the rivers. Plant features of the area coupled with abundance of water sources made for a relative density of population. However, it is very dif�cult to see any difference between environmentderived behaviors and cultural behaviors which humans exhibit in trying to adapt to the environment (Fry et al. 2004, 98). For example, settlement 271 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali patterns in the region show that most sites by Urmia Lake and along a wide range of connecting roads were formed in prehistory. The close proximity of the sites and their assembling in areas where there might be fresh water show distribution patterns in which we cannot exclude the possibility of their having economic relations with each other. While, for the later periods, even though there are still no valid sources of archaeological records on hand, it can be surmised that historical population movement within this area might have been related to socio-economic and political factors more than environmental. It is self-evident that inevitable environmental factors are inextricably intertwined with socio-political factors in terms of their effect on forming site distribution structures (Gaffney, Van Leusen 1995, 375). Thus, it can be said that despite the potentialities and limitations of the environment, modes of living and economy might have had irrefutable role. At the same time, sites of later periods are dispersed mostly in areas away from the coasts of the lake and areas with average heights. It appears that in this period, the increase in water control management together with optimization of food production systems made it possible to bene�t from sources away from the lake. In addition, a streak of Salina around Talkhe Roud river was never able to attract inhabitation at any time. Another crucial and relevant point here is that the accumulation of clustering settlements in this area occurred in places with potential for subsistence, and technological development in terms of securing sources for a reasonable population. The alluvial landscape around the lake guaranteed arable areas for agriculture. Suitable mineral soil centers that were close to each other gave rise to pottery production and processing. Besides sites such as Darvish Baghal, Yanik Tepe, Hasanlu, Sis and Kozeh Konan where this kind of economic relationship can be clearly seen, there are patterns with similar subsistence relationships which can be seen in other sites. The water source system follows a linear pattern to the east of Urmia Lake. For a better understanding of the relationship of settlement distribution patterns and water resources, we produced layers using GIS where the proximity of sites to water resources was taken into account (Niknami, Chaychi 2008). Besides securing access to water resources, linear distribution of water resources also made it possible for sites to connect. In addition, a signi�cant tendency of archaeological sites here is the fact that the bigger places tend to be distributed close to water resources more than the smaller ones. Distance estimation along with site distribution pattern is another important issue to be considered. It seems that the socio-economic trend in the clustering of archaeological sites in the eastern Urmia region is consistent with the distribution of obsidian sources and obsidian trades. In the eastern Urmia region, there are three obsidian sources from which the obsidian artifacts were obtained and utilized by the nearest populations. Interestingly, no long-distance trade of obsidian was 272 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia Fig. 4 – Proximity measurements of archaeological sites from possible ancient road networks. practiced; in fact, as we have recently concluded (Niknami, Chaychi 2007), all of the obsidian sites that were exploited had an average distance of ca. 70 to 75 km from the sources. This short distance reinforces the hypothesis that the later inhabitants of these sites traveled a short distance to access the raw material. This �nding also suggests that much of the trade in obsidian might have occurred here within an internal exchange system, however, so far there is no evidence regarding exploitation of obsidian from other sources. This is illustrated in Fig. 4. In this �gure it can be seen that almost all obsidian sites were located very close to the trade route system implying a socio-economic structure for the region. This assumption may account for the behavioral pattern of site distributions however, demonstrating this point will require further study. In summary, our �ndings related to land quality and socio-economic and cultural factors as the fundamental baselines for archaeological site clustering are consistent with the statements that are found in archaeological literature. For example, Hodder and Orton (1976, 85) maintained that «…clustering is due to the localization of resources...localized resources may include a preferred soil type, a linear resource such as river and a point resource such a well or geological outcrop». This is actually the same line of conclusions that in recent years the analytical approaches applied by Lock and Harris (2006, 44-52), Ridges (2006, 130-135) and Whitley (2006, 372-373) have proved to be the most applicable and acceptable. Again, archaeological challenges in the region such as those that this project encountered may be comprehended by considering the effect of socio273 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali economic and political behaviors on the formation of archaeological sites, although it is very dif�cult to observe such behaviors by the conventional method alone (Pickering 1994). 6. Conclusions It has been shown that point pattern correlates with those sites that are most organized and regular in distribution. As a method for describing the spatial pattern with regional data set nearest neighbor analysis provides a useful means of identifying generalization about the distribution of archaeological sites. We hypothesized factors driving the aggregated pattern of sites, land characteristics, and social and economic interactions resulting in a home range contacting. The relationship between location, degree of clustering and morphology implies that the effects of positive spatial autocorrelation are present. For this reason, future studies should involve statistical measures of spatial autocorrelation to ensure that both the location of sites and their attributes are considered (Woodman 2000). This type of work could advance the understanding of spatial processes across both local and regional scales. It has also been shown that spatial statistical analysis using ground survey data within a GIS offers quantitative methods from which an understanding of archaeological site distribution pattern can be surmised. Analytical models of distribution patterns used in this research could show an adequate capability for the model to study the spatial characterizations of settlements from different time periods in the eastern parts of Urmia Lake. Nevertheless, effective use of the methods and their analytical approach will involve consideration of diverse perspectives (Church et al. 2000). In this paper, site distribution analysis is proposed as an approach to discovering the spatial relationship of observed archaeological data. Therefore, this approach has the potential for explaining a wide range of theoretical and practical foundations of the behaviors which archaeology deals with. Acknowledgements The authors gratefully acknowledge the preceding work required to develop the ArcView Extensions by Lee J. Wong, D.W.S. These are available from: USGS Planetary GIS web server (PIGWAD). Kamal Aldin Niknami Department of Archaeology University of Tehran Ahmad Chaychi Amirkhiz Fatemeh Farshi Jalali Iranian Cultural Heritage and Tourism Organization, Tehran 274 Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia REFERENCES Alayi Taleghani M. 2003, Geomorphology of Iran, 3rd ed., Tehran, Ghumes (in Persian). Barton C.M., Bernabeu J., Aura J.E., Gracia O., La Roca N. 2002, Dynamic landscapes, Artifact taphonomy, and landscape modeling in the western Mediterranean, «Geoarchaeology: An International Journal», 17, 155-190. Bradley R. 2000, An Archaeology of Natural Place, London, Routledge and Kegan Paul. Church T., Brandon R.J., Burgett G.R. 2000, GIS application in archaeology: method in search of theory, in Wescott, Brandon 2000, 135-155. Clark P.J., Evans F.S. 1954, Distance to nearest neighbor as a measure of spatial relationships in populations, «Ecology», 35, 445-453. Conolly J., Lake M. 2006, Geographical Information Systems in Archaeology, Cambridge, Cambridge University Press. Daniel I.R. 2001, Stone raw material availability and early archaic settlement in the southeastern United Stated, «American Antiquity», 66, 237-265. Darvishzadeh A. 2004, Volcanoes and Volcanic Outcrops, Tehran, The University of Tehran Press (in Persian). Fortin M.J., Dale M. 2005, Spatial Analysis (A Guide for Ecologists), Cambridge, Cambridge University Press. Fry G.L.A., Skar B., Jerpasen G., Bakkestuen V., Erikstad L. 2004, Locating archaeological site in the landscape: a hierarchical approach based on landscape indicators, «Landscape and Urban Planning», 67, 97-107. Gaffney V., Van Leusen P.M. 1995, GIS environmental determinism and archaeology, a parallel text, in G. Lock, Z. Stančič (eds.), Archaeology and Geographical Information Systems: An European Perspective, London, Taylor and Francis, 367-362. Hodder I., Orton C. 1976, Spatial Analysis in Archaeology, Cambridge, Cambridge University Press. Kelts K., Shahrabi M. 1985, Holocene sedimentology of hyper saline Lake Urmia, Northwestern Iran, «Paleogeography, Paleoclimatology and Paleoecology», 54, 105-130. Kvamme K.L. 1993, Spatial statistics and GIS: an integrated approach, in J. Andersen, T. Madsen, I. Scollar (eds.), Computing the Past: Computer Application and Quantitative Methods in Archaeology. CAA 1992, Aarhus, Aarhus University Press, 91-102. Ladefoged T.N., Pearson R. 2000, Forti�ed castle on Okinawa Island during the Gusuku period, AD 1200-1600, «Antiquity», 74, 404-412. Lee J., Wong D.W.S. 2003, Statistical Analysis with ArchView GIS, Willy, New York. Lock G., Harris T. 2006, Enhancing predictive archaeological modeling: integrating location, landscape, and culture, in Mehrer, Wescott 2006, 41-62. Maschner H.D.G., Stein J.W. 1995, Multivariate approaches to site location on the Northwest Coast of North America, «Antiquity», 69, 61-73. Mehrer M.W., Wescott K.L. 2006 (eds.), GIS and Archaeological Site Location Modeling, London, Taylor and Francis. Niknami K.A., Chaychi A.A. 2007, Geochemical analysis of obsidian and the pattern recognition of sites spatial distribution in the Chalcolithic of the Eastern Lake Urmia, northwestern Iran, «Geochimica et Cosmochimica ACTA», 71 (15), 718. Niknami K.A., Chaychi A.A. 2008, A GIS technical approach to the spatial pattern recognition of archaeological site distribution on the eastern shores of Lake Urmia, northwestern Iran, in Proceedings of the International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. XXXVII, Part B4, Beijing, 167-172. Niknami K.A., Chaychi A.A., Glascock M.D. in press, Provenance studies of Chalcolithic obsidian artifacts from Lake Urmia, northwestern Iran using WDXRF analysis, «Archaeometry». 275 K.A. Niknami, A.C. Amirkhiz, F.F. Jalali Niknami K.A., Saeedi M.R. 2006, A (GIS)-based predictive mapping to locate prehistoric site locations in the Gamasb River Basin, Central Zagros, Iran, in S. Campana, M. Forte (eds.), From Space to Place, BAR International Series 1568, Oxford, Archaeopress, 249-255. Orton C. 1982, Stochastic process and archaeological mechanism in spatial analysis, «Journal of Archaeological Sciences», 9, 1-7. Pickering M. 1994, The physical landscape as a social landscape, a Garawa example, «Archaeology in Oceania», 29, 149-161. Ridges M. 2006, Regional dynamics of hunting and gathering: an Australian case study using archaeological predictive modeling, in Mehrer, Wescott 2006, 123-143. Schwarz K.R., Mount J. 2006, Integrating spatial statistics into archaeological data modeling, in Mehrer, Wescott 2006, 167-189. Warren R.E., Asch D.L. 2000, A predictive model of archaeological site location in the Eastern Prairie Peninsula, in Westcott, Brandon 2000, 5-32. Wescott K.L., Brandon R.J. (eds.) 2000, Practical Application of GIS for Archaeology, Philadelphia, Taylor and Francis. Whitley T.G. 2006, Predictive modeling in a homogeneous environment: an example from the Charleston Naval Weapons Station, South Carolina, in Mehrer, Wescott 2006, 335-394. Woodman P.E. 2000, A predictive model for Mesolithic site location on Islay using logistic regression and GIS, in Hunter-Gatherer Landscape Archaeology: The Southern Hebrides Mesolithic Project 1988-1998, Vol. 2, Archaeological Fieldwork on Colonsay, Computer Modeling, Experimental Archaeology and Final Interpretations, Cambridge, McDonald Institute for Archaeological Research, 445-464. ABSTRACT The Lake Urmia survey project carried out from 2004 to 2006 in northwestern Iran was aimed at obtaining a reliable overview of the occurrence of archaeological sites as well as to identify the spatial pattern of such sites across the area. This paper explores archaeological approaches to regional scale in dynamic landscape. Regional interpretation and the spatial statistical methods used to describe sites distribution, orientation, and pattern are often most reliant on point data. This paper also demonstrates how point pattern analysis offers quantitative information to the spatial process modeling of the natural and cultural landscape, which will aid at establishing a baseline from which other attributes of higher measurements for archaeological elements can be con�dently mapped, described and modeled within a GIS. Point pattern analysis of archaeological sites has involved the advantages of visualization and iteration offered by a GIS. Therefore the signi�cance of this study is three-fold. 1) it applies spatial analysis within a GIS to the understanding of archaeological site distributions. 2) it uses quantitative methods that are now available within a GIS to assess inferences concerning the survey data collected from the study area. Finally, this study offers insight into a methodology that is suitable to the spatial examination of more complicated surface data in landscape archaeology concept. 276 Archeologia e Calcolatori 20, 2009, 277-290 PREDICTIVE MODELLING OF ROMAN SETTLEMENT IN THE MIDDLE TIBER VALLEY 1. Introduction The aim of this research is to apply and evaluate the potential of predictive modelling as a means to further understanding ancient settlement in the middle Tiber valley. This area is one of the most intensively surveyed regions of the Mediterranean yet even here the extent of archaeological knowledge is uneven and some areas have yet to be subject to any systematic survey at all. Since 1997, the area has been the focus of the British School at Rome’s Tiber Valley Project, under the direction of Dr. Helen Patterson. The overall goal of the project is to study the changing landscape of the middle Tiber valley from protohistory to the medieval period (Fig. 1). It examines the impact of the growth, success and transformation of the city of Rome on the history of settlement and economy in the river valley (for project aims and results, see Patterson 2004; Patterson et al. 2004b; Coarelli, Patterson 2008). 2. The dataset The data used in this analysis have been generated through a restudy of the material from John Ward-Perkins’ South Etruria Survey carried out between the 1950s and 1970s, and their integration with data from more recent �eld work and numerous published surveys and excavations. The data were collected and integrated by two Leverhulme-funded fellows, Helga Di Giuseppe and Robert Witcher; the restudy of the South Etruria survey material was undertaken by twelve ceramic specialists (Patterson et al. 2004a, and papers in Coarelli, Patterson 2008). The data are housed in a relational database, which includes over 5500 �ndspots. As well as the management and archiving of data, this systemisation also opens up potential for spatial analyses (Kay, Witcher 2005; Witcher, Kay 2008). Each record includes spatial coordinates that enable visualisation within a GIS. The precision of �eld recording for the bulk of sites is 100 metres, and this relatively coarse resolution is re�ected in the predictive models developed below. 3. Background of application The process of data collation emphasised that, whilst most areas have produced some evidence of human activity, not all areas have been subject to 277 S.J. Kay, R.E. Witcher Fig. 1 – Location of Tiber Valley Project study area (black line), main �eld surveys (in grey) and predictive model case study area (boxed, see Fig. 2). the same level of systematic study. For example, it became apparent that there was a marked contrast in the numbers and chronological development of sites on either side of the river Tiber (Patterson et al. 2004c). In order to assess whether this was a genuine pattern, or a product of uneven archaeological attention, a small �eld survey was undertaken in the Sabina Tiberina on the east bank (Di Giuseppe et al. 2002). The results suggest that the contrasting patterns of ancient settlement on either bank of the Tiber are likely to be a product of different histories of, and approaches to, landscape archaeology. In particular, the Corese survey was able to document higher densities of settlement than previously identi�ed in the Sabina Tiberina, including sites from periods that have traditionally been dif�cult to recognise due to limited quantities of material culture (for example, the late antique). 278 Predictive modelling of Roman settlement in the middle Tiber valley Since the South Etruria survey commenced in the 1950s, some areas have been lost to quarrying and development, and many individual sites have been destroyed by erosion. It seems likely that many undiscovered sites have also been permanently lost. There are also several areas in South Etruria which were, and which remain, inaccessible, including military training areas and the Vatican Radio antenna farm. Predictive modelling offers the possibility to explore the potential archaeological signi�cance of these different gaps and inconsistencies. Indeed, such work is of critical importance if we are to evaluate the signi�cance of existing settlement patterns and trends. Furthermore, predictive modelling also has the potential to respond to a question of critical importance – what percentage of past settlement does �eld survey actually identify? (Witcher in press). 4. Theoretical perspectives on predictive modelling The majority of published applications of predictive modelling concern North American case studies (see papers in Wescott, Brandon 2000; Mehrer, Wescott 2006; for brief introductions, see Lock 2003, 168-70; Chapman 2006, 157-159). In Europe, applications of the technique have concentrated on northern countries, particularly the Netherlands, Germany and France (Lock, Stančič 1995; García Sanjuán, Wheatley 2002; van Leusen, Kamermans 2005; Verhagen 2007). Some of this work is driven by speci�c research questions, but much concerns Cultural Resource Management where predictive modelling has come to form part of the planning process. There exist very few published applications of predictive modelling in southern Europe (see van Leusen 2002, 146149); as well as Gaffney and Stančič’s (1991) seminal study of the Croatian island of Hvar, there has also been work by Kamermans (2000) in the Agro Pontino to the south of Rome, by Stančič and Veljanovski (2000) on the Croatian island of Brač, and by Rua (2009) in southern Portugal. Closely related GIS applications include work by van Hove (2004) on “taskscapes” in Calabria and applications of Historic Landscape Characterization (HLC) in Greece and Turkey by Crow and Turner (in press). Of all the analytical techniques that have �ourished since the widespread adoption and use of spatial technologies (for overview, see Wheatley, Gillings 2002), predictive modelling has been the most heavily critiqued, particularly from a European perspective. Ebert (2000), and more recently Wheatley (2004), have outlined a number of criticisms of inductive or datadriven predictive modelling. These criticisms can be grouped as two main points: 1) “prediction as explanation”; and 2) environmental determinism. First is criticism of predictive modelling as explanation. However, predictive modelling does not aim to explain patterns, rather it aims simply to 279 S.J. Kay, R.E. Witcher identify patterns. It is the task of the archaeologist to explain and interpret those patterns, not the model. The second criticism is that predictive modelling is “anti-historical” because it «assumes [patterns are] wholly a product of the immediate surroundings of the individuals and communities» (Wheatley 2004). This argument relates to the observation that most variables used within predictive models are environmental (for example, slope, distance to water, etc.) and that social and cultural considerations are excluded. As a result, the approach is deemed to be “environmentally deterministic”: constraints of the physical environment replace human agency. However, this wider argument is built on a confusion of correlation with causation. In common with any other statistical technique, it is inherent in predictive modelling that statistical association does not imply a causative relationship between variables. This returns to the �rst point: predictive modelling as descriptive not explanatory; it does not inherently exclude the agency of knowledgeable individuals or societies to structure their lives. Indeed, Wheatley (2004) himself notes that «this is not to deny that correlative predictive models may be telling us something about the behaviour of people in the past». North American applications have produced relatively powerful models based on environmental variables; it would be wrong to dismiss this predictive power on the grounds of how the results are (mis)interpreted. In general, these arguments betray a series of broader misplaced and latent concerns. Firstly, that any attempt to involve environmental variables in an archaeological study is “determinism” by another name. Secondly, that quanti�cation and statistical analyses are reductionist and, thirdly that “prediction” is antithetical to free agency. Brie�y, these may be rebutted with the following responses: discussion of environment does not presuppose determination (for much more subtle approaches, including environmental affordance, see Ingold 2000); statistical analyses, if appropriately used, become rigorous, repeatable investigations to support – not replace – interpretation; and, thirdly, as such studies merely describe, it is the responsibility of the archaeologist, not the models, to ensure that individuals are granted appropriate agency and that societies are given cultural autonomy. The best solution is to place less emphasis on “prediction” per se, and to foreground the approach as exploratory data analysis and pattern recognition, in other words, a form of data modelling and characterisation. In the context of the current research, some other speci�c criticisms should also be addressed. Firstly, that predictive modelling is concerned only with sites and has failed to take broader theoretical developments about offsite activity into account. Whilst this is certainly a valid criticism, in relation to the present case study, the vast majority of data used here derive from site-based survey conducted �fty years ago, long before such theoretical and methodological developments. Whilst not ideal, it would be wrong to discard 280 Predictive modelling of Roman settlement in the middle Tiber valley these data as inadequate; indeed, as emphasised above, many of these sites no longer exist and thus these data form a unique documentary record which cannot be re-collected. A related issue is criticism that the technique deals only with a simple binary – site or no-site – and the possibility of more than one site per unit of land is not addressed (in the current study, South Etruria survey sites were recorded to the nearest 100 m, resulting in a spatial recording unit of 10000 m2 which could theoretically contain more than a single site). Whilst recent high-intensity survey suggests that more than one site per 10000 m2 is de�nitely a possibility in this area (Di Giuseppe et al. 2002), the precision of the original survey recording of 100 m precludes more detailed consideration at a higher resolution. A further criticism has noted that many applications lack suf�cient archaeological data and as a result fail to differentiate between sites of different dates and types. For example, in his study of the island of Brač, Stančič (2000) used 29 sites covering four centuries across 395 km². The present application uses 288 villas dating to the �rst century AD to train the model and then tests it against a reserve of a further 288 �rst century villas across a total area of 1100 km². A �nal issue concerns the anachronistic nature of much environmental data used. It is important to include variables that are as chronologically relevant as possible; hence in the present application, modern land use was excluded from the �nal and most powerful model. However, such data should not be dismissed entirely. Whilst they may not necessarily inform about past settlement decisions, they may well shed light on recovery processes (in particular, visibility, see Terrenato, Ammerman 1996). Indeed, predictive modelling can be seen as an heuristic tool for exploring data and identifying in�uencing factors (such as post-depositional or recovery bias) that present signi�cant problems for �eld surveyors. 5. Methodology As described above, the site data are stored in a relational database and are linked, via SQL commands, with ESRI ArcView; the predictive models are developed using the Arc-WofE extension (data have been continuously migrated since the projects inception and are now analysed through ESRI ArcGIS; future analysis will make use of ArcSDM3.1, Sawatzky et al. 2004). The Weights of Evidence (WofE) methodology is part of a larger group of multi-criteria decision-making techniques and is commonly used, for example, for prospective mapping of mineral deposits. Goodchild (2007, 2008) provides an archaeological adaptation of multi-criteria decision-making which, rather than predict site locations, seeks to model agricultural productivity and population in the middle Tiber valley. 281 S.J. Kay, R.E. Witcher The WofE model uses statistical associations between known sites called training points (in this case, early imperial villas) and different map themes (such as geology, aspect and slope) in order to calculate a set of weights. It is therefore an inductive approach. These weights are then used to evaluate every possible combination of the different map layers in order to produce a single map (a unique conditions grid) showing probability of the presence of a site. The variables which the model identi�es as important are considered for any signi�cance in understanding ancient land use or perception of the landscape (for an archaeological application of WofE, see Hansen n.d.; for an alternative predictive methodology, also applied in the middle Tiber valley, see Espa et al. 2006). The study area comprises c. 1100 km2 in the middle Tiber valley, to the immediate north of the city of Rome (Fig. 1). A Digital Elevation Model was derived from contours and spot-heights from the Istituto Geogra�co Militare 1:25.000 map series. From this, maps of slope, aspect and topographical form (ridge, peak, valley, etc.) were derived. Other themes include geology, modern land use and rivers. Proximities to three “cultural” variables were also considered: Roman consular roads, contemporary Roman towns and the city of Rome. For each theme, its relative weight (or in�uence) on site location is calculated by the WofE extension, by taking into account the spatial extent of each theme’s attributes (for example, categories of geology) and the number of training sites present on each. Statistics evaluate the signi�cance of the association between these sites and each theme and its individual attributes. For example, for geology, there is a strong aversion to alluvial areas; for topography there is strong preference for ridges and other convex topographical forms such as hilltops; an aversion to areas less than 100 m from watercourses; and an aversion to slope greater than �fteen degrees. The individual attributes of different themes can be categorised into varying numbers of classes (for example, four or eight classes of aspect) to assess the effects of this generalization on statistical association; similarly, various �lters were used to derive topographical features generalized to different spatial scales (generally, see Wood 1996-2008). In each case, the classi�cation producing the strongest association was used. Statistics were also calculated for themes based on proximity or distance. As the size and number of classes affects the output, these had to be carefully de�ned. Weights were graphed to identify signi�cant cut off points. In the case of rivers, a simple binary theme of <100 m and >100 m to nearest watercourse was used; for proximity to roads, three categories were used (<1 km, 1-3 km, >3 km); for proximity to towns, three categories were used (<5 km, 5-10 km, >10 km); and for proximity to Rome, four bands were used (<20 km, 20-30 km, 30-40 km, >40 km). On the basis of these statistics, different combinations of themes were used to generate unique combination grids, or probability surfaces (Kay, 282 Predictive modelling of Roman settlement in the middle Tiber valley Witcher 2005, tav. 1). The model was developed as an exploratory process, with various themes introduced and excluded from the model in order to identify those combinations which were most predictive. The WofE extension includes a number of tests to ensure that the statistical assumptions of the model are not violated; in all the examples described here, these assumptions were upheld. 6. Results The best (i.e. most powerful) model achieved with the environmental and cultural coverages listed above utilised just three environmental themes: geology (ten classes), topography (six classes) and slope (three classes). Particularly high probability combinations were level to gently sloping ground located on the tops of tufo ridges and spurs. The resulting probability surface is illustrated in Fig. 2. Darker shades indicate higher probability (for example, the narrow, fertile ridges in areas A and B); lighter shades indicate lower probability, most notably, the alluvial soils of the Tiber �oodplain show up as pale areas. The predictive model produced a highly complex and fragmented mosaic, in which areas of very low probability sit next to areas of high probability. These results may suggest the very careful localised positioning of sites in relation, particularly, to topographical form. The signi�cant in�uence of the strongly dissected topography is re�ected in the thin, parallel strips of land alternating between high and low probability. Fig. 3 shows the cumulative percentage of background cells (i.e. random) and site cells (i.e. the reserve villa sites) against the posterior probability value. This demonstrates that both the random and the site groups comprise large numbers of low probability cells and fewer of higher probability. However, the slower accumulation of site cells indicates that a greater percentage of sites occur on higher probability cells. Overall, the model has moderate predictive power, but clearly offers a better-than-chance method of predicting site location. It effectively predicts c. 20% of villas in just c. 6% of the area, weakening to c. 53% of villas in c. 26% of the area. The environmental and cultural themes used in the model have possible signi�cance in terms of both past human behaviour (for example, site location preference) and archaeological recovery (for example, visibility). For example, people may have avoided building sites in valley bottoms due to �ooding and on steep slopes due to erosion. However there are also postdepositional possibilities: alluvium may cover sites located in valley bottoms, whilst the lack of cultivation on steep slopes (there is little use of terracing in this area) means sites are less likely to be discovered if they did exist. It is, of course, not straightforward to distinguish between past settlement location 283 S.J. Kay, R.E. Witcher Fig. 2 – Predictive model for early imperial villas in the middle Tiber valley. For location, see Fig. 1. The river Tiber (in black) runs north-south. A = Central Ager Faliscus; B = area west of Veii; C = Ager Foronovanus. Fig. 3 – Comparison of cumulative percentages of background and sites cells against WofE posterior probability. 284 Predictive modelling of Roman settlement in the middle Tiber valley decisions and post-depositional and recovery issues. Of the themes used in the model, both cultural and environmental, it is clear that environmental themes have more predictive power. However, this is not to argue that they are more important in general than cultural factors, but that of the themes selected here, they have a more important role to play in prediction of where sites may be found today. Land use and distance to Rome were employed in alternative models and both found to have high predictive power. However, both were excluded from further analysis as land use mapping refers to the modern landscape and seemed highly likely to re�ect archaeological visibility (for example, pasture was low probability and vineyards high). Similarly, whilst it is possible that villa density was higher closer to Rome, archaeological activity/survey intensity has generally been much higher closer to the city. The current model therefore concentrates on those themes most clearly free of post-depositional and recovery problems. However, future work will attempt to use these and other themes speci�cally to distinguish between site location, post-deposition and recovery issues. The model obviously predicts where sites might be found if the same survey methodology were employed again. As such, the model replicates existing biases (for example, surveyors may have concentrated their work in areas of high visibility where they believe they will achieve better results). Nonetheless, it still highlights potential unevenness in survey data. For example, the intensity of survey in the central Ager Faliscus (marked A on Fig. 2) and to the west of the city of Veii (B) is known to be particularly low. On the basis of their environmental similarity with other areas, the model suggests the probability of �nding villas in these areas is high. However, these existing biases can be addressed through the integration of new and more systematic �eldwork into the model. Indeed, this addresses another of the criticisms made by Wheatley (2004), that predictive models are self-ful�lling prophesies as they reinforce existing biases – however, if modelling is treated as an iterative process, with new results added in, models can be constantly re�ned (Rua 2009). With the current model, it is noticeable that there is some difference in probabilities between the two banks of the Tiber in the top third of Fig. 2. Survey in both areas is relatively limited and the model is therefore more strongly in�uenced by discoveries in the southern half of the study area. However, the area on the west bank (B) in southern Etruria is of a similar nature in terms of topography, geology, land use, etc. to the better surveyed areas to its immediate south. In contrast, the area to the east of the river (C) is relatively unlike other surveyed areas of the Sabina Tiberina on the eastern bank of the Tiber. The addition to the model of results from recent survey work in this area (Gabrielli et al. 2003; Verga 2007) may improve con�dence in the strength of this patterning. 285 S.J. Kay, R.E. Witcher Perhaps the most striking result is the similarity between early imperial villa location and some modern settlement as revealed by visualising 1:10.000 Carta Tecnica Regionale maps over the probability model (Kay, Witcher 2005, tav. 2). The model, based on Roman villas, also distinguishes very precisely between nucleated medieval centres on the one hand (low probability), and their suburbs and sprawling discontinuous developments of the last thirty years on the other (high probability). Modern land use was explicitly excluded from the analysis and there is unlikely to be any correlation as a result of the preferential discovery of material during house construction, as the bulk of the data used pre-date such suburban developments. This might suggest possible similarities in the landscape perceptions, valuations or motivations in�uencing the settlement location decisions of both Roman villas and modern suburban settlement. Speci�cally, in contrast with Etruscan and Medieval settlement, these are open sites with little need or desire to nucleate. Most notably, they are on ridges. There are advantages to this, such as drainage and expansive vistas, but also disadvantages such as exposure to wind and inaccessibility of water. In the latter context, the widespread presence of Roman cisterns in this area is interesting. But probably most important is the fact that roads tend to follow the ridges. The tufo landscape across much of this area has created narrow ridges, divided by steep valleys. The consular road, the Via Flaminia, follows such a ridge and avoids the need to cross any river for more than thirty kilometres north of the Milvian Bridge outside Rome (Fig. 1). However, this is only the most impressive example of countless other ridge roads (that is, non-consular roads) which were excluded from this preliminary model because they are unevenly mapped and so may have skewed results. Finally, the model of early imperial villa location was applied to samples of sites from other periods. Prediction of Etruscan and mid-republican sites was as ef�cient as the prediction of sites of imperial date on which the model was based. Further work is required to interpret this situation, but two (not necessarily mutually exclusive) explanations for this similarity in site location parameters can be postulated. First, that settlement in all three periods is similarly located (despite such signi�cant events as the construction of consular roads and the economic pressures resulting from the emergence of the imperial metropolis of Rome). Second, that these patterns are largely the product of post-deposition and recovery, for example issues of visibility, which may effectively homogenise differences between the settlement preferences in different periods. Assessment of the unevenness of the data is vital if other aspects are to be explored and developed. For example, work by Goodchild (2007, 2008; also Goodchild, Witcher in press) on the agricultural production potential in the middle Tiber valley explores issues such as subsistence regimes, population and carrying capacities of land units through the use of historical and comparative evidence, as well as archaeological data. These issues can only 286 Predictive modelling of Roman settlement in the middle Tiber valley be reliably addressed through assessment of the completeness or otherwise of existing patterns. Predictive modelling is one method which may help improve understanding of the character of archaeological datasets. 7. Conclusion In summary, the predictive power of the �nal model does not compare to that produced by some of the North American models. For example, Dalla Bona’s (2000, 94) model of sites in northern Ontario located c. 84% of known sites within areas of high archaeological potential which comprised just c. 16% of the area. However, some key differences between North American and European models can be identi�ed. Firstly, most US models deal with very few sites. It is possible that there was greater selectivity of prime landscape locations, whereas in a full and intensively exploited landscape such as that on the doorstep of imperial Rome, it would seem likely that choice was more about compromise. Further, in comparing the results presented here with North American models, it is apparent that in the hinterland of ancient Rome we are dealing with a more complex agricultural and territorial empire capable of signi�cantly altering the environment and its potential to support large, sedentary populations (for example, cisterns for irrigated agriculture or inter-regional exchange). Pressures to supply the metropolis with agricultural goods and the desire or political need to live near Rome may have meant that environmental variables were increasingly less in�uential on settlement location over time. Lower predictive power may be one reason for the lack of popularity of such work in the Mediterranean, but a more probable explanation is the very different developmental pressures and Cultural Resource Management processes. In particular, there are few areas (in Italy at least) about which absolutely nothing at all is known archaeologically; further, the archaeological record is densely-distributed; agricultural and developmental pressures are great, and the extent of areas to be assessed is comparatively small and can be subject to more intensive reconnaissance. This study is a preliminary attempt to evaluate the possibilities of predictive modelling in the middle Tiber valley. In particular, it makes use of a generic modelling package; whilst this provides a useful initial framework, future work will seek to move away from a “blackbox” approach and seek to increase control over the process. Nonetheless, the initial results suggest that that predictive modelling is a useful heuristic tool to explore site location preferences and archaeological recovery issues in this part of the Mediterranean. Acknowledgements This study draws upon the results of the Tiber Valley Project, and in particular on research conducted by Leverhulme fellows, Helga Di Giuseppe and Robert Witcher; the project 287 S.J. Kay, R.E. Witcher is directed by Helen Patterson of the British School at Rome. The authors would like to thank all their project colleagues and the former Director of the British School, Andrew WallaceHadrill. The Tiber Valley Project draws together scholars and ceramic specialists from twelve British universities and many Italian institutions whose work is gratefully recognised here. Thanks also to Helen Goodchild who read and commented on an earlier draft. Any mistakes or misinterpretations in the present article are the responsibility of the authors. Stephen J. Kay The British School at Rome Robert E. Witcher Department of Archaeology Durham University REFERENCES Chapman H.P. 2006, Landscape Archaeology and GIS, Stroud, Tempus. Coarelli F., Patterson H. (eds.) 2008, Mercator Placidissimus. The Tiber Valley in Antiquity. New Research in the Upper and Middle River Valley, Quaderni di Eutopia 8, Roma, Quasar. Crow J., Turner S. in press, Unlocking historic landscapes in the Eastern Mediterranean using historic landscape characterisation, «Antiquity». Dalla Bona L. 2000, Protecting cultural resources through forest management planning in Ontario using archaeological predictive modelling, in Wescott, Brandon 2000, 73-100. Di Giuseppe H., Sansoni M., Williams J., Witcher R. 2002, The Sabinensis Ager revisited: a �eld survey in the Sabina Tiberina, «Papers of the British School at Rome», 70, 99150. Ebert J.I. 2000, The state of the art in “inductive” predictive modelling: seven big mistakes (and lots of smaller ones), in Wescott, Brandon 2000, 129-134. Espa G., Benedetti R., De Meo A., Ricci U., Espa S. 2006, GIS based models and estimation methods for the probability of archaeological site location, «Journal of Cultural Heritage», 7, 3, 147-155. Gabrielli R., Guidi A., Santoro P. 2003, Il progetto Galantina, in J.R. Brandt, X. Dupré Raventós, G. Ghini (eds.), Lazio e Sabina 1, Roma, De Luca, 109-114. Gaffney V., Stančič Z. 1991, GIS Approaches to Regional Analysis: A Case Study of the Island of Hvar, Ljubljana, Znanstveni Institut Filozofske Fakultete. García Sanjuán L., Wheatley D.W. (eds.) 2002, Mapping the Future of the Past. Managing the Spatial Dimension of the European Archaeological Resource, Seville, Universidad de Sevilla. Goodchild H. 2007, Modelling Roman Agricultural Production in the Middle Tiber Valley, Central Italy, University of Birmingham, Unpublished PhD thesis (http://etheses.bham. ac.uk/175/). Goodchild H. 2008, Modelling the productive potential of the middle Tiber valley, in Coarelli, Patterson 2008, 769-796. Goodchild H., Witcher R.E. in press, Modelling the agricultural landscapes of Republican Italy, in J. Carlsen, E. Lo Cascio (eds.), Agricoltura e scambi nell’Italia tardo repubblicana, Bari-Roma, Edipuglia. Hansen D.T. 2004, Describing GIS applications: Spatial statistics and weights of evidence extension in ArcView in the analysis of the archaeology sites in the landscape (http://www. giscafe.com/technical_papers/Papers/paper054/, accessed 15/07/2004). 288 Predictive modelling of Roman settlement in the middle Tiber valley Ingold T. 2000, The Perception of the Environment. Essays on Livelihood, Dwelling and Skill, London-New York, Routledge. Kamermans H. 2000, Land evaluation as predictive modelling: a deductive approach, in Lock 2000, 124-146. Kay S., Witcher R.E. 2005, The Tiber Valley Project. The role of GIS and databases in �eld survey data integration and analysis, «Archeologia e Calcolatori», 16, 113-137. Lock G. (ed.) 2000, Beyond the Map. Archaeology and Spatial Technologies, Amsterdam, IOS Press. Lock G. 2003, Using Computers in Archaeology: Towards Virtual Pasts, London, Routledge. Lock G., Stančič Z. (eds.) 1995, Archaeology and Geographical Information Systems: A European Perspective, London, Taylor and Francis. Mehrer M.W., Wescott C.L. (eds.) 2006, GIS and Archaeological Site Location Modeling, London, Taylor and Francis. Patterson H. (ed.) 2004, Bridging the Tiber. Approaches to Regional Archaeology in the Middle Tiber Valley, Archaeological Monographs of The British School at Rome 13, London, The British School at Rome. Patterson H., Bousquet A., Di Giuseppe H., Felici F., Fontana S., Witcher R., Zampini S. 2004a, Le produzioni ceramiche nella media Valle del Tevere tra l’età repubblicana e tardo antica, «Rei Cretariae Romanae Fautores Acta», 38, 161-170. Patterson H., Di Giuseppe H., Witcher R.E. 2004b, Three south Etrurian “crises”: �rst results of the Tiber Valley Project, «Papers of the British School at Rome», 72, 1-36. Patterson H., Di Giuseppe H., Witcher R.E. 2004c, Progetto Tiber Valley. La Sabina e le due rive a confronto, in A. Guidi, S. Ponchia (eds.), Ricerche archeologiche in Italia e in Siria, Padova, Sargon, 67-88. Rua H. 2009, Geographic Information Systems in archaeological analysis: a predictive model in the detection of rural Roman villae, «Journal of Archaeological Science», 36, 2, 224-235. Sawatzky D.L., Raines G.L., Bonham-Carter G.F., Looney C.G. 2004, ArcSDM2: ArcMAP extension for spatial data modelling using Weights of Evidence, logistic regression, fuzzy logic and neural network analysis (http://www.ige.unicamp.br/sdm). Stančič Z., Veljanovski T. 2000, Understanding Roman settlement patterns through multivariate statistics and predictive modelling, in Lock 2000, 147-156. Terrenato N., Ammerman A.J. 1996, Visibility and site recovery in the Cecina Valley Survey, Italy, «Journal of Field Archaeology», 23, 91-109. van Hove D. 2004, Time and experience: taskscapes within GIS, «Internet Archaeology», 16 (http://intarch.ac.uk/journal/issue16/vanhove_index.html, accessed 06/09/ 2007). van Leusen P.M. et al. 2002, Understanding digital archaeological landscapes, in P. Attema, G.J. Burgers, E. van Joolen, M. van Leusen, B. Mater (eds.), New Developments in Italian Landscape Archaeology, BAR International Series 1091, Oxford, Archaeopress, 125-152. van Leusen M., Kamermans H. (eds.) 2005, Predictive Modelling for Archaeological Heritage Management: A Research Agenda, Nederlandse Archeologische Rapporten 29, Amersfoot, National Service for Archaeological Heritage. Verga F. 2007, Ager Foronovanus I, Forma Italiae, vol. 44, Firenze, Leo S. Olschki Editore. Verhagen Ph. (ed.) 2007, Case Studies in Archaeological Predictive Modelling, Archaeological Studies Leiden University 14, Amsterdam, Leiden University Press. Wescott K.L., Brandon R.J. 2000, Practical Applications of GIS for Archaeologists: A Predictive Modelling Kit, London, Taylor and Francis. Wheatley D. 2004, Making space for an archaeology of place, «Internet Archaeology», 15 (http://intarch.ac.uk/journal/issue15/wheatley_index.html, accessed 15/07/2004). 289 S.J. Kay, R.E. Witcher Wheatley D., Gillings M. 2002, Spatial Technology and Archaeology, London, Taylor and Francis. Witcher R.E. in press, Missing persons? Models of Mediterranean regional survey and ancient populations, in A. Bowman, A. Wilson (eds.), Settlement, Urbanisation and Population, Oxford Studies in the Roman Economy 2, Oxford, Oxford University Press. Witcher R.E., Kay S.J. 2008, The Tiber Valley Project: the database and Geographical Information System, in Coarelli, Patterson 2008, 417-423. Wood J. 1996-2008, Landserf (http://www.landserf.org). ABSTRACT This paper discusses the results of an inductive predictive modelling experiment on Roman settlement data from the middle Tiber valley, Italy. The study forms part of the British School at Rome’s Tiber Valley Project, which since its inception in 1997 has been assessing the changing landscapes of the Tiber Valley from protohistory through to the medieval period. The aim of this present study is to broaden understanding of settlement patterns via predictive modelling, and in particular to evaluate unevenness in �eld survey coverage, survey bias and past settlement location preferences. The predictive modelling method chosen was an application of the statistical Weights of Evidence extension for ESRI ArcView. The results highlight associations between Roman settlement and environmental themes that provide moderate predictive potential and suggest that further experimentation might prove valuable. 290 Archeologia e Calcolatori 20, 2009, 291-307 ACTION GIS: UN MODELLO PREDITTIVO DEL MOVIMENTO ANTROPICO IN UN PAESAGGIO ANTICO. IL CASO DI STUDIO ARCHEOLOGICO DELLA VAL D’ALPONE (VR) 1. Premessa In questi ultimi anni i GIS hanno trovato ampia applicazione in ambito archeologico: per la loro capacità sia di simulare in digitale un paesaggio antico, attraverso l’applicazione di modelli predittivi e quantitativi che indagano le possibili strategie di localizzazione di siti archeologici in un territorio, sia di favorire lo sviluppo di ipotesi sulle dinamiche del comportamento e sui meccanismi decisionali dell’uomo del passato. La ACTION-based GIS, maturata all’incrocio fra il tecnicismo dei Sistemi Geogra�ci Informativi e gli indirizzi più recenti dell’antropologia nord-americana, sembra rappresentare una terra promessa: oltre ad offrire la già acquisita e accattivante prospettiva da Realtà Virtuale con una simuland anisotropica a quattro dimensioni (x,y,z, tempo) e ospitarvi vecchi e nuovi strumenti (dai Poligoni di Thiessen ai nuovi tool delle “super�ci di costo” o di “visibilità”), essa immette nella scena un attore sociale nuovo (e politico) sempre più complesso, con capacità tipicamente umane, come soggetto centrale dei cambiamenti sociali (De Guio 2000, 19). Gli attuali modelli spaziali digitali sono il prodotto evoluto di un lungo percorso metodologico e scienti�co iniziato negli anni ’60, in corrispondenza della nascita della New Archaeology: si documenta in questo momento un grande sforzo di rinnovamento indirizzato soprattutto verso le analisi quantitative e/o geometriche (Forte 2002, 95). I modelli possono essere de�niti come delle rappresentazioni idealizzate di osservazioni e, in particolar modo quelli computazionali, capaci di ridurre drasticamente il tempo di veri�ca che determinati condizionamenti/variabili hanno sulle scelte dell’attore sociale. Oggi con il GIS è possibile crearne di nuovi e più complessi nel tentativo di indagare, con sempre maggior profondità, la palinsestica grammatica spaziale di un paesaggio archeologico. A Marcos Llobera, docente del corso di Archeologia del paesaggio ed esperto in Sistemi Informativi Geogra�ci dell’Università di Washington, dobbiamo, in un contributo molto recente (Llobera 2000), un riesame puntuale del concetto di movimento rispetto soprattutto alle nuove potenzialità tecnologiche del GIS in questo ambito. Secondo Llobera il movimento deve costituire una speci�ca routine dei Sistemi Informativi Geogra�ci per lo studio delle dinamiche di spostamento in un paesaggio antico (Forte 2002, 110). Sono le attività quotidiane, quindi anche il movimento da luogo a luogo per reperire risorse o per soddisfare un bisogno, che portano alla formazione di 291 A. Casarotto, A. De Guio, F. Ferrarese Fig. 1 – Posizionamento indicativo dell’area di indagine. un paesaggio organizzato secondo i principi e le categorie culturali di una società estinta, intendendo per paesaggio un tutto dinamico in perenne trasformazione, un contesto di luoghi “fatti” da preesistente naturale e costruito antropico, creati e sperimentati attraverso il movimento stesso. Monitorando l’andamento e la morfologia degli antichi sentieri è possibile capire quale concezione l’uomo avesse dello spazio in cui stava e ricostruire le mappe cognitive che spiegano quella particolare organizzazione, amministrazione e gestione del territorio. 2. Introduzione «Comprendere il paesaggio vuol dire decodi�carne tracce di vita e segni che ne trascendono la mera �sicità, trascinandolo in metaspazio tale per cui, citando Louis Kahn, esso divenga “quel luogo in cui il bambino, mentre cammina, può vedere qualcosa che può fare da grande”» Cocchiarella 2006, 35 Indagando il contesto speci�co della Val d’Alpone (Lessinia orientale in provincia di Verona, Fig. 1) è stato creato, in ambiente GIS (Idrisi32 e ArcGIS 9.0), un modello predittivo comportamentale in grado di dare una probabilità di presenza di sentieri antichi, ottimali dal punto di vista dei costi 292 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Fig. 2 – Scena �nale del DTM a 5 m della Val d’Alpone con tinte altimetriche e lumeggiamento, prodotto dall’unione di due DEM: uno derivato dall’unione di sette TIN convertiti in formato raster dell’area d’indagine e uno, meno raf�nato, ottenuto con un algoritmo più semplice (INTERCON) che comprende zone fuori area d’indagine ma dentro il minimo raster rappresentabile. topogra�ci, che collegano due siti archeologici della stesa fase o un sito con particolari morfologie del paesaggio (dorsali, creste, fondovalle, �umi, pascoli, etc.). Come presupposto fondamentale, è necessario connotare il soggetto movente dal carattere ottimizzante attribuito al comportamento antropico, che lo porta a seguire tendenzialmente la regola e la strategia della minima spesa energetica per raggiungere qualsiasi tipo di target. In questo modo è stato possibile inizialmente ridurre le variabili in gioco e considerare solo 293 A. Casarotto, A. De Guio, F. Ferrarese quelle di tipo topogra�co per creare, con un metodo quantitativo, un modello del movimento. Ovviamente qualsiasi simulazione computazionale è un’approssimazione dei processi che interessarono il mondo reale; gli algoritmi usati e le variabili considerate nell’analisi determinano la natura dei risultati (Scheneider, Robbins 2007). Dopo la preelaborazione dei dati e la georeferenziazione di carte tematiche dell’area d’indagine – carta dei sentieri CAI in scala 1:20.000; carta topogra�ca IGM 1:25.000; carta CAI turistica per escursionisti in scala 1:25.000; Carta Archeologica del Veneto (Capuis et al. 1990) – è stato creato un database digitale (FileMakerPro 8.5) che cataloga tutti i siti editi nella Carta Archeologica del Veneto, implementato nel GIS e associato al tematismo vettoriale, in formato punto, dei siti archeologici. Per il calcolo dei costi topogra�ci del movimento è stato necessario costruire il DTM della valle con risoluzione a 5 m ottenuto con un metodo di interpolazione TIN constrained da isolinee con tunnel edge removal, parabolic shape di Idrisi32. L’unico problema che si è riscontrato in tale ambiente è stata la grande mole di dati da elaborare, insostenibile per il software Idrisi32 e per le macchine a disposizione: per superare l’impasse è stata divisa l’area di studio in 7 porzioni delle quali è stato calcolato il TIN, trasferito in formato raster per avere il DTM e quindi uniti i 7 DTM. Questo �le �nale, unendo porzioni dislocate in modo non sempre allineato, presenta anche una serie di pixel senza quota, necessari per completare il raster stesso (un raster, essendo formato da righe e colonne, è per forza di forma rettangolare o quadrata). Pertanto, si è deciso di completare la scena realizzando un DTM con algoritmo più semplice, in grado di gestire tutte le isolinee in un unico calcolo (modulo INTERCON di Idrisi32). Questo DTM è stato utilizzato per assegnare un valore di quota alle celle (pixel) fuori area d’indagine ma dentro il minimo raster rappresentabile (Fig. 2). Su queste basi di dati sono state condotte le analisi spaziali e comportamentali, per la ricostruzione virtuale del paesaggio antico e del movimento antropico nella Val d’Alpone. 3. VARCOST e PATHWAY analysis La dif�coltà del movimento in genere dipende da frizioni anisotropiche (come la pendenza) e da frizioni isotropiche (come l’uso del suolo e altri elementi qualitativi del paesaggio reale). L’Anisotropic Cost è, in questo caso, il costo necessario per affrontare la pendenza (slope). Il suo indice di valore varierà e dipenderà dalla direzione con la quale si affronta la pendenza (aspect, dà la direzione di massima pendenza). L’Isotropic Cost qui considerato è il costo richiesto per attraversare, in formato digitale, indici che esprimono l’uso del suolo (land use): terreni 294 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Fig. 3 – Sentiero calcolato dal GIS: ottimale dal punto di vista dei costi affrontati, congiunge due siti archeologici della stessa fase: il sito archeologico del Monte Biron e il sito archeologico del Monte Madarosa. adibiti a pascoli, boschi, prati, vegetazione in evoluzione etc. avranno ognuno un proprio valore di costo. Il costo che è necessario per affrontare un’area di particolare destinazione di uso del suolo sarà uguale in qualsiasi direzione si decida di attraversarla. Tali informazioni sono state ottenute dalla carta Corine Land Cover del Veneto. Questa carta è la rappresentazione dell’uso del suolo attuale, ricavata da dati Landsat nel 1991 con una risoluzione a 500 m; non avendo dati più raf�nati a disposizione, è stata considerata un’approssimazione della situazione ambientale in antico. Con il modulo VARCOST di Idrisi32 è possibile combinare i valori di questi due tipi di costo isotropico e anisotropico e produrre una super�cie 295 A. Casarotto, A. De Guio, F. Ferrarese Fig. 4 – Confronto fra sentieri che congiungono i siti archeologici dell’età del Ferro della Purga di Bolca con il sito del Monte Soeio e delle Tre Punte di Prealta. Andamento del sentiero CAI confrontato con gli andamenti di due sentieri calcolati dal GIS: uno ottimale dal punto di vista delle pendenze affrontate, l’altro ottimale dal punto di vista delle pendenze affrontate coniugate però con il tipo di super�cie attraversata. Base raster: VARCOST image del sito della Purga di Bolca. di costo energetico costituita da indici numerici, associati ad ogni pixel, che corrispondono al coef�ciente dell’energia antropica necessaria per affrontare la pendenza, la distanza e il tipo di terreno in quel punto, con valori che progressivamente aumentano allontanandosi dai punti sorgente (siti archeologici). È un modello, questo, che fa esplicito riferimento alla Site Catchment Analysis sviluppata da Vita-Finzi e Higgs (1970) per l’analisi del “bacino di cattura” 296 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Fig. 5 – Confronto fra i sentieri che congiungono i siti archeologici dell’età del Ferro della Purga di Bolca con il sito del Monte Soeio e delle Tre Punte di Prealta. Base raster: Corine Land use dell’area d’indagine. di risorse di un sito. Il principio è lo stesso, cambiano le variabili misurate. Nel modello statistico predittivo di Vita-Finzi e Higgs la variabile calcolata è la presenza di risorse che decade in modo monotono man mano che ci si allontana dal sito; qui la variabile misurata è il costo energetico, il quale aumenta in modo tendenzialmente monotono man mano che ci si allontana dal sito perché aumentano le distanze e le pendenze affrontate. Inoltre, ugualmente alla Site Catchment Analysis, in presenza di un paesaggio anisotropico (quindi come quello della nostra valle) a seconda della direzione intrapresa si percorreranno distanze diverse a parità di costi e di tempo. Successivamente caricando nell’operatore di distanza PATHWAY la super�cie di costo prodotta e il target da raggiungere, è possibile calcolare 297 A. Casarotto, A. De Guio, F. Ferrarese il percorso ottimale di minimo costo che collega un sito archeologico con qualsiasi altro punto dell’area d’indagine (Fig. 3). Si è scelto di calcolare e visualizzare due tipi di percorsi: quelli ottenuti considerando solo l’anisotropic friction, cioè la pendenza e la direzione di massima pendenza, e quelli ottenuti considerando oltre all’anisotropic friction anche l’isotropic friction dovuta all’uso del suolo. Oltre a questi virtual pathways sono stati editati e monitorati anche i sentieri CAI (Club Alpino Italiano) che interessano la Val d’Alpone, soprattutto quelli che corrono sulle dorsali est e ovest. La maggior parte dei siti archeologici dell’età del Bronzo e dell’età del Ferro si colloca in cresta (probabilmente per un fattore difensivo e di controllo sul territorio) e i sentieri CAI, essendo su dorsale, li intercettano e li collegano. Per tal motivo si pensa che in corrispondenza o in prossimità di questi corressero un tempo i sentieri antichi che collegavano i siti archeologici della stessa fase. Dopo aver prodotto una folta rete sentieristica virtuale sono stati messi a confronto i vari pro�li altimetrici dei sentieri. Particolare è il confronto, indicato sia in Fig. 4 che in Fig. 5, di tre tipi di sentieri che congiungono i siti archeologici dell’età del Ferro della Purga di Bolca con il sito del Monte Soeio e delle Tre Punte di Prealta: un tratto del sentiero CAI n. 19, il sentiero calcolato dal GIS ottimale dal punto di vista delle pendenze affrontate e il sentiero calcolato dal GIS ottimale dal punto di vista delle pendenze affrontate coniugate però con il tipo di super�cie attraversata. È stato altamente confortante notare come quest’ultimo sentiero potenziale molto spesso coincida o si avvicini al sentiero CAI attuale. 4. Applicazione della funzione dell’energia metabolica spesa durante il cammino Secondo quanto proposto da M. Llobera (2000) e da A. Minetti (2002), si è tentato di applicare la funzione dei costi topogra�ci ai pro�li altimetrici dei sentieri visualizzati dal GIS. Il gra�co in Fig. 6 rappresenta il costo topogra�co misurato nel rapporto fra energia e pendenza: all’incremento della pendenza corrisponde un aumento dell’energia spesa (la pendenza è calcolata in gradi). Esso mostra che l’optimum gradient per camminare alla minima spesa energetica non è 0 ma -10% (≈ -5,71°) quindi in leggera discesa. I valori da +30° a +49° sono derivati da un individuo che sale una scala mobile. È stata ricostruita la funzione matematica che sottende a tale gra�co, leggendo i valori dei punti di cambiamento di pendenza della sua curva: in ambiente Excel (Visual Basic Eitor) si è creata una funzione che fornisce l’indice di energia in funzione dell’angolo affrontato. Moltiplicando tale indice per la distanza percorsa con quell’angolo di pendenza, si ha l’ammontare di energia spesa per tutto il tragitto in questione. 298 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Fig. 6 – Costo topogra�co misurato nel rapporto fra energia e pendenza: all’incremento della pendenza corrisponde un aumento dell’energia spesa (la pendenza è calcolata in gradi). L’optimum gradient per camminare alla minima spesa energetica non è 0 ma -10% (≈ -5,71°) quindi in leggera discesa (Llobera 2000, 71). Fig. 7 – Energia metabolica necessaria per percorrere i sentieri di Fig. 4: il sentiero che considera anche l’uso del suolo è più conveniente energeticamente rispetto al sentiero che considera solo la pendenza e, a parità di distanza planimetrica, più conveniente anche del sentiero CAI, per la cui percorrenza occorre una quantità maggiore di energia, perché più lungo rispetto agli altri. 299 A. Casarotto, A. De Guio, F. Ferrarese È possibile così produrre dei gra�ci degli andamenti dell’energia metabolica necessaria per sostenere il cammino lungo vari pro�li altimetrici, sapendo che non basta la friction anisotropica della pendenza per determinare l’andamento del percorso ottimale per muoversi da un sito ad un altro. Il GIS, infatti, interpreta come “ottimale” la combinazione tra distanza ed energia spesa senza essere in grado di discriminare la salita e la discesa, cioè il verso della percorrenza. Dal gra�co di M. Llobera (Fig. 6), infatti, è possibile osservare come la pendenza ottimale, in cui il costo energetico è minimo, si aggiri intorno al -10% (= -5,71°) e come a pendenze via via inferiori (quindi lungo tratti in discesa sempre più ripidi) l’energia aumenti in modo continuo. Grazie alla funzione riportata in Fig. 6, infatti, è possibile convalidare sentieri virtuali per testare la loro attendibilità topogra�ca: si è potuto effettivamente osservare come il percorso calcolato dal GIS, che considera oltre alla frizione di slope anche la frizione di land use, sia conveniente energeticamente rispetto a quello che considera solo la frizione anisotropica della pendenza (Fig. 7). Tale funzione potrà essere utilizzata per calcolare l’energia metabolica necessaria a sostenere il cammino in qualsiasi tipo di sentiero e strada antica e in qualsiasi contesto ambientale per studiare ancora più a fondo le dinamiche del movimento antropico in un paesaggio antico. 5. Limiti dello strumento GIS per questo tipo di analisi Ad in�uenzare le scelte dell’attore sociale, oltre ai fattori statistici e quantitativi con esiti facilmente predicibili sul piano comportamentale, intervengono altri tipi di condizionamenti dif�cili da tradurre numericamente. Se infatti il calcolo dei costi topogra�ci è di fatto un’elaborazione geometrica, meno prevedibile è l’impatto percettivo (visivo, uditivo, olfattivo e tattile) che alcune caratteristiche dei luoghi possono aver avuto sul soggetto movente. Se si immaginasse un paesaggio totalmente neutro e naturale gli indici del movimento dipenderebbero solo dai valori altimetrici del modello digitale del terreno, cioè dalla morfologia dell’area indagata. L’uomo però segue tendenzialmente la meta-regola comportamentale della minima spesa energetica e si lascia condizionare dalla sua capacità negoziabile di produrre eventi soggettivi: ad in�uenzare le scelte di locomozione possono intervenire la presenza nel paesaggio di particolari strutture come fossati, terrapieni, necropoli, torrenti, aree ad elevata concentrazione di risorse che deviano il percorso atteso del movimento. Lo stesso Llobera attribuisce enfasi a tutti i fattori �sici, mentali, antropologici, sociali e comportamentali che possono caratterizzare e in�uenzare le scelte individuali e collettive del movimento umano in un ecosistema e nel corso del tempo, affermando che i costi possono avere una duplice origine: il 300 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico costo dovuto alla topogra�a (Topographic Cost) e il costo dovuto alla presenza di determinate caratteristiche del paesaggio (costo qualitativo del paesaggio o Landscape Feature Cost). Il limite del GIS sta proprio in questo: in quanto macchina è in grado di operare soltanto su valori quantitativi e numerici: è dif�cile trasformare in quantità qualcosa che in realtà è qualità, rendere oggettivo ciò che è soggettivo. In questo senso si sta cercando di rendere il GIS un Mind-GIS più adatto per ricostruire la percezione del paesaggio non solo nella sua �sicità ma anche nella sua qualità: l’obbiettivo ultimo di un’analisi archeologica e spaziale infatti deve essere la ricostruzione di una realtà virtuale che sia simulazione della mappa mentale e cognitiva antica. 6. Viewshed Analysis Per Viewshed Analysis si intende l’analisi della visibilità, cioè dell’estensione del campo visivo umano a partire da un punto di osservazione. È un’analisi fondamentale per lo studio di un paesaggio archeologico e per la sua possibile ricostruzione percettiva. È possibile infatti determinare che cosa e quanto si poteva osservare da un determinato punto scorgendo l’orizzonte. Quanto può rientrare in un campo visuale, sia partendo da un’area sommitale sia da una regione piana, corrisponde alla simulazione di un paesaggio antico. Dal punto di vista informatico una tipica viewshed corrisponde ad una griglia in cui ogni cella ha un valore di visibilità, rappresentante il numero di punti di osservazione dai quali si può rilevare l’orizzonte prescelto. In senso strettamente tecnico e basilare, l’analisi di visibilità si applica su un DEM o DTM, un modello di elevazione del terreno, calcolando, in base all’altimetria del punto di osservazione e dell’area osservata, quali regioni rientrano nel campo visuale (Forte 2002, 100-101). Anche nel caso di studio della Val d’Alpone, è stata avviata una “GIS Analysis” in Idrisi32 usando il modulo VIEWSHED. È stata selezionata l’immagine raster del DTM come orizzonte visivo e come punto d’osservazione uno o più siti archeologici. Abbiamo impostato a 1,50 m l’altezza ipotetica dell’osservatore e a 8000 m il raggio visivo. Il GIS ha calcolato così il campo visivo del singolo sito assegnando ai vari pixel del DEM valori booleani di “0” (ai pixel invisibili da quel sito), “1” (ai pixel visibili da quel sito) e “2” (alla location, cioè al punto da dove parte lo sguardo dell’osservatore). Mentre per il calcolo del bacino visivo di più siti archeologici di una stessa fase il GIS ha dato a ciascun pixel dell’immagine raster valori proporzionali che indicano da quanti punti di osservazione (siti archeologici) quel pixel è visibile. Possiamo così intuire il “bacino di controllo” di ogni sito e vedere quali di essi hanno la magnitudo maggiore per ipotizzare una loro localizzazione territorialmente strategica. Procedendo in questo modo, però, consideriamo solo un punto di quel sito, o meglio, consideriamo quel sito come un punto 301 A. Casarotto, A. De Guio, F. Ferrarese Fig. 8 – Bacino visivo di tutti i siti archeologici dell’età del Bronzo (intesi come cerchi di 200 m di raggio) calcolato dal GIS: risulta molto controllato il versante est della valle e il fondovalle, questo perché la maggior parte dei siti si colloca sul versante ovest. (5x5 m). Occorre infatti tracciare un poligono o un cerchio di pertinenza del sito (si è scelto un’area buffer di 200 m di raggio) e considerare tutti i punti che formano la sua area. Stabilito il raggio visivo, sarà possibile calcolare e visualizzare la view catchment area (il bacino visivo) di quel sito. La stessa metodologia è stata usata per calcolare il bacino visivo di tutti i siti dell’età del Bronzo, considerando ora i siti non più come punti ma come cerchi di 125.600 m2. Risulta così un controllo visivo maggiore del versante est della valle, soprattutto perché la maggior parte dei siti archeologici noti dell’età del Bronzo è localizzata sulla dorsale ovest della Val d’Alpone (Fig. 8). 302 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Fig. 9 – Immagine raster prodotta con l’algoritmo OVERLAY che sottrae due immagine di viewshed: quella della viewshed di 13 siti del Bronzo (punti gialli) posizionati sul versante ovest della valle e quella della viewshed di 13 siti random (punti verdi) posizionati sul versante ovest della valle presi all’interno dell’area del bacino idrogra�co dell’Alpone. Si può inoltre cercare di avvalorare l’ipotesi di un posizionamento strategico, per il controllo del territorio, di alcuni siti archeologici. Occorrerebbe calcolare il bacino di visibilità di alcuni punti campione scelti con modalità random (casualmente: per evitare vizio campionario) nello spazio d’indagine. Se l’intensità del loro campo visivo è minore dell’intensità del campo visivo dei nostri siti, si può confermare l’idea di partenza, cioè che la localizzazione dei siti archeologici è strategica. Si tratta di un metodo statistico che analizza gli esiti attoriali, scegliendo a suo rischio e pericolo le variabili in gioco, senza pretesa di “mettersi nella testa dell’antico” (modo empatetico cognitivo). Si è 303 A. Casarotto, A. De Guio, F. Ferrarese così scelto di fare l’analisi della visibilità di 13 siti dell’età del Bronzo che si trovano sul versante ovest e di 13 siti random anch’essi posizionati sul versante ovest e all’interno dell’area del bacino idrogra�co dell’Alpone (Fig. 9). Il risultato ha confermato l’idea di partenza: i siti archeologici noti hanno un controllo visivo sul territorio maggiore (controllano 5484 ettari) rispetto ai siti campione scelti casualmente (controllano 1594 ettari). 7. Conclusioni Questo progetto GIS si è dimostrato utile soprattutto per la metodologia d’indagine adottata, oltre ad aver prodotto risultati molto confortanti. I tipi di dati a nostra disposizione risultano ancora troppo incompleti per avanzare risposte oggettive ad ipotesi iniziali. Occorrerà incrementare le informazioni e raf�nare le variabili in gioco per dimostrare gli assunti di partenza. Per esempio, in futuri sviluppi, si dovrà cercare di rendere più complessa e più articolata la carta dell’uso del suolo (nel nostro caso di studio abbiamo usato solo i valori che indicano la presenza o l’assenza del bosco), introducendo altri dati riferibili al paleoambiente e al paesaggio antico. Inoltre occorrerà aggiungere altre variabili che indipendentemente dai costi topogra�ci possono condizionare il movimento, come la presenza di elementi apotropaici e di features qualitative del paesaggio. Quello che però è altamente confortante è l’aver osservato in ambiente ArcGIS, tramite il confronto con le carte CAI georeferenziate, come i sentieri calcolati dal GIS (soprattutto quelli che considerano la friction isotropica dell’uso del suolo) molto spesso ripercorrano o si avvicinino a tratti di mulattiere, di strade, di carrarecce o di sentieri CAI effettivamente esistenti. Per esempio, sono stati monitorati due sentieri prodotti dal GIS che tengono in considerazione oltre alla pendenza anche la friction isotropica dell’uso del suolo (Fig. 10): 1) Il sentiero che congiunge il sito archeologico dell’età del Ferro delle Tre Punte di Prealta con il sito archeologico dell’età del Ferro della Purga di Bolca lungo 12.835 m: per i primi 4541 m coincide o si avvicina al sentiero CAI n. 20; per i successivi 1441 m si avvicina e spesso coincide con il sentiero (giallo) segnalato dal CAI; per i successivi 1327 m si avvicina ad una mulattiera (gialla) segnalata dal CAI e inoltre si avvicina al sentiero CAI n. 19; per i successivi 371 m coincide con il sentiero CAI n. 19; per i successivi 695 m si discosta dal sentiero CAI n. 19 di circa 300 m e ripercorre una mulattiera (gialla) segnalata dal CAI; per 2070 m ripercorre pari pari il sentiero CAI n. 19; per gli ultimi 1100 m si discosta dal sentiero CAI n. 19 di soli 250 m circa. 2) Il sentiero che congiunge il sito archeologico dell’età del Ferro della Purga di Bolca con il fondovalle lungo 18.276 m: per i primi 737 m si avvicina al sentiero CAI n. 21, seguendolo parallelamente a 200 m circa; per i successivi 304 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Fig. 10 – I sentieri calcolati dal GIS molto spesso, nel loro andamento, coincidono con quelli del CAI, con mulattiere o strade. 305 A. Casarotto, A. De Guio, F. Ferrarese 1096 m si avvicina o coincide con il sentiero CAI n. 21; per i successivi 2496 m abbandona il sentiero CAI n. 21 e ripercorre una strada asfaltata importante; per i successivi 1297 m si discosta di circa 200 m dalla strada e resta ancora parallelo; per i successivi 3484 m coincide con la strada asfaltata importante già incrociata prima; per i successivi 473 m si discosta dalla strada; per i rimanenti metri coincide con la strada provinciale. È stato prodotto quindi un modello predittivo ripetibile in altri contesti ambientali e, nella Val d’Alpone, si è potuta dare una probabilità di presenza di sentieri, che andrà veri�cata a terra, per vedere se esiste una coincidenza o meno con sentieri reali moderni o antichi. Inoltre, dopo aver applicato la funzione dell’energia metabolica del gra�co dei costi topogra�ci proposto dall’antropologo M. Llobera, si è potuto convalidare maggiormente l’attendibilità dei pro�li topogra�ci ottenuti con il GIS, vista la loro convenienza energetica per il movimento antropico. Si è così potuto provare come lo strumento GIS, oltre ad essere indispensabile per l’archiviazione e l’elaborazione del dato, è utilissimo per lo sviluppo della ricerca stessa. Ad oggi, infatti, per un eventuale progetto di investigazione archeologica su scala territoriale della valle, potrà essere sfruttata la strategia operativa che qui viene proposta, utile perché offre all’archeologo un particolare orizzonte d’attesa: egli saprebbe, cioè, orientarsi su dove veri�care la presenza o meno di sentieri e strade antiche, riducendo così drasticamente i tempi, i costi e l’invasività della ricerca. Anita Casarotto, Armando De Guio Dipartimento di Archeologia Università degli Studi di Padova Francesco Ferrarese Dipartimento di Geogra�a “G. Morandini” Università degli Studi di Padova BIBLIOGRAFIA Capuis L., Leonardi G., Pesavento Mattioli S., Rosada G. (eds.) 1990, Carta archeologica del Veneto, Vol. II, Foglio 49, Modena, Franco Cosimo Panini, 96-99; 117-152. Cocchiarella L. 2006, Paesaggio: sguardo, forma, immagine, in Cocchiarella et al. 2006, 25-40. Cocchiarella L., Giordano A., Zanchetta C. (eds.) 2006, Frames: frammenti di architettura e paesaggio, Padova, Cortina. De Guio A. 1996, Archeologia della complessità e pattern recognition di super�cie, in E. Maragno (ed.), La ricerca archeologica di super�cie in area padana. Atti del Workshop (Villadose 1994), Villadose (RO), Linea ags Edizioni, 275-313. De Guio A. 2000, Power to the people? “Paesaggi di potere” di �ne millennio…, in G. Camassa, A. De Guio, F. Veronese (eds.), Paesaggi di potere, problemi e prospettive. Atti del seminario (Udine 1996), Roma, Quasar, 3-29. 306 ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico Ferrarese F. 2008, I modelli digitali del terreno, Corso di geomatica, Università di Padova, a.a. 2008/09 (presentazione in pdf). Forte M. 2002, I Sistemi Informativi Geogra�ci in archeologia, Roma, Mondo GIS. Gibson E. 2007, Archaeology of movement and interaction in a Mediterranean landscape, «Journal of Mediterranean Archaeology», 20, 1, 61-87. Llobera M. 2000, Understanding movement: a pilot model towards the sociology of movement, in G. Lock (ed.), Beyond the Map. Archaeology and Spatial Technologies, Amsterdam, IOS Press, 65-84. Llobera M., Sluckin T. 2007, Zigzagging: theoretical insights on climbing strategies, «Journal of Theoretical Biology», 249, 206-217. Lock G., Stančič Z. 1995, Archaeology and Geographical Information Systems, London, Taylor & Francis. Minetti A., Moia C., Roi G., Susta D., Ferretti G. 2002, Energy cost of walking and running at extreme uphill and downhill slopes, «Journal of Applied Physiology», 93, 1039-1046. Scheneider K., Robbins P. (eds.) 2007, GIS and Mountain Environments, Explorations in Geographic Information Systems Technology 5, Clark University, Worcester, Unitar (CD-Rom). Vita-Finzi C., Higgs E.S.C. 1970, Prehistoric economy in the Mount Carmel area of Palestine: Site Catchment Analysis, «Proceedings of the Prehistoric Society», 36, 1-37. ABSTRACT This paper proposes a predictive theoretical model of ancient human movement in the Alpone Valley (VR). The aim of this study is to calculate, using GIS tools, the optimal pathways to move from an archaeological site to another considering a series of frictions, like topography or land use, that can affect movement. The reliability of these virtual ancient paths is tested using a mathematical function of metabolic energy created in Visual Basic editor: it facilitates the choice of the best frictions for the model to simulate the archaeological landscape and its possible human perception. The results are compared to verify if there is any correlation between present and past pathways using topographic maps. This GIS methodology is useful for an archaeological survey because it gives a preliminary presence probability of ancient paths in a landscape. 307 Archeologia e Calcolatori 20, 2009, 309-329 UN MODELLO GIS MULTICRITERIO PER LA COSTRUZIONE DI MAPPE DI PLAUSIBILITÀ PER LA LOCALIZZAZIONE DI SITI ARCHEOLOGICI: IL CASO DELLA COSTA TERAMANA 1. Introduzione Il presente lavoro ha lo scopo di fornire un quadro delle dinamiche insediative relative ai siti forti�cati nella provincia teramana, in Abruzzo, con particolare attenzione alla fascia costiera, compresa fra i �umi Tronto e Vomano. Dopo una ricognizione dei siti ancora esistenti, sono state considerate le zone con siti di dubbia localizzazione, ovvero le aree che allo stato attuale non presentano emergenze archeologiche, ma delle quali si trovano indicazioni nelle fonti storiche. Tali informazioni documentali, però, non consentono una esatta localizzazione dei siti, mentre per ognuno di essi è possibile solo individuare uno spazio, più o meno circoscritto, all’interno del quale si può ipotizzare, con una data plausibilità, la presenza di elementi difensivi. Tale plausibilità decresce mano a mano che ci si allontana dalla zona citata nelle fonti, ma non è possibile ricavare dai documenti storici altre informazioni che consentano una maggiore precisione nella localizzazione. Attraverso alcune variabili legate al territorio e alle caratteristiche insediative dei siti esistenti, si possono identi�care, all’interno di un dato raggio di distanza dai punti indagati, delle porzioni molto piccole di territorio con livelli di maggiore o minore plausibilità di presenza dei siti incerti. Le variabili considerate riguardano sia aspetti geo-morfologici, come la distanza dai siti noti, dai �umi e dal mare, che la intervisibilità, ovvero la caratteristica precipua di tali insediamenti che sfruttavano posizioni sopraelevate o comunque con maggiori possibilità di controllo visivo del territorio. La tecnologia GIS consente di tradurre in variabili quantitative tutti questi elementi e di gestire la loro distribuzione territoriale. L’utilizzo di modelli di dati speci�ci (raster), assieme ad apposite tecniche di somma pesata di variabili (combinazione lineare pesata), permette la costruzione di una mappa di plausibilità. All’interno di ciascuna area citata nelle fonti storiche si ottiene una distribuzione di valori che rappresentano la diversa possibilità di presenza degli elementi non più evidenti. Di particolare utilità è risultato anche l’utilizzo di un sistema di ponderazione delle variabili generato da esperti, basato sulla tecnica della comparazione a coppie (Pairwise Comparison), che rientra nell’ambito delle tecniche decisionali multicriterio (Multicriteria Decision Analysis). In questo lavoro, in cui è stato utilizzato il modulo ArcMap di ArcGIS 9.2, parleremo di “siti noti” in riferimento alle torri e alle forti�cazioni che sono ad oggi ancora esistenti, o comunque che presentano delle evidenze 309 S. Di Zio, D. Bernabei strutturali, mentre indicheremo come “siti incerti” gli insediamenti per i quali non si hanno tracce ma che sono riportati nei documenti storici e per i quali si vogliono costruire le mappe di plausibilità. 2. Inquadramento territoriale e dinamiche insediative 2.1 Caratteri �sici della costa teramana Limiti naturali della zona presa in esame sono i �umi Tronto e Vomano, rispettivamente con�ne settentrionale e meridionale, il complesso del Gran Sasso e Monti della Laga, che ne costituisce il limite occidentale e il Mare Adriatico, estremo limite orientale. Il quadro ambientale del versante medioadriatico è caratterizzato da un’alternanza di �le quasi parallele di rilievi montuosi e collinari, i cui livelli altimetrici digradano verso il mare, e di valli �uviali, che si allargano in prossimità della costa. Dunque, ad un’orogra�a caratterizzata in senso longitudinale va a sovrapporsi una rete idrogra�ca con corsi d’acqua trasversali ai rilievi, che dalla catena appenninica scendono al mare con uno schema solitamente de�nito “a pettine”. I maggiori corsi d’acqua nella fascia costiera teramana, procedendo da nord verso sud, sono: il Tronto, che per molti secoli ha segnato il con�ne con le Marche, il Vibrata e il Salinello (secondo alcuni separatisi in epoca storica), il Tordino e il Vomano, estremo limite meridionale della provincia. 2.2 Inquadramento territoriale e toponomastica antica L’attuale provincia teramana costituiva in antico la parte meridionale della Regio V o Picenum unitamente alle Marche (Fig. 1). Questa denominazione deriva dalla ben nota riorganizzazione territoriale augustea, con cui vennero stretti saldamente i rapporti tra le Marche e la provincia teramana, in considerazione delle antiche af�nità che univano Piceni e Pretuzi. L’idrogra�a della zona è stata oggetto di numerosi studi (Buonocore, Firpo 1998) e se per alcuni idronimi l’identi�cazione è stata semplice, per altri c’è ancora disaccordo. Nel noto passo pliniano relativo al territorio piceno i nomi Vomanum, Truentum, Albula e Tessuinum non offrono dif�coltà, in quanto identi�cabili con gli omonimi odierni Vomano, Tronto, Albula e Tesino (gli ultimi due a nord del Tronto). Tra Truentum (attuale Martinsicuro) e Castrum Novum (attuale Giulianova) scorrono oggi i �umi Salinello e Vibrata. Qui i pareri si dividono: alcuni studiosi sostengono l’identi�cazione dei due �umi (separatisi solo recentemente) col Batinus antico (Alfieri 1949), altri ritengono che l’idronimo Batinus sia da riferire all’attuale �ume Tordino (Cerulli 1968). Fra Castrum Novum e Hadria (attuale Atri) scorrono il Tordino e il Vomano; ora, se del Tordino non si conosce de�nitivamente l’idronimo antico, l’identi�cazione del Vomano apre 310 Un modello GIS multicriterio Area del teramano costiero Regione Abruzzo Fig. 1 – Area di indagine: il teramano costiero. Fig. 1 – Area di indagine: il teramano costiero. il campo ad ulteriori discussioni. Un’ipotesi riconosce nel �ume attuale l’antico Matrinus sulla base di ritrovamenti archeologici avvenuti alla foce del Vomano; secondo altri il �ume risulterebbe essere l’antico Comara, descritto nella Tabula Peutingeriana, ipotesi resa possibile dalla varietà delle denominazioni simili assunte in periodi successivi dal Vomano (Alfieri 1949). 2.3 Dinamiche insediative dei presidi militari Nell’ambito di questo studio, ai �ni della de�nizione del modello GIS, concentriamo l’analisi sulle dinamiche insediative dei siti forti�cati, rintracciati attraverso la lettura delle fonti storiche1. Sono stati individuati e indagati diversi siti, con attestazioni a volte risalenti all’Alto Medioevo. La caratteristica orogra�a a pettine della provincia teramana è stata la causa principale del sistema difensivo abruzzese. Gli impianti difensivi cambiano a seconda della loro ubicazione ma, sempli�cando, possiamo dire che risentono di due fattori principali: l’orogra�a e l’idrogra�a (Rongai 1985). Un sistema di castellazione vera e propria si trova nella zona montuosa, la cui struttura edilizia risulta differenziata dall’importanza del centro, dall’asperità del terreno e dalla visibilità del territorio circostante. Scendendo sulle 1 Nel quadro delle fonti utilizzate, fondamentale per lo studio della zona è risultato il Catalogus Baronum (Jamison 1972; Cuozzo 1984), una sorta di catasto feudale in cui sono indicate le terre assegnate e i relativi servizi feudali, compilato fra la �ne del regno di Ruggero II e l’inizio del regno di Guglielmo II, poi trascritto nel XIV secolo nel Registro Angioino n. 242. È costituito da tre parti, delle quali la prima (databile fra il 1150 e il 1168) riguarda la spedizione organizzata per contrastare le minacce al Regno di Sicilia dopo l’alleanza fra Corrado III di Germania e l’imperatore bizantino Alessio Comneno, mentre le altre due la zona della Capitanata (scritte fra il 1175 e il 1240). Fig. 2 – Siti noti e fiumi del teramano costiero. Fig. 3 – Aree relative ai siti incerti. 311 S. Di Zio, D. Bernabei dorsali collinari, la tipologia difensiva predilige riquali�care i piccoli e medi centri, circondandoli di mura e, a volte, dotandoli di torri d’avvistamento, nel periodo in cui più forte si fa il pericolo di minacce esterne. In�ne, troviamo una nutrita schiera di torri costiere ubicate in luoghi strategicamente favorevoli per il controllo diretto del mare, degli sbocchi �uviali e dei centri dell’entroterra. L’uso delle torri lungo la costa, attestato sin dall’antichità (Staffa 2002), rimane durante tutto il periodo medievale caratterizzato dalle periodiche migrazioni dei popoli germanici, dalle incursioni saracene e dalle continue lotte per l’acquisizione del potere da parte delle dominazioni successive. Un’importante opera di riquali�cazione delle strutture costiere fu operata da Svevi e Angioini, a partire dal XV secolo, che ristrutturarono e ricostruirono ex novo torri a difesa delle loro coste (Rongai 1985), dall’architettura facilmente riconoscibile. Le torri sono costruite a forma di tronco di piramide ad un solo piano, con zona superiore chiusa da merlatura con caditoie sorrette da beccatelli, funzionante da piazzola per i mezzi d’artiglieria. Seppure molte delle torri costiere si presentino come costruzioni degli ultimi secoli del periodo medievale, non è azzardato ipotizzare che molte delle stesse insistano su strutture preesistenti, continuandone la funzione difensiva. Va sottolineato che queste torri erano il punto focale del territorio circostante, che, attraverso i borghi murati e turriti, era impegnato a fornire rifornimenti e uomini ai presidi militari in considerazione del numero della popolazione. 3. Raccolta dati e costruzione del database GIS Un modello di dati GIS si basa essenzialmente sull’integrazione di due tipi di informazioni: le informazioni geogra�che e le informazioni descrittive, cioè attributo. Le prime sono legate alla localizzazione geogra�ca degli oggetti del territorio, che si esprime attraverso la misura della latitudine e longitudine dell’elemento considerato. Le informazioni alfanumeriche, invece, prescindono dal posizionamento sulla super�cie terrestre e dalla localizzazione di altri elementi, simili o diversi, presenti sullo stesso territorio e possono riguardare qualunque aspetto quali-quantitativo legato all’oggetto analizzato. Le due tipologie di informazione sono diverse ma integrate, per cui nella modellizzazione degli oggetti del mondo reale non si può prescindere dal considerarle congiuntamente. La parte attributo viene tipicamente organizzata in una tabella a doppia entrata, mentre per la parte geogra�ca si utilizza una carta geogra�ca digitale. I software GIS in genere utilizzano due principali formati di dati geogra�ci noti come vettoriale e raster (in questo studio faremo uso di entrambi i formati) e i dati all’interno del database geogra�co vengono organizzati in strati informativi sovrapponibili, chiamati layer. L’analisi della distribuzione spaziale dei siti noti ha costituito il primo passo per lo studio della zona in esame e, successivamente, per la determinazio312 Un modello GIS multicriterio ne di dati utili alla ricostruzione delle dinamiche insediative dei siti incerti. La costruzione delle variabili per la realizzazione delle mappe di plausibilità non può che partire dall’analisi dei siti noti, dato che le caratteristiche del territorio, assieme alla distribuzione spaziale di torri e forti�cazioni ancora esistenti, forniscono un primo importante elemento per lo studio in questione. Così, attraverso un ricevitore GPS, durante la ricognizione dell’area di studio sono state rilevate le coordinate geogra�che dei siti noti. Partendo da queste è stato possibile costruire uno strato informativo vettoriale (di tipo puntuale) contenente i 26 siti della ricognizione, ovvero un layer di punti che rappresentano il modello dei siti noti (Fig. 2). Il sistema di proiezione utilizzato è l’UTM (Universal Transverse Mercator), zona 33 nord, con riferimento European Datum 1950 (Ellissoide Internazionale 1924). Durante la ricognizione sono state compilate le schede tecniche dei siti, contenenti dati relativi alla toponomastica, alla lettura e all’analisi delle fonti storiche. Ogni parte della scheda tecnica è stata convertita in un attributo della tabella relativa al layer dei siti noti, che accoglie non solo le coordinate geogra�che dei siti, ma anche tutte le informazioni attributo che sono state ricavate in situ o dalle fonti documentali, costituendo di fatto un database geogra�co completo. È nota l’importanza della vicinanza alle fonti di approvvigionamento di acqua per la costruzione delle strutture oggetto di studio, per cui un dato da considerare risulta quello dei principali corsi d’acqua della zona in esame. Partendo da una carta IGM, attraverso una digitalizzazione a video, è stato generato il layer vettoriale lineare relativo ai principali corsi d’acqua. L’analisi dei siti noti evidenzia come, pur trattandosi di una zona costiera, gli insediamenti rilevati si posizionano sulle principali alture, a conferma del fatto che il controllo del territorio imponeva comunque una predilezione per le zone sopraelevate. Così, questi insediamenti si concentrano su fasce parallele che formano le alture che separano le valli scavate dai �umi (Fig. 2). Questo ci porta a considerare un altro importante dato, ovvero quello relativo alla quota del terreno. In tal senso il dato migliore è sicuramente il modello DTM (Digital Terrain Model), cioè un raster che fornisce il dato sulla quota per porzioni quadrate di territorio (pixel). La dimensione dei pixel determina la risoluzione del raster e in questo studio abbiamo utilizzato un DTM con risoluzione 20 metri. Nella classe dei siti incerti, che quindi non presentano evidenze archeologiche, distinguiamo due diverse tipologie: quelli che possono essere spiegati con l’abbandono dell’abitato o con uno sviluppo di un centro maggiore nelle vicinanze e quelli per i quali risulta dif�cile proporre una interpretazione plausibile in tal senso. In questo studio abbiamo focalizzato l’attenzione sulla seconda tipologia di sito e, nel teramano costiero, possiamo annoverare le seguenti cinque aree: 1) Casale S. Benedetto, nella zona di Tortoreto; 2) Colle di S. Donato, compreso nel comune di Tortoreto; 3) Monte Falcone, nel comune di Morro d’Oro; 313 Fig.11––Area Areadidiindagine: indagine:ililteramano teramanocostiero. costiero. Fig. S. Di Zio, D. Bernabei Fig. 2 – Siti noti e �umi del teramano costiero. Fig. Fig.22––Siti Sitinoti notie efiumi fiumidel del Fig. 3 – Aree relative ai siti incerti. Fig. Fig.3 3– –Aree Areerelative relativeaiaisiti siti 4) Casale, da localizzarsi nella frazione di Casal Thaulero, teramano costiero. incerti. teramano costiero. incerti.nel comune di Roseto; 5) Foce del Gomano, nei pressi della foce del �ume Vomano2. Partendo dalla carta IGM sono state individuate tali aree e, al �ne di considerare una suf�ciente porzione di territorio per ognuna di esse, abbiamo considerato un cerchio di 1500 m di raggio, ovvero un’area circolare di circa 7 km2. Tecnicamente è stato creato un apposito layer in formato vettoriale (di tipo areale), costruendo dei cerchi centrati sul relativo toponimo identi�cato sul layer IGM (Fig. 3). Per ogni località, la porzione di territorio che cade dentro il relativo cerchio costituisce l’area dove concentrare l’analisi, ovvero la zona sulla quale vogliamo costruire la mappa di plausibilità. 4. Approccio multicriterio I metodi di Analisi Multicriterio (MCA-Multi Criteria Analysis) si utilizzano quando, di fronte a un problema decisionale, si ha la necessità di 2 In riferimento alla Foce del Gomano, facciamo notare che si tratta di una tipologia leggermente diversa dalle altre, essendo riconducibile a un punto che si rapporta alle dinamiche degli insediamenti portuali e non delle torri o forti�cazioni. 314 Un modello GIS multicriterio dover scegliere tra più soluzioni alternative oppure quando bisogna creare un ordinamento di importanza tra tutte le alternative possibili (Malczewski 1999). In questo ultimo caso l’ordinamento deve basarsi su criteri ben de�niti, che le alternative devono rispettare. Nel nostro caso vogliamo creare un ordinamento fra i pixel di territorio (le nostre alternative), in base ad una scala di plausibilità di presenza del sito incerto. Il solo dato delle fonti non è suf�ciente per costruire una mappa di plausibilità, ed è per questo che risulta utile integrare queste informazioni, di tipo storico, con tutte le altre che sono state rilevate sul campo o che derivano da analisi spaziali, con un approccio multicriterio. Una volta creato il database geogra�co, infatti, è possibile sfruttare una enorme quantità di dati che risultano utili ai �ni del nostro studio. Il GIS fornisce un modello organico per razionalizzare e gestire i dati disponibili ma, cosa ancora più importante, offre delle funzionalità di analisi spaziale che creano informazioni nuove, non desumibili dalle fonti e non rilevabili sul campo. L’integrazione delle informazioni storiche, dei dati rilevati e dei risultati delle analisi spaziali fornisce nuove variabili che costituiscono la base per il calcolo delle mappe di plausibilità. In un’ottica “multicriteriale spaziale” si tratta di costruire un modello per la generazione di una mappa di plausibilità, che tenga conto di tutte le variabili che sono legate alle dinamiche insediative dei siti analizzati. Ogni variabile tecnicamente costituisce una mappa (criterion map) e l’uso di tecniche di sovrapposizione (overlay) consente di integrare le variabili attraverso l’impiego di un opportuno sistema di pesi, che in genere sono forniti da uno o più esperti. Le alternative sono di tipo spaziale e rappresentano singole porzioni di territorio (ad es. celle quadrate di 20 m di lato) su cui le variabili assumono un dato valore. L’alternativa, quindi, è un luogo ben de�nito dove si andrà a calcolare un valore di plausibilità per la presenza dei siti incerti. Ogni variabile all’interno di ogni alternativa verrà pesata e il valore di plausibilità �nale terrà conto sia del valore “oggettivo” risultante da ogni variabile, che di quello “soggettivo” relativo al peso attribuito ad esso dall’esperto. Quindi, in questo lavoro seguiamo un modello che integra informazioni di tipo quantitativo, desumibili dalle analisi spaziali, e informazioni di tipo soggettivo, che intervengono nella de�nizione dei pesi da assegnare alle variabili. 5. Le variabili dell’Analisi Multicriterio 5.1 Analisi di intervisibilità È noto che l’aspetto di visibilità di un luogo è stato per molto tempo un elemento fondamentale nella scelta dei luoghi per l’impianto di un insedia315 S. Di Zio, D. Bernabei Fig. 4 – Siti noti e aree di intervisibilità (X1). Fig. 4 – Siti noti e aree di intervisibilità (X1). mento urbano (Pecere 2006) e, nel caso dei siti forti�cati, che prevedevano un controllo del territorio a scopo difensivo, tale aspetto diventa fondamentale. L’analisi di intervisibilità fa parte di una categoria più generale di analisi GIS nota come viewshed analysis. Questa comprende sia lo studio del campo di osservazione di un individuo che si trova in un determinato punto del territorio (analisi del campo visivo), che le relazioni di visibilità fra un certo numero di siti (analisi di intervisibilità). Nel primo caso si determinano le zone di territorio visibili da un uomo che si trova, ad esempio, su un’altura, mentre nel secondo caso si parte da un insieme di punti, ad esempio delle torri, e si calcolano le porzioni di territorio che sono visibili dal complesso di tali punti. In entrambi i casi si parte da un modello digitale del terreno (DEM o DTM) per generare una griglia in cui ogni cella reca un numero che indica la presenza o meno di visibilità a partire dai punti di osservazione prescelti (Forte 2002). Nei software GIS è possibile �ssare una serie di parametri come l’altezza dell’osservatore, il raggio di osservazione, che in genere si aggira intorno ai 18 km, e l’angolo di osservazione, che normalmente viene posto a 360° cioè tutte le direzioni possibili. Dalle caratteristiche morfologiche del 316 Fig. 5 – Distribuzione dei siti rispetto all’esposizione. Un modello GIS multicriterio territorio desunte dal DTM, il GIS genera una mappa raster di tipo dicotomico, cioè con soli due possibili valori: 1 indica una cella di territorio visibile, 0 indica una cella non visibile. Si noti che la intervisibilità, o reciproca visibilità, viene in molti casi sottovalutata, ma nell’analisi archeologica questo fattore è importante per lo studio dei sistemi difensivi che, oltre alla funzione militare, avevano uno scopo “propagandistico”, quindi dovevano essere facilmente visibili dalle zone circostanti (Rongai 1985). L’analisi di intervisibilità fra i siti noti viene dunque utilizzata al �ne di ricavare elementi utili per la determinazione dei siti incerti. La de�nizione delle aree di reciproca visibilità fra i siti noti offre indicazioni molto importanti sulla possibile localizzazione degli insediamenti che, insistendo sullo stesso territorio, dovevano essere necessariamente in rapporto di visibilità con gli altri siti tuttora esistenti. Partendo da un DEM abbiamo calcolato una mappa di intervisibilità (Fig. 4), con pixel quadrati di lato 20 m, considerando la rete di punti costituita dai siti noti: nell’ambito del nostro modello, chiameremo questa variabile X1. Per tutte le variabili utilizzeremo un sistema di punteggi standard, che vanno da minimo 0 a massimo 10. Per quanto riguarda l’intervisibilità, possiamo assegnare punteggio massimo, cioè 10, alle zone visibili e punteggio molto basso, ovvero 1, ai pixel non visibili. 5.2 La costa Una delle funzionalità GIS che permette la creazione di valore aggiunto ai dati esistenti è quella relativa alla creazione di aree di rispetto, o buffer. Si tratta di aree che si estendono attorno ad una primitiva geometrica vettoriale (area, linea o punto) in modo che tutti i punti del territorio che si trovano ad una distanza inferiore a un certo raggio dalla primitiva fanno parte del buffer stesso. Con i buffer multipli si creano aree adiacenti con valori di distanza che possono anche essere variabili. Data l’importanza che la linea di costa rappresenta in questo tipo di analisi, il primo elemento da considerare è la distribuzione spaziale dei siti noti in relazione alla distanza dalla costa. Generando un buffer multiplo che parte dalla linea di costa e si estende verso l’interno è possibile calcolare quanti siti noti ricadono all’interno di ogni fascia di distanza. Abbiamo scelto una distanza fra i vari anelli di 2 km, generando un buffer multiplo con 6 zone (2, 4, 6, 8, 10 e 12 km dal mare). La distribuzione dei siti noti in relazione alla distanza dalla costa risulta la seguente: 2 siti da 0 a 2 km dalla costa; 5 siti da 0 a 4 km; 8 siti da 0 a 6 km; 13 siti da 0 a 8 km; 17 siti da 0 a 10 km e 25 siti �no a 12 km dalla costa. Quindi, circa il 30% dei siti si colloca a meno di 6 km dalla costa e il 50% di essi si trova a una distanza compresa entro 8 km dal mare. Partendo dal presupposto che lo studio concerne la ricerca di cinque siti vicinissimi al 317 S. Di Zio, D. Bernabei Zona Distanza dalla costa Punteggio 1 da 0 a 2 Km 10 2 da 2 a 4 Km 8 3 da 4 a 6 Km 6 4 da 6 a 8 Km 4 5 da 8 a 10 Km 2 6 da 10 a 12 Km 0 Tab. 1 – Punteggi della variabile costa (X2). Zona 1 2 3 4 5 6 7 Distanza dai fiumi Punteggio da 0 a 1000 m 2 da 1000 a 1500 m 4 da 1500 a 2000 m 10 da 2000 a 2500 m 8 da 2500 a 3000 m 7 da 3000 a 4000 m 5 da 4000 a 5000 m 2 Tab. 2 – Punteggi della variabile �umi (X3). mare, è logico assegnare dei punteggi di plausibilità decrescenti, da un massimo di 10 a un minimo di 0, mano a mano che ci si allontana dalla costa. Così ad ogni anello del buffer multiplo abbiamo assegnato, rispettivamente, i punteggi riportati nella Tabella 1. A questo punto abbiamo per ogni porzione di territorio un valore che indica la maggiore o minore plausibilità di esistenza di un sito incerto; chiamiamo X2 questa variabile relativa alla distanza dal mare. 5.3 I corsi d’acqua Un altro elemento da considerare è legato all’approvvigionamento di acqua, quindi possiamo costruire una variabile legata alla distanza dai �umi. Partendo dalla distribuzione delle distanze dei siti noti dai corsi d’acqua si evince che solo 3 siti si trovano a meno di 1000 m dal �ume più vicino mentre 13 siti (pari al 50% di tutti i siti noti) si trovano a meno di 2000 m. Se consideriamo una fascia di 4000 m dai �umi allora si arriva a 23 siti, pari all’88% di tutti quelli analizzati. Molto vicino ai �umi troviamo pochi siti, perché comunque la necessità di stare vicino ai corsi d’acqua doveva essere contemperata con la diversa e contrapposta esigenza di posizionarsi sulle alture per scopi difensivi e di controllo del territorio. Infatti, la maggior parte dei siti, esattamente il 54%, si colloca in una fascia intermedia che va da 1500 a 3000 m di distanza dai �umi. Quindi, considerando la distribuzione dei siti noti in relazione alla distanza dai �umi abbiamo costruito un buffer multiplo con sette anelli, ai quali sono stati assegnati i punteggi riportati nella Tabella 2. Si noti che le distanze calcolate con il sistema dei buffer sono distanze in linea retta, mentre per un’analisi più approfondita si dovrebbe tener conto della morfologia del territorio. Comunque, dato che la zona considerata è di tipo collinare, le distanze in linea retta sono una buona approssimazione della distanza reale fra due punti del territorio. Indichiamo con X3 la variabile relativa alla distanza dai �umi. 318 Un modello GIS multicriterio Zona 1 2 3 4 5 6 7 8 Distanza dai siti noti da 0 a 500 m da 500 a 1000 m da 1000 a 1500 m da 1500 a 2000 m da 2000 a 2500 m da 2500 a 3000 m da 3000 a 4000 m da 4000 a 6000 m Punteggio 2 5 8 10 9 7 5 2 Tab. 3 – Punteggi della variabile distanza dai siti noti (X4). 5.4 I siti noti e la distanza dal prossimo vicino Passando all’analisi dei siti noti e di come questi possano darci informazioni per la localizzazione di quelli incerti, come primo elemento di elaborazione, ai �ni di una esplorazione della loro distribuzione spaziale, abbiamo calcolato un indicatore di sintesi e uno di variabilità. La distanza media fra i 26 siti è di 10.530 m, mentre la deviazione standard è pari a 5610 m. Ma, ai �ni del nostro studio, è più importante considerare la distanza fra un sito e quelli immediatamente circostanti. Così, se calcoliamo la distanza di ogni sito con il suo “vicino più prossimo”, risulta che i due siti più vicini si trovano a 217 m di distanza, mentre il sito più isolato si trova ad appena 5021 m da quello ad esso più prossimo. In media la distanza tra un sito e il suo prossimo vicino è di 2090 m con una deviazione standard di 1198 m. Questo ci porta a considerare la fascia intorno a 2 km di distanza da ogni sito come quella con maggiore probabilità di contenere un sito vicino (esattamente, fra 1 e 3 km troviamo 17 siti, pari al 65% del totale). Quindi, dato un sito noto, possiamo dire che �no a 1 km e oltre 3 km di distanza da esso c’è una minore probabilità di incontrare un prossimo vicino, mentre nella fascia di distanza compresa fra 1 e 3 km la probabilità è maggiore, con un massimo fra 1,5 e 2 km. Se consideriamo un buffer multiplo con raggio di 500 m, possiamo proporre, sempre con valori da 0 a 10, il sistema di punteggi riportato in Tabella 3. Indichiamo con X4 la variabile relativa alla distanza dai siti noti. 5.5 La pendenza del suolo Un ulteriore elemento da considerare nella localizzazione dei siti in analisi è quello relativo alla pendenza del terreno. Partendo dal DTM è possibile calcolare la pendenza in celle di 20 m di lato. Anche per questa variabile partiamo dall’analisi statistica descrittiva dei valori di pendenza dei siti noti, cioè esploriamo la distribuzione delle pendenze relative alle aree dove si collocano i siti rilevati. È interessante notare che il 50% di essi (ovvero 13 siti) 319 S. Di Zio, D. Bernabei Zona 1 2 3 4 5 Pendenza (in %) da 0 a 5 da 5 a 10 da 10 a 20 da 20 a 30 oltre 30 Punteggio 10 6 3 1 0 Tab. 4 – Punteggi della variabile pendenza (X5). si colloca su aree con pendenza inferiore al 5%, quindi praticamente pianeggianti, mentre altri 8 siti si trovano su una pendenza fra il 5% e il 10%. Fra i rimanenti, 4 si trovano su una pendenza compresa nella fascia 10%-20% e solo 1 è posizionato su un terreno con pendenza di poco inferiore al 30%. Si noti, per inciso, che nell’area studiata ci sono pendenze che raggiungono anche il 90%. Dunque, è necessario considerare questa variabile, costruendo una scala di punteggi inversamente proporzionale alla pendenza del suolo, ovvero con valori alti in corrispondenza di pendenze basse e viceversa. Indichiamo con X5 la variabile pendenza e, tenendo conto della distribuzione dei valori di pendenza dei siti noti, abbiamo la graduatoria di punteggi riportata in Tabella 4. 5.6 L’esposizione Passiamo ora a descrivere un diverso aspetto legato alla collocazione dei siti noti: la loro esposizione. Sempre partendo dal DTM abbiamo calcolato una mappa di esposizione e, in analogia a quanto fatto per le altre variabili, abbiamo costruito una distribuzione statistica dei siti noti rispetto alla variabile esposizione. Questa, in genere, è indicata con un angolo che varia da 0 a 360°, ma ai �ni della costruzione della distribuzione risulta utile raggruppare i valori in 8 classi che rappresentano le direzioni dei punti cardinali: est, sud-est, sud, sud-ovest, ovest, nord-ovest, nord e nord-est, più una ulteriore classe che accoglie le parti di terreno pianeggiante, che perciò non hanno una esposizione ben de�nita. Dalla sovrapposizione fra il raster dell’esposizione e il layer dei siti noti si evincono i seguenti valori: 1 sito esposto a ovest, 4 siti a sud-ovest, 7 a sud, 3 a sud-est, 5 ad est, 5 a nord-est e 1 si trova su terreno pianeggiante. Ciò signi�ca che ben il 73% dei siti è collocato su terreni esposti tra sud-ovest ed est. Inoltre, la presenza di molti siti esposti ad est e ben 5 con esposizione nordest si spiega con il fatto che il mare si trova proprio in direzione est/nord-est quindi, evidentemente, tali posizioni sono rivolte verso il controllo della costa. Inoltre, se osserviamo più in dettaglio i siti esposti a nord-est troviamo che sono siti molto vicini alla costa (Montepagano, Cologna, Tortoreto e Mosciano S. Angelo), a conferma di quanto detto. Una rappresentazione gra�ca della 320 Fig. 4 – Siti noti e aree di intervisibilità (X1). Un modello GIS multicriterio Esposizione Punteggio Nessuna 1 N 0 N-O 0 O 1 S-O 4 S 8 S-E 9 E 10 N-E 9 Fig. 5 – Distribuzione dei siti Tab. 5 – Punteggi della varispetto all’esposizione. Fig. 5 – Distribuzione dei siti rispetto all’esposizione. riabile esposizione (X6). distribuzione è presente nella Fig. 5, che riporta un gra�co polare con i raggi posizionati lungo i punti cardinali e la lunghezza di ogni raggio rappresenta il numero di siti esposti in quella direzione. Da quanto detto, e ricordando ancora una volta che stiamo costruendo un valore di plausibilità per siti incerti che si trovano molto vicini al mare, è opportuno �ssare dei punteggi molto alti per le esposizioni che vanno da sud ad est, con valore massimo alla direzione est, con un valore abbastanza alto anche ai terreni esposti a nord-est. Per cui è ragionevole ricavare un sistema di punteggi come in Tabella 5: indichiamo con X6 la variabile esposizione. 5.7 Le fonti storiche Come ultima variabile dobbiamo tenere conto delle informazioni derivanti dai documenti storici, che indicano delle aree dove i siti non più evidenti dovrebbero trovarsi. Come detto nel § 3, sono 5 ipotetici punti su cui abbiamo costruito dei cerchi di raggio 1500 m. In analogia a quanto fatto per le altre variabili, possiamo considerare queste informazioni come una ulteriore variabile (X7) da inserire nell’analisi. Se da un lato non si conosce l’esatta localizzazione del sito incerto all’interno dell’area circolare, è anche vero che mano a mano che ci si allontana dal centro del cerchio la probabilità di trovare il sito diminuisce proporzionalmente. Questo ci porta a de�nire dei buffer multipli, con fasce di raggio molto stretto in modo da poter assegnare dei punteggi decrescenti a piccole variazioni di distanza. In pratica, possiamo �ssare un raggio di 250 m e con 6 anelli si copre l’intero cerchio. Il sistema di punteggi usato è quello indicato nella Tabella 6. A chiusura di questo paragrafo riportiamo un prospetto (Tabella 7) con i principali dati sui siti noti, che sono serviti per la costruzione delle distribuzioni di frequenza necessarie per la derivazione delle variabili. Si noti che per i �umi e la costa sono state riportate le fasce di appartenenza e non la distanza reale. 321 S. Di Zio, D. Bernabei Zona 1 2 3 4 5 6 Distanza dal centro del buffer da 0 a 250 m da 250 a 500 m da 500 a 750 m da 750 a 1000 m da 1000 a 1250 m da 1250 a 1500 m Punteggio 10 8 6 4 2 1 Tab. 6 – Punteggi della variabile fonti storiche (X7). dI Id Comune appartenenza 1 Notaresco 2 Montepagano 3 Giulianova 4 Ripattoni 5 Bellante 6 Tortoreto 7 Poggio Morello 8 Sant’Omero 9 Nereto 10 Corropoli 11 Controguerra 12 Colonnella 13 Guardia Vomano 14 Morro d’Oro 15 Capo di Ripa 16 Cologna 17 Villa Torre 18 Colle Izzano 19 Selva Alta 20 Peticciano 21 Mosciano S. A. 22 Colle Pietro 23 Montecchio 24 Colle Troia 25 Montone 26 Martinsicuro dai Distanza dal Quota IGM Pendenza Esposizione Distanza fiumi mare 251 2.53 N-E 4.0 12 301 2.58 N-E 4.5 4 25 0.72 FLAT 1.0 2 217 7.21 E 2.0 12 355 5.19 S 3.0 14 239 3.07 N-E 2.5 4 151 1.43 S 1.5 8 202 1.60 S-E 2.0 12 180 5.19 E 2.0 10 136 23.52 E 2.5 8 264 7.61 S-E 2.0 10 303 19.97 S 1.5 6 157 5.15 S-E 2.0 12 205 3.07 S-O 4.5 8 251 2.58 S-O 3.0 10 219 9.09 N-E 2.0 6 205 2.86 S 1.0 12 251 4.04 S-O 3.0 12 228 1.43 E 3.0 12 202 2.86 O 4.0 8 214 2.02 N-E 4.0 8 227 6.05 S-O 4.5 10 207 5.37 S 3.0 6 182 18.79 S 1.5 12 220 15.68 S 2.0 4 39 15.35 E 1.0 2 Distanza dal vicino prossimo 2.168 3.304 5.021 1.099 1.611 4.157 0.999 3.444 1.891 1.891 0.999 3.253 2.168 0.998 2.181 3.304 2.989 0.998 1.593 0.217 0.217 1.811 1.042 1.611 2.12 3.253 Tab. 7 – Dati relativi ai siti noti. 6. Il modello di integrazione dei dati tramite l’uso della Map Algebra Ricapitolando, le variabili analizzate nei paragra� precedenti, che riteniamo possano fornire indicazioni sulla localizzazione dei siti incerti, sono le seguenti: X1: intervisibilità; X2: distanza dal mare; X3: distanza dai �umi; X4: distanza dai siti noti; X5: pendenza del suolo; X6: esposizione; X7: distanza dai siti incerti. 322 Un modello GIS multicriterio Per l’applicazione della tecnica della Map Algebra è necessario che tutte le variabili siano in formato raster. Mentre le variabili X1, X5 e X6 sono già per costruzione in questo formato, le altre variabili derivate dalla generazione dei buffer devono essere convertite in raster. Dopo tale conversione, tutti e sette i raster sono stati riclassi�cati, nel senso che sono stati attribuiti ai pixel i valori corrispondenti ai punteggi de�niti nei paragra� precedenti, secondo i criteri volta per volta illustrati. In tal modo otteniamo sette raster con valori che variano lungo la stessa scala, da 0 a 10. Mentre nella Fig. 4 abbiamo la variabile X1, nella Fig. 6 riportiamo le mappe raster delle variabili da X2 a X7. Tutte le variabili considerate assumono valori diversi per ogni pixel, cioè per ogni singola cella di territorio. Nella costruzione della mappa �nale di plausibilità bisogna considerare per ogni cella un solo valore che deriva dai diversi raster, ovvero si deve utilizzare un modello che sintetizzi in un unico valore (rispetto ad un singolo pixel) i sette valori delle corrispondenti celle di ogni variabile. Con la tecnica della Map Algebra è possibile integrare i valori di tali variabili, per ogni singolo pixel del territorio, in modo da ottenere un unico raster, che rappresenta una mappa di plausibilità di presenza dei siti non più visibili. L’integrazione dei raster può avvenire tramite varie tecniche, ma la più utilizzata in questi casi è sicuramente la combinazione lineare pesata o WLC (Weighted Linear Combination) il cui modello è il seguente: n Pi � � w j xij j �1 dove n = 7 è il numero delle variabili in input, i è l’indice del pixel, xij indica il valore che la variabile j-esima assume nel pixel i-esimo, Pi il risultante valore di plausibilità nel pixel i-esimo e wj sono i pesi della combinazione lineare, normalizzati in modo che la somma sia pari a 1. Nel linguaggio della Map Algebra questa tecnica rientra nella classe degli operatori locali. Se i pesi sono tutti uguali a 1, allora il punteggio �nale Pi sarà dato dalla semplice somma dei punteggi di ogni variabile, ma in genere pesi diversi�cati sono necessari perché le variabili considerate non possono contribuire tutte allo stesso modo nel fornire la plausibilità �nale, cioè nel dare informazioni per la ricerca di un sito incerto. I pesi di norma vengono assegnati da uno o più esperti, con l’unica condizione che devono avere somma unitaria. 7. La tecnica PAIRWISE COMPARISON e la mappa finale di plausibilità Esistono numerose tecniche per assegnare dei pesi ad una combinazione lineare di variabili e, in genere, se si tiene conto del giudizio di esperti tali pesi ri�ettono l’importanza che l’esperto (o gli esperti) attribuisce ad ogni variabile. 323 S. Di Zio, D. Bernabei X2 (distanze dal mare) X3 (distanze dai fiumi) X4 (distanza dai siti noti) X5 (pendenza) X6 (esposizione) X7 (buffer sui siti incerti) Fig. 6 – Mappe raster delle variabili da X2 a X7 con relativi punteggi . Fig. 6 – Mappe raster delle variabili da X2 a X7 con relativi punteggi . La tecnica più semplice è quella del ranking, che si basa sulla creazione di un ordinamento delle variabili da parte dell’esperto e, de�nito l’ordinamento, è possibile derivare in vari modi i pesi. Un’altra tecnica consiste nell’assegnare dei valori di importanza all’interno di una scala prede�nita (rating). Ad esempio, si possono dare valori da 0 a 100 così che se una variabile riceve valore 30 avrà peso 0,3. Il problema delle tecniche precedenti è che quando le variabili sono molte è dif�cile creare un ordinamento tenendo conto di tutte contemporaneamente. Sarebbe invece più semplice per un esperto, date due sole variabili, stabilire quale risulta essere più importante, ed è da questa intuizione che 324 Un modello GIS multicriterio Saaty (1980) ha messo a punto la tecnica del confronto a coppie (pairwise comparison), nell’ambito dell’analytic hierarchy process (Malczewski 1999). La pairwise comparison rientra nelle tecniche di analisi multicriterio e si basa su una scala di punteggi, da 1 a 9, che esprimono l’importanza relativa della prima variabile rispetto alla seconda (Tab. 8). Per fare i confronti di tutte le possibili coppie di variabili i punteggi vengono organizzati in una tabella a doppia entrata (Tab. 9). Per capire come si passa dalla matrice dei confronti a coppie al calcolo dei pesi facciamo un esempio, utilizzando le 7 variabili della nostra applicazione. La matrice che l’esperto deve compilare avrà 7 righe e 7 colonne, ma dato che si escludono i confronti di ogni variabile con se stessa (perché sono sempre uguali a 1) e dato che il confronto fra A e B è reciproco al confronto fra B e A, in totale dovranno essere assegnati solamente n(n-1)/2 elementi: nel nostro caso 21 valori. Tali valori prendono il nome di coef�cienti di dominanza. Sulla base dello studio fatto, proponiamo i coef�cienti riportati nella Tabella 93. Le matrici come questa sono sempre de�nite positive, ovvero ogni elemento è maggiore di zero (mij>0) e, per costruzione, soddisfano la reciprocità, vale a dire mij=1/mji. Il problema è che non è rispettata a pieno la proprietà della consistenza, che dipende dal sistema di preferenze date dall’esperto. La consistenza deriva essenzialmente dalla proprietà transitiva: mik=mij mjk. Quando la matrice dei confronti a coppie è consistente, le colonne sono tutte proporzionali, per cui il rango della matrice è uno. Dunque si ha un solo autovalore diverso da zero e la traccia della matrice risulta uguale alla somma degli autovalori, vale a dire al numero delle righe. Da questo consegue che il vettore dei pesi si ottiene calcolando l’autovettore associato all’autovalore massimo e normalizzandolo a somma uno. In ogni caso, se l’errore di consistenza è abbastanza piccolo, l’autovettore principale normalizzato fornisce una buona stima per il vettore dei pesi. Per valutare la consistenza della matrice dei confronti a coppie, si possono calcolare l’indice di consistenza (IC) e il rapporto di consistenza (RC): IC � �max � n n �1 , RC � IC RI 3 Ad esempio, il valore 6 nella seconda cella della prima riga signi�ca che la variabile intervisibilità (X1) è considerata “da molto a fortemente più importante” rispetto alla distanza dal mare (X2). Oppure, l’ultimo valore della seconda riga – 1/7 – signi�ca che la distanza dai siti incerti (X7) è ritenuta “fortemente più importante” della distanza dal mare (X2). 325 S. Di Zio, D. Bernabei Intensità 1 2 3 4 5 6 7 8 9 Definizione Uguale importanza Da uguale a moderatamente più importante Moderatamente più importante Da moderatamente a molto più importante Molto più importante Da molto a fortemente più importante Fortemente più importante Da fortemente a estremamente più importante Estremamente più importante Tab. 8 – Scala di Saaty. Variabili X1 X2 X3 X4 X5 X6 X7 X1 1 1/6 ¼ 1/3 1/8 1/6 1 X2 6 1 2 2 1/4 1/3 7 X3 4 1/2 1 1 1/7 1/3 3 X4 3 1/2 1 1 1/8 1/6 3 X5 8 4 7 8 1 3 8 X6 6 3 3 6 1/3 1 6 X7 1 1/7 1/3 1/3 1/8 1/6 1 Tab. 9 – Matrice dei coef�cienti di dominanza. X1 X2 X3 X4 X5 X6 X7 0.3131 0.0674 0.1141 0.1368 0.0221 0.0397 0.3068 Tab. 10 – Vettore normalizzato dei pesi. dove lmax è l’autovalore massimo, n è la dimensione della matrice e RI (Random Index) è la media degli indici di consistenza calcolati su un numero elevato di matrici casuali quadrate di dimensione n. Per una matrice perfettamente consistente si ha IC=0, ma in genere un valore del rapporto di consistenza inferiore a 0.10 è considerato accettabile. Nel nostro caso abbiamo ottenuto dei buoni indici, IC=0.0612 e RC=0.0488, che ci permettono quindi di applicare il metodo dell’autovettore. L’autovalore massimo associato alla matrice dei confronti a coppie è lmax=7.3674, a cui corrisponde il vettore normalizzato di pesi della Tabella 10. La somma dei punteggi, moltiplicata per i rispettivi pesi, fornisce un valore �nale di plausibilità (P) per ogni pixel di territorio, secondo il modello seguente: 326 X5 (pendenza) X6 (esposizione) X7 (buffer sui siti incerti) Un modello GIS multicriterio Fig. 6 – Mappe raster delle variabili da X2 a X7 con relativi punteggi . Fig. 7 – per Mappe disiti plausibilità Fig. 7 – Mappe di plausibilità i cinque incerti. per i cinque siti incerti. Quindi, la mappa �nale avrà valori diversi di possibilità di esistenza di siti archeologici di dubbia localizzazione. Tale mappa si può rappresentare con una scala di colori, dal più scuro (maggiore plausibilità di presenza di un sito) al più chiaro (minore plausibilità di presenza di un sito). I risultati sono esposti in Fig. 7, in cui per comodità sono state raf�gurate separatamente la zona nord, contenente Casale S. Benedetto e Colle S. Donato, la zona sud, con Monte Falcone e Casale, e il sito di Foce del Gomano. Anche se in questa applicazione abbiamo descritto il caso in cui un singolo esperto assegna un vettore di pesi (di dimensione 1*n) alle variabili, bisogna precisare che nell’ambito dell’analisi multicriterio è possibile altresì utilizzare un gruppo di esperti. In tal caso si possono seguire due strade (Malczewski 1999): o si apre un focus group per arrivare ad un accordo sui pesi da assegnare alle variabili (quindi si torna al caso di un singolo vettore di pesi) oppure ogni esperto fornirà un vettore di pesi diverso per cui, alla �ne, si avrà una matrice di pesi (con k esperti tale matrice ha di dimensione k*n). Se poi si possono attribuire dei pesi di importanza anche agli esperti, con un ulteriore prodotto fra la matrice �nale dei punteggi e il vettore dei pesi riferito agli esperti si ottiene la mappa �nale, con un unico valore per ogni pixel. 327 S. Di Zio, D. Bernabei 8. Conclusioni e sviluppi futuri Le analisi spaziali utilizzate per la costruzione delle variabili inserite nell’analisi multicriterio devono essere viste come un importante momento esplorativo �nalizzato allo studio del territorio, a prescindere dalla costruzione della mappa di plausibilità qui proposta. Il caricamento dei dati su un database geogra�co offre la possibilità di estrarre informazioni che con la sola ricognizione non sono rilevabili, come ad esempio l’intervisibilità o lo studio delle varie distanze. Ciò premesso, l’uso di modelli multicriterio sembra essere un interessante strumento per sintetizzare tutti i dati raccolti ed elaborati. Nell’ottica dei problemi decisionali, abbiamo utilizzato le tecniche di de�nizione dei pesi che scaturiscono da giudizi di esperti, in modo da aggiungere un elemento soggettivo ai dati oggettivi scaturiti dalle elaborazioni. Ovviamente l’aspetto quali-quantitativo di questo approccio non si sostituisce ma integra l’approccio tradizionale alle fonti storiche, e vuole essere solo un supporto allo studio topogra�co e non un’alternativa ai metodi tradizionali di analisi. Inoltre, la costruzione di una mappa di plausibilità diventa un valido esercizio per testare il modello proposto ma, allo stesso tempo, riteniamo sia un utile supporto per ulteriori studi e approfondimenti nell’ambito della ricerca dei siti ad oggi non localizzabili. In�ne, bisogna considerare che nel modello proposto è stata utilizzata una matrice di pesi unica per tutti i siti indagati, ma a un livello di analisi maggiore si può proporre una matrice di pesi separata per ogni sito incerto, in modo da dare diversa importanza alle variabili a seconda della localizzazione e delle caratteristiche del sito da studiare. Ad esempio, per quanto riguarda il caso della Foce del Gomano (che sembra avere proprietà portuali piuttosto che difensive) sarebbe utile applicare un modello a parte, con un sistema di pesi differente che tenga conto delle diverse caratteristiche di tale tipologia di sito. Simone Di Zio Dipartimento di Metodi Quantitativi e Teoria Economica Università “G. d’Annunzio” – Chieti-Pescara Dora Bernabei BIBLIOGRAFIA Alfieri N. 1949, I �umi adriatici delle regioni augustee V e VI, «Athenaeum», 37, 122-141. Anselin L. 1999, Interactive techniques and exploratory spatial data analysis, in P.A. Longley, M.F. Goodchild, D.J. Maguire, D.W. Rhind (eds.), Geographical Information System, New York, John Wiley, 253-266. Bevan A., Frederick C., Krahtopoulou A. 2003, A digital Mediterranean countryside: GIS approaches to the spatial structure of the post-medieval landscape on Kythera (Greece), «Archeologia e Calcolatori», 14, 217-236. 328 Un modello GIS multicriterio Buonocore M., Firpo G. 1998, Fonti latine e greche per la storia dell’Abruzzo antico, in Documenti per la storia dell’Abruzzo, Deputazione Abruzzese di Storia Patria, Vol. II, L’Aquila. Cerulli R. 1968, Giulianova 1860, Teramo, Abruzzo Oggi. Chakhar S., Martel J.M. 2003, Enhancing Geographical Information Systems capabilities with multi-criteria evaluation functions, «Journal of Geographic Information and Decision Analysis», 7, 2, 47-71. Cuozzo E. (ed.) 1984, Catalogus Baronum, Commentario, Fonti per la Storia d’Italia 101**, Roma, Istituto storico italiano per il Medio Evo. Eldrandaly K., Eldin N., Sui D. 2003, A COM-based spatial decision support system for industrial site selection, «Journal of Geographic Information and Decision Analysis», 7, 2, 72-92. Forte M. 2002, I Sistemi Informativi Geogra�ci in archeologia, Roma, Mondo GIS. Getis A., Ord J.K. 1992, The analysis of spatial association by use of distance statistics, «Geographical Analysis», 24, 189-206. Jamison E. (ed.) 1972, Catalogus Baronum, Fonti per la Storia d’Italia 101, Roma, Istituto storico italiano per il Medio Evo. Joerin F., Musy A. 2000, Land management with GIS and Multicriteria Analysis, «International Transactions in Operational Research», 7, 67-78. Laaribi A., Chevallier J.J., Martel J.M. 1996, A spatial decision aid: a multicriterion evaluation approach, «Computational, Environmental and Urban Systems», 20, 6, 351-366. Malczewski J. 1999, GIS and Multicriteria Decision Analysis, New York, John Wiley. O’sullivan D., Unwin D.J. 2003, Geographic Information Analysis, New York, John Wiley. Pecere B. 2006, Viewshed e Cost Surface Analyses per uno studio dei sistemi insediativi antichi: il caso della Daunia tra X e VI sec. a.C., «Archeologia e Calcolatori», 17, 177-213. Rajala U. 2004, The landscapes of power: visibility, time and (dis)continuity in central Italy, «Archeologia e Calcolatori», 15, 393-408. Rongai L. 1985, I sistemi difensivi e di controllo della costa teramana e dell’entroterra teramano, in Gli Acquaviva d’Aragona duchi di Atri e conti di S. Flaviano. Atti del Sesto Convegno, Centro abruzzese di ricerche storiche, Teramo, 137-147. Saaty T.L. 1980, The Analytic Hierarchy Process, New York, McGraw-Hill. Staffa A.R. 2002, L’Abruzzo costiero. Viabilità, insediamenti, strutture portuali ed assetto del territorio fra Antichità ed Alto Medioevo, Lanciano, R. Carabba. ABSTRACT This paper aims to describe the settlement dynamics in the province of Teramo, in the Abruzzo region, along the coastal area between the Tronto and the Vomano rivers, in the Norman Age. Starting from the study of 26 sites, relevant to both towers and medieval forti�cations, the objective is to construct a GIS probability map for the presence of �ve other sites that are mentioned in various historic documents but have now disappeared. Analysing some variables linked to the territory and exploiting the spatial distributions of the existing sites, in particular in relation to the sea and the rivers, it is possible to obtain useful data for prediction. More precisely we have considered: 1) the viewshed analysis, 2) the distances from the sea, 3) the distances from the rivers, 4) the distances among the existing sites, 5) the slope, 6) the aspect and 7) the distance from the toponym of the uncertain locations. Linear combination of the raster representing these variables lead to a �nal map, which contains different values of plausibility related to the presence of a dubious site. The weights of the linear combination are provided by an expert using the pairwise comparison technique, through a multicriteria approach. 329 Archeologia e Calcolatori 20, 2009, 331-350 SISTEMA INFORMATIVO TERRITORIALE ARCHEOLOGICO E CARTA DELLA POTENZIALITÀ ARCHEOLOGICA DEL COMUNE DI PARMA 1. Premessa In questi ultimi decenni Parma e il suo territorio hanno subito un’incessante opera di urbanizzazione e trasformazione, alla quale si è accompagnata una crescita esponenziale degli interventi archeologici, con conseguenze non sempre vantaggiose sull’attività della Soprintendenza. Lo sviluppo continuo di competenze e tecnologie nel settore dell’archeologia professionale, di fatto, ha determinato che la quantità di reperti e informazioni che gli archeologi sono in grado oggi di recuperare sia cresciuta a dismisura, dando origine in tal modo a consistenti raccolte troppo spesso di dif�cile gestione da parte degli Enti preposti. Ne conseguono due urgenze: innanzitutto, il censimento completo dei rinvenimenti archeologici, attraverso lo sviluppo di strumenti e procedure moderne che ne consentano una gestione agile e all’avanguardia; in secondo luogo, lo studio esaustivo del patrimonio archeologico al �ne di ricostruire e comprendere l’evoluzione dei paesaggi e della città �no ai giorni nostri. Oltre a ciò, la costante trasformazione del territorio ha fatto emergere la necessità di un controllo sempre più capillare da parte degli organi preposti alla tutela, oltre alla necessità di agire, il più possibile, attraverso procedure di archeologia preventiva. Tale denominazione, di uso comune da alcuni anni, abbraccia un ventaglio di metodologie il cui obiettivo è determinare le potenzialità archeologiche1 di un’area nel modo meno invasivo possibile e preventivamente a qualsiasi opera di scavo, al �ne di programmare adeguatamente gli interventi archeologici di volta in volta necessari. In tal modo, da un lato si favorisce l’azione di tutela della Soprintendenza Archeologica, resa dif�coltosa dalla cronica carenza di personale e risorse, dall’altro si agevola 1 Con “potenzialità archeologica” di un territorio qui s’intende l’insieme degli elementi archeologici noti (depositi, strutture e reperti) e di quelli ipotetici, desumibili sia dalla semplice analisi degli elementi noti, sia dall’interpretazione di questi in rapporto alle caratteristiche geomorfologiche, geogra�che e storiche del territorio stesso (cfr. § 5); per l’introduzione della dicitura di “potenzialità archeologica” cfr. ad es. Guarnieri 2000, 13-21. Nel campo della tutela questa dizione ha oramai da alcuni anni sostituito quella di “rischio archeologico”, per la valenza negativa nei confronti del patrimonio archeologico, dizione che invece continua ad essere utilizzata solamente in rapporto alle realizzazioni di opere di scavo. A questo proposito si confronti il presente lavoro e quello esposto in Bigliardi 2007 con Campeol, Pizzinato 2007. 331 G. Bigliardi la programmazione dei lavori da parte delle Amministrazioni Comunali e delle imprese private, mostrando loro ciò che potrebbe attenderle nel corso dei lavori. La legge 25 giugno 2005 n. 109 (Malnati 2005), in particolare gli articoli 2-ter, 2-quater e 2-quinquies, regolamenta l’attuale procedura per le valutazioni preventive del rischio archeologico nel settore dei lavori pubblici e stabilisce che le stazioni appaltanti inviino alle competenti Soprintendenze i progetti preliminari delle opere corredati da indagini geologiche e archeologiche. Tali indagini prevedono la consultazione del materiale d’archivio e bibliogra�co, la ricognizione dei terreni e la fotointerpretazione, allo scopo di identi�care e localizzare aree interessate da ritrovamenti e di determinare le caratteristiche archeologiche dell’area oggetto dei lavori. Le informazioni desunte da tali fonti permettono di valutare il rischio archeologico relativo all’opera in progetto, distinguendo aree a rischio differente, e consentono di elaborare strategie in merito al prosieguo dei lavori. Infatti, le nuove infrastrutture devono considerare il patrimonio archeologico come un elemento fondamentale di cui tener conto sin dalla prima de�nizione dell’opera e, in sinergia con la Soprintendenza Archeologica, i progettisti devono studiare soluzioni per minimizzare il rischio di interferire con i resti del passato. In risposta a queste problematiche è nato il progetto “Il Sistema Informativo Territoriale Archeologico del Comune di Parma”, avviato in via sperimentale nell’estate del 2006 sull’area campione del centro storico (Bigliardi 2006, 2007), grazie ad una convenzione tra il Museo Archeologico Nazionale di Parma e il Centro di GeoTecnologie dell’Università di Siena e con la collaborazione della Compagnia Generale di Ripreseaeree; in seguito il progetto è proseguito grazie al �nanziamento dell’Assessorato ai Lavori Pubblici2 (Bigliardi 2008a, 2008b). Il �ne era di creare uno strumento utile alla gestione, all’analisi e alla tutela del nostro patrimonio archeologico, tale da risultare funzionale sia alle esigenze della ricerca storico-archeologica da parte di specialisti, sia a quelle della Soprintendenza nel campo della tutela, come a quelle dell’amministrazione comunale e delle imprese private nell’ambito della programmazione urbanistica. Il primo passo di questo lavoro è stato il censimento di tutti i rinvenimenti effettuati nel Comune di Parma. A questo scopo si è eseguita la revisione della documentazione relativa, iniziando dalla bibliogra�a edita3 e proseguendo con l’archivio della Soprintendenza Archeologica conservato presso il Museo 2 Questo lavoro costituisce il progetto di Dottorato di Ricerca di chi scrive, svolto presso la Scuola di Dottorato di Ricerca in Scienze della Terra e Preistoria - Sezione di GeoTecnologie, presso il Centro di GeoTecnologie dell’Università degli Studi di Siena. 3 L’unica Carta Archeologica edita risaliva al 1978 e riguardava il solo centro storico della città: Marini Calvani 1978. 332 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica Archeologico Nazionale; i dati progressivamente raccolti sono stati inseriti in un Sistema Informativo Territoriale appositamente elaborato. Una volta terminato l’inserimento dei dati, sfruttando le potenzialità del SIT, sono stati elaborati i dati raccolti per produrre cartogra�e tematiche esplicanti le potenzialità archeologiche del territorio: una Carta Archeologica tradizionale, una Carta della Visibilità Archeologica di Super�cie e una Carta della Potenzialità Archeologica. Esse costituiranno un valido supporto per le valutazioni di impatto archeologico di progetti edilizi, permettendo di valutare in anticipo il rischio archeologico di una determinata area e riducendo in tal modo gli onerosi fermi cantiere, oltre ai tempi e ai costi dell’assistenza archeologica. Esse, inoltre, hanno il pregio di responsabilizzare chi deve programmare interventi nel tessuto cittadino e di rendere trasparenti gli atti della Soprintendenza relativi alle concessioni delle licenze edilizie, rendendone esplicite le motivazioni sottintese (Gelichi 2002, 70-71). L’ultima fase del progetto consisterà nel dare visibilità ai risultati ottenuti: da un lato se ne dovrà curare la diffusione a livello divulgativo e a livello scienti�co – un dovere morale, oltre che professionale, per qualsiasi studioso e gruppo di ricerca – con apposite pubblicazioni e giornate di studio, dall’altro si dovranno rendere disponibili i prodotti realizzati, ad esempio attraverso la creazione di un sito web dedicato e di un webGIS, e di una postazione informatica dove rendere consultabile il SIT, sia presso i locali del Museo Archeologico Nazionale, sia presso gli uf�ci comunali. 2. Breve descrizione delle caratteristiche del SIT Archeologico del Comune di Parma Il SIT è stato interamente sviluppato utilizzando la tecnologia ESRI ArcGIS che sfrutta le grandi potenzialità di gestione dei dati in un unico ambiente integrato: il geodatabase, che costituisce un’applicazione di archiviazione e gestione di dati spaziali georeferenziati e alfanumerici. La scelta di tale applicazione ha alla base alcuni motivi di ordine pratico: innanzitutto, perché è il software utilizzato dall’Amministrazione Comunale di Parma per la gestione del proprio Sistema Informativo Territoriale, in secondo luogo perché si tratta di una delle applicazioni commerciali più diffuse tra gli operatori di SIT e ciò garantisce una sicura e facile comunicazione anche con altri sistemi grazie ai numerosi formati di interscambio. All’interno del SIT i dati archeologici possono essere visualizzati, a seconda delle esigenze, su basi cartogra�che di diverso tipo: è possibile scegliere tra la Cartogra�a Tecnica Regionale in scala 1:5000 e in scala 1:10.000, la Carta Geologica Regionale, la Carta di Uso del Suolo, la Carta Storica Regionale, l’Atlante Sardi (1767), le ortofoto in bianco e nero del 1945 e quelle moderne a colori, il Modello Digitale del Terreno. In associazione a questi 333 G. Bigliardi livelli è, inoltre, possibile visualizzare i punti quotati con le quote assolute in m s.l.m. e le curve di livello con equidistanza �no a 1 m (Fig. 1). I dati archeologici che possono essere consultati riguardano gli scavi archeologici, comprensivi di scavi estensivi e di emergenza, saggi, trincee e carotaggi, e inoltre le segnalazioni, frutto di ricerche di super�cie di appassionati e professionisti locali, e ancora gli elementi della centuriazione, le aree vincolate per legge e le aree di assenza archeologica, cioè tutte quelle zone che, in seguito a scavi, si sono mostrate prive di qualsiasi preesistenza archeologica. In�ne, è possibile consultare tutte le elaborazioni realizzate: la Carta Archeologica e la Carta di Potenzialità Archeologica, sia quelle dell’intero Comune che quelle di dettaglio del Centro Storico, e la Carta della Visibilità Archeologica (Fig. 2). Le informazioni inserite nel SIT sono suddivise in tabelle differenti al �ne di rendere più agevole sia la fase d’inserimento dei dati, sia quella successiva di consultazione e interrogazione, salvaguardando così la pluralità delle informazioni relative ad ogni rinvenimento e separandole per aree tematiche. Sono inserite le informazioni riguardanti lo scavo: il tipo e l’anno dell’intervento, l’esecutore tecnico e il direttore scienti�co, la posizione della documentazione (relazioni, rilievi e fotogra�e) nell’archivio della Soprintendenza presso il Museo Archeologico Nazionale, la profondità del rinvenimento e lo stato attuale di conservazione, in altre parole se il sito è ancora in posto o se è stato asportato. Inoltre, vengono inserite informazioni di carattere strettamente storico/archeologico riguardanti la de�nizione tipologica del rinvenimento, la cronologia, la bibliogra�a e per molti siti è disponibile un link che permette di visualizzarne alcune immagini. In�ne, per ogni sito sono inserite le indicazioni riguardanti le caratteristiche geologiche del terreno, la destinazione d’uso del suolo e la visibilità archeologica di super�cie4. In conclusione il SIT riunisce molteplici funzionalità: – gestione agile e all’avanguardia dei dati di ogni rinvenimento archeologico, che permette per ognuno di essi di risalire agevolmente e rapidamente alla rispettiva documentazione cartacea d’archivio e presenta una sintesi delle caratteristiche archeologiche elaborata sulla base delle relazioni di scavo; – supporto alla ricerca storico-archeologica del territorio, che permette di eseguire ricerche e selezioni in base alla tipologia e alla cronologia del rinvenimento e fornisce l’eventuale bibliogra�a edita; risulta così possibile realizzare carte cronologiche, tematiche, tipologiche, etc.; 4 La struttura descritta in Bigliardi 2007, elaborata nella prima fase del lavoro per il centro storico della città, successivamente è stata in parte modi�cata per venire incontro ai problemi derivati dall’ampliamento del sistema ad accogliere i dati territoriali extra-urbani. Sono rimasti inalterati i valori codi�cati dei domini, mentre le tabelle sono state organizzate in modo parzialmente differente; per problemi di spazio non è qui possibile presentare nel dettaglio la nuova struttura: si rimanda pertanto a Bigliardi 2008a. 334 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica Fig. 1 – Le basi cartogra�che visualizzabili nel SIT. Fig. 2 – I layer archeologici visualizzabili nel SIT. 335 G. Bigliardi Fig. 3 – Particolare della Carta della Visibilità Archeologica: in grigio le zone di visibilità nulla, in giallo quelle di visibilità scarsa, in bianco quelle di visibilità ottima. – supporto all’azione di tutela e di piani�cazione urbanistica della Soprintendenza Archeologica e dell’Amministrazione Comunale per mezzo di elaborati quali la Carta Archeologica e, in particolare, la Carta di Potenzialità Archeologica; quest’ultima è stata elaborata considerando non solo i rinvenimenti archeologici noti dai dati d’archivio e bibliogra�ci, ma anche esaminando le caratteristiche geologiche e geomorfologiche del territorio, rendendola, quindi, uno strumento perfettamente in linea con i dettami della legge 25 giugno 2005 n. 109 per quel che riguarda le valutazioni di rischio archeologico preventive in sede di progettazione preliminare. 3. La Carta della Visibilità Archeologica La Carta della Visibilità Archeologica, elaborata in un unico foglio in scala 1:25.000, è stata creata rapportando la tipologia di copertura del suolo alla possibilità di rinvenire tracce archeologiche sulla super�cie del terreno. In questo modo il territorio comunale viene suddiviso in aree classi�cabili in base al loro grado di visibilità archeologica di super�cie (Fig. 3). La sua utilità sta nel permettere un’adeguata programmazione a priori di eventuali 336 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica ricognizioni, in quanto mostra in quali aree esse potrebbero essere realizzate ef�cacemente e in quali aree, al contrario, una copertura del suolo particolarmente invasiva non ne consentirebbe la realizzazione, garantendo in tal modo un risparmio di risorse. La carta è stata elaborata riclassi�cando la Carta di Uso del Suolo dell’Emilia Romagna del 2003 in scala 1:25.000 (edizione novembre 2006). Innanzitutto, la carta è stata importata all’interno del geodatabase come feature class. Successivamente, è stato aggiunto il campo “Visibilità” alla tabella degli attributi, ed è stato compilato in base alla equiparazione tra classi Corine Land Cover5 e grado di visibilità archeologica secondo i parametri che seguono: – visibilità “nulla”, cioè aree in cui è inutile effettuare una ricognizione di super�cie, per le classi di uso del suolo Corine Land Cover 1.1/1.2/1.3/2.1.3.0/ 3/4/5, che comprendono zone urbanizzate, insediamenti produttivi, commerciali, dei servizi pubblici e privati, delle reti e delle aree infrastrutturali, aree estrattive, discariche, cantieri, terreni artefatti e abbandonati, risaie, territori boscati e ambienti seminaturali, ambiente umido, ambiente delle acque; – visibilità “scarsa”, cioè aree in cui è sconsigliato effettuare ricognizioni di super�cie �nalizzate alla raccolta di reperti, ma in cui è possibile effettuare una veri�ca della presenza di eventuali altri indicatori archeologici quali in particolare crop marks; per le classi Corine Land Cover 1.4/2.2/2.3, che comprendono le aree verdi arti�ciali non agricole, colture permanenti e prati stabili; – visibilità “ottima”, cioè aree in cui è possibile e utile effettuare una ricognizione di super�cie �nalizzata anche alla raccolta di materiali af�oranti, per le classi Corine Land Cover 2.1/2.4 (ad eccezione della classe 2.1.3.0), che comprendono seminativi e zone agricole eterogenee. In�ne, grazie alla funzione dissolve dell’ArcToolbox di ArcGIS le aree di uso del suolo sono state tra loro aggregate in base al valore speci�cato nel campo “Visibilità”, ottenendo così una nuova mappa tematica in cui il territorio risulta suddiviso in super�ci corrispondenti proprio al grado di visibilità. 4. La Carta Archeologica La Carta Archeologica ha il compito di indicare nel dettaglio la posizione dei singoli scavi, delle segnalazioni, delle aree vincolate, delle aree di assenza archeologica e delle aree centuriate. Essa è corredata dalle Schede di Area Archeologica che compendiano le informazioni raccolte su ciascuna area 5 Il Corine Land Cover (Coordination of the information on the environment) è un sistema di classi�cazione di copertura del suolo elaborato e adottato dall’Unione Europea dal 1985. 337 G. Bigliardi Fig. 4 – Particolare della Carta Archeologica del Comune di Parma: in verde le aree di scavo, in blu le segnalazioni, in rosso gli assi centuriali e con campitura obliqua le aree vincolate ex lege. presente sulla carta e all’interno del SIT. Questa carta può essere considerata il primo livello di analisi dei dati raccolti, poiché non risulta da un processo interpretativo delle caratteristiche archeologiche dei rinvenimenti, ma ne presenta semplicemente la posizione topogra�ca e l’estensione (Fig. 4). È ovvio che la qualità di questa carta è strettamente connessa alla qualità del posizionamento dei singoli rinvenimenti. Infatti, poco meno della metà dei rinvenimenti è posizionato con precisione “buona” (ca. 48%), poco meno di un terzo è posizionato con precisione “scarsa” (ca. 32%) e appena un quinto è posizionato con precisione “esatta” (ca. 19%). Questa situazione è imputabile ad un insieme di cause diverse, ma in particolare alle modalità di posizionamento impiegate al momento della scoperta e al tipo di documentazione presente negli Archivi della Soprintendenza. Il sistema di posizionamento adottato in occasione del rinvenimento incide molto sulla qualità del risultato ed è rilevante che solamente una minima parte di essi sia stata posizionata tramite rilevamento diretto con l’uso di una stazione totale, mentre in tutti i restanti casi il rinvenimento è stato 338 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica semplicemente posizionato sulla cartogra�a di riferimento, con tutti gli errori che ciò comporta, soprattutto quando si tratta di scavi in trincea in luoghi aperti come strade o piazze dove è molto facile in questo modo commettere errori anche di parecchi metri. Inoltre, quasi un terzo dei rinvenimenti totali non possiede documentazione d’archivio di alcun tipo, ma se ne hanno notizie solamente in bibliogra�a, dove molto spesso non è riportato il posizionamento in pianta. È giusto precisare che tutti questi rinvenimenti sono stati effettuati prima del 1968 e la maggior parte di essi addirittura prima del 1960. Per tutti gli scavi successivi esiste, invece, una documentazione d’archivio: sovente abbastanza eterogenea, almeno quella anteriore agli anni Novanta, ma nella maggior parte dei casi è comunque disponibile una relazione di scavo, più o meno dettagliata, e almeno una pianta dei rinvenimenti. 5. La Carta della Potenzialità Archeologica del Comune di Parma Con “potenzialità archeologica” di un territorio qui s’intende l’insieme degli elementi archeologici noti (depositi, strutture e reperti) e di quelli ipotetici, cioè desumibili sia dalla semplice analisi degli elementi noti, sia dall’interpretazione di questi in rapporto alle caratteristiche geomorfologiche, geogra�che e storiche del territorio stesso. La Carta della Potenzialità Archeologica fornisce, quindi, un quadro sintetico delle caratteristiche archeologiche dell’intero comune, ed è costituita da una Carta della Potenzialità Archeologica del territorio comunale e da una Carta della Potenzialità Archeologica del Centro Storico di maggiore dettaglio. Le carte sono state elaborate attenendosi alle linee guida preliminari messe recentemente a disposizione dalla Soprintendenza Archeologica della Regione Emilia Romagna. In base a queste, la carta deve esprimere la sintesi critica derivata dall’analisi incrociata dei dati della Carta Archeologica tradizionale con le informazioni derivate da altri tematismi, come, in particolare, le carte geologiche, geomorfologiche, di uso del suolo e la cartogra�a storica. Il risultato deve essere la de�nizione di aree con caratteristiche omogenee dal punto di vista dei depositi archeologici, accertati o prevedibili, e da quello del loro livello di conservazione. Tali zone devono essere de�nite da brevi note descrittive, che ne chiariscano le caratteristiche archeologiche, con particolare attenzione per la presenza/assenza di depositi conservati, del loro grado di conservazione e delle profondità di giacitura6. In base a ciò, appare necessario superare il concetto di gradualità di rischio archeologico (alto/medio/basso), poiché si tratta di una valutazione 6 Si ringrazia il Soprintendente Archeologo dott. L. Malnati per aver messo a disposizione tali indicazioni preliminari. 339 G. Bigliardi connessa esclusivamente con la realizzazione di opere di scavo, per approdare, piuttosto, all’elaborazione di categorie di potenzialità, che non stiano tra loro necessariamente in una scala gerarchica e che siano de�nite proprio sulla base delle qualità speci�che dei depositi archeologici. In conclusione, in questo lavoro si è tentato di elaborare non dei valori di rischio, quanto delle tipologie di Potenzialità Archeologica de�nite da parametri oggettivi, seguendo una procedura esplicita, veri�cabile, ripetibile e applicabile a qualsiasi altro contesto territoriale (Bigliardi 2008b). Sulla base dei dati raccolti è stata realizzata una duplice e parallela suddivisione del territorio comunale in aree che si caratterizzano per un diverso tipo di potenzialità: la prima suddivisone valuta lo stato di conservazione dei depositi archeologici noti da scavi e segnalazioni, la seconda è una sintesi critica di tutti i dati e tematismi raccolti, oltre a quelli archeologici anche quelli geologici, geomorfologici e di uso del suolo. 5.1 La prima suddivisione: valutazione dei depositi archeologici noti La prima suddivisione del territorio è stata realizzata in base allo stato di conservazione attuale dei depositi archeologici noti e al grado di certezza della loro presenza (Fig. 5). Si tratta di una classi�cazione del territorio comunale in super�ci corrispondenti a sette tipologie di potenzialità archeologica appositamente elaborate. Il risultato è una mappa tematica in cui ogni area è denominata da un codice numerico di potenzialità (da “0” a “6”), esplicativo della presenza/assenza di depositi archeologici. Per alcuni tipi sono state elaborate anche tre sottoclassi in base alla precisione del posizionamento dei depositi: “n. 1” (dove “n” corrisponde al codice di potenzialità) per i depositi posizionabili in modo esatto, “n. 2” per quelli posizionabili in modo buono, “n. 3” per quelli posizionabili in modo scarso. Innanzitutto, sono stati presi in considerazione i depositi archeologici accertati dagli scavi e sono stati distinti sulla base del loro grado di conservazione. Nella scheda di raccolta dati è presente un campo in cui è possibile precisare lo stato di conservazione attuale di un sito, in sintesi se è ancora in loco (in questo caso i valori tra cui scegliere sono: integro, conservato parzialmente, restaurato) o se è stato asportato (i valori sono: distrutto, asportato in seguito a scavo archeologico). Sfruttando questo campo è stata effettuata una riclassi�cazione dei layer archeologici, assegnando ai siti archeologici un codice di potenzialità differente a seconda proprio del grado di conservazione: “1” alle aree di rinvenimento archeologico asportato (in seguito a scavo archeologico o per distruzione) e “6” alle aree di presenza archeologica accertata (qualora i depositi siano ancora in posto, seppur parzialmente). Nel primo caso la potenzialità archeologica è teoricamente nulla; tuttavia, è necessario accertarsi che gli scavi archeologici realizzati abbiano effettivamente 340 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica Fig. 5 – Particolare della prima suddivisione. asportato l’intera stratigra�a antropica. Nel secondo caso, al contrario, la potenzialità archeologica è conservata e può essere quanti�cata attraverso la sovrapposizione con la Carta Archeologica per analizzare i rinvenimenti archeologici che sono stati effettuati. Successivamente, in base alla considerazione che nelle aree circostanti i siti archeologici certi, asportati o ancora in posto, sia possibile ritrovare residui o estensioni di quegli stessi depositi, è stato elaborato un terzo tipo, che comprende le aree circostanti un sito archeologico (indipendentemente dal grado di conservazione attuale dello stesso), considerando, arbitrariamente, l’area circostante in un raggio di 50 m. In questo caso, è stato effettuato un buffer attorno alle aree con codice “1” e “6” e alle aree di buffer così risultanti è stato assegnato un nuovo codice, il “3”. Ovviamente, anche in questo caso la reale potenzialità di queste aree deve essere veri�cata, tuttavia è prevedibile che vi si possano rinvenire, se non prosecuzioni dei siti adiacenti, almeno lembi di strati di frequentazione riferibili ai siti stessi. Per le segnalazioni di materiale archeologico af�orante e il reticolo della centuriazione sono stati elaborati due tipi appositi, in quanto si tratta di elementi archeologici solamente ipotetici: aree con presenza di materiali archeologici af�oranti (codice “4”), e aree che insistono su un elemento 341 G. Bigliardi centuriale certo o ipotetico (codice “5”). Nel primo caso sarà necessario stabilire se i depositi da cui proviene il materiale in af�oramento siano ancora conservati, o se siano ormai andati distrutti dalle arature, o che non si tratti di terreno di riporto; nel secondo caso la presenza del tratto stradale dovrà essere veri�cata. Un’ulteriore tipologia è stata elaborata per le aree di assenza archeologica accertata, che comprende aree in cui gli scavi hanno restituito solamente depositi di origine naturale non antropizzati, oltre alle aree estrattive attive e dismesse, agli specchi d’acqua e ai corsi d’acqua (codice “0”). La potenzialità archeologica di queste aree è nulla. In�ne, l’ultima tipologia elaborata riguarda le aree in cui non sono ancora noti elementi archeologici, cioè le aree prive di indicatori archeologici di potenzialità/rischio (codice “2”). Esse comprendono tutte le zone in cui allo stato attuale, o per mancanza di ricerche o per non conservazione di depositi archeologici, non sono noti rinvenimenti, né segnalazioni. Si tratta di aree a potenzialità indeterminabile; tuttavia, proprio per le caratteristiche di indeterminatezza, si tratta di aree potenzialmente ad alto rischio archeologico. 5.2 La seconda suddivisione: sintesi critica dei dati raccolti La seconda suddivisone, che deve essere letta parallelamente e in sovrapposizione alla prima, è il risultato di una sintesi critica elaborata sulla base della cronologia dei depositi geologici del territorio, delle caratteristiche geomorfologiche e delle caratteristiche dei rinvenimenti archeologici (Figg. 6 e 7). Questa seconda mappa tematica completa le indicazioni di presenza/assenza dei depositi fornite da quella precedente, con la descrizione delle caratteristiche storico-archeologiche dei depositi stessi. La suddivisione in aree segue la ripartizione dei depositi geologici presente nella Carta Geologica Regionale, in modo tale che ogni area presenti al tetto depositi omogenei dal punto di vista dei fenomeni di formazione e della cronologia di deposizione (Fig. 6). La cronologia di deposizione, infatti, è fondamentale per comprendere l’evoluzione del paesaggio e stabilire quali zone hanno subito sensibili modi�che nel corso del tempo, oltre che per stabilire da che momento cronologico una super�cie è stata esposta. Le aree A e B, ad esempio, ospitano depositi di piana alluvionale datati a partire dall’età tardoantica (IV-VI sec. d.C.) che, comprensibilmente, hanno obliterato con alcuni metri di sedimenti i depositi archeologici precedenti e hanno reso le aree paludose e poco ospitali almeno �no al Basso Medioevo. Non è un caso che tali zone presentino un numero scarsissimo di rinvenimenti (Fig. 7). Diversamente l’area H, che presenta depositi di conoidi e terrazzi alluvionali datati a partire dal Pleistocene Superiore/Mesolitico all’età romana, presenta una distribuzione molto �tta di rinvenimenti a partire dal Neolitico �no all’età moderna. 342 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica Fig. 6 – Risultato della seconda suddivisione. Fig. 7 – Sovrapposizione delle Carta Archeologica alle aree risultate dalla seconda suddivisione. In�ne, il confronto con la Carta Archeologica tradizionale permette di valutare dal punto di vista storico gli elementi archeologici presenti in ciascuna area e di trarne indicazioni riguardo alle caratteristiche del popolamento del territorio. A titolo di esempio si riportano le descrizioni di due delle dodici aree elaborate: – Area A. L’area è caratterizzata dalla presenza di depositi di piana alluvionale riferibili ai torrenti Taro e Parma: di canale e argine prossimale ad est, di argine distale ad ovest e, nell’area centrale, depositi di palude. Tutti i depositi sono comunemente datati a partire dall’età tardoantica (dal IV-VI sec. d.C.). Si tratta di un’area depressa che, in seguito al declino del costante controllo sul territorio di età romana, risultò certamente una zona di richiamo per i sedimenti, ed è inoltre probabile che dallo stesso momento essa sia stata interessata da spostamenti del torrente Parma: lo dimostrerebbero l’accentuato gomito di deviazione nei pressi di Baganzola e i ventagli di tracimazione in coincidenza di esso, indizi che lasciano supporre un percorso più occidentale per il torrente, oltre alla scarsissima conservazione del reticolo della centuriazione. In quest’area sono concentrati esclusivamente 2 rinvenimenti da scavo 343 G. Bigliardi (un canale moderno e una canaletta romana a 1,5 m di profondità), posti presso il limite meridionale dell’area e presumibilmente risparmiati dai depositi alluvionali, mentre è nota una sola segnalazione di materiale af�orante, non a caso di età medievale. La scarsezza di rinvenimenti da scavo potrebbe essere una conseguenza delle ben poche trasformazioni antropiche avvenute nel territorio: si tratta di una zona caratterizzata quasi esclusivamente da terreni ad uso agricolo seminativo, con rare aree residenziali e industriali; ciò risulta molto evidente anche dal confronto con la Carta Storica Regionale. Ugualmente, la scarsezza di segnalazioni di materiale af�orante potrebbe essere dovuta alla carenza di indagini nella zona. Tuttavia, in entrambi i casi, è altamente probabile che tale situazione sia da imputare all’eccessiva profondità a cui i rinvenimenti archeologici dovrebbero essersi conservati. È evidente che in questo settore insistono attualmente consistenti depositi di origine alluvionale che hanno obliterato gli elementi archeologici. Questi potrebbero essersi conservati ad una profondità elevata, che può essere stimata intorno ai 2-3 m sulla base del confronto con le quote dell’area I dove tali depositi non sono presenti. – Area H. L’area è caratterizzata dalla presenza di depositi di conoidi e di terrazzi alluvionali, comunemente datati a partire dal Pleistocene Superiore/ Mesolitico all’età romana. In quest’area, se escludiamo il centro storico di Parma, sono attestati 176 rinvenimenti da scavo e 216 segnalazioni e i siti noti appartengono a tutte le epoche considerate. In particolare, i rinvenimenti mostrano un popolamento relativamente omogeneo e diffuso per l’età del Bronzo, capillare in età romana, ma solo sporadiche testimonianze relative al Neolitico, al Paleolitico, all’Eneolitico, all’età del Ferro e al Medioevo. Il tetto della stratigra�a archeologica è mediamente posto tra 0,5 e 1,5 m. Il reticolo centuriale di età romana è molto ben conservato, in particolare nel settore ad ovest del torrente Parma, meno in quello orientale dove sono evidenti delle lacune, molto probabilmente dovute al dissesto del territorio nella fase post-romana. I rinvenimenti da scavo sono concentrati soprattutto nella zona circostante la città, laddove sono state più intense le trasformazioni del territorio, come si evince dalla Carta Storica Regionale e dalle ortofoto del 1945. Le segnalazioni, al contrario, sono omogeneamente diffuse in tutto il settore, compatibilmente con la visibilità del terreno legata all’uso del suolo. Appare evidente che si tratta di un settore dove, grazie agli scarsi fenomeni di deposizione successivi all’età romana, si sono meglio conservati i depositi archeologici di ogni periodo e dove, grazie all’intensa attività antropica di trasformazione del territorio, è stato effettuato il maggior numero di interventi di scavo. In conclusione, la Carta della Potenzialità Archeologica del Comune da un lato dà informazioni su quali depositi archeologici dovremmo incontrare, illustrandone la cronologia, la potenza e la profondità in rapporto alla 344 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica geologia e alla geomorfologia del territorio; dall’altro descrive lo stato di conservazione di quegli stessi depositi, informandoci se essi siano già stati asportati o se siano ancora in posto. 6. La Carta della Potenzialità Archeologica del Centro Storico La Carta della Potenzialità Archeologica del Centro Storico è stata concepita per offrire un quadro di maggiore dettaglio rispetto a quello già offerto nella Carta territoriale. Per prima cosa sono state elaborate le Carte Cronologico-Tematiche, che illustrano l’evoluzione diacronica del nucleo urbano. Partendo dalla cronologia dei rinvenimenti, sono state realizzate per le principali fasi di sviluppo storico della città, considerando periodizzazioni molto ampie delimitate da modi�cazioni sensibili dell’area cittadina in termini di estensione areale e di funzione: età del Bronzo, romana repubblicana, romana imperiale, tardoantica, longobarda, altomedievale, bassomedievale e moderna. Per ogni fase sono state considerate le diverse tipologie di strutture e reperti rinvenuti, in modo da poter discriminare anche macroaree a differente destinazione funzionale: residenziale, suburbana, pubblica, religiosa e cimiteriale. Ne risultano carte che non sono ricostruzioni vere e proprie del nucleo urbano, ma de�niscono per ciascun periodo l’estensione minima della città accertata archeologicamente, partendo proprio dall’area interessata dai rinvenimenti. Dato che a differenza delle campagne un nucleo urbano è caratterizzato da un tessuto insediativo continuo, con un certo grado di precisione è possibile ricostruire, per ogni fase, l’estensione minima della città considerando come limite i rinvenimenti strutturali di tipo urbano relativamente più marginali e supponendo che all’interno di tale limite si sviluppasse l’insediamento senza una sensibile soluzione di continuità (Bigliardi 2006, 80-83; Bigliardi 2007, 93-96). In seguito, tramite la funzione Union dell’ArcToolbox di ESRI ArcGIS, le Carte Cronologico-Tematiche sono state sovrapposte e sommate e si è ottenuta una suddivisione del tessuto urbano in microaree distinte sulla base del numero di fasi archeologiche presenti e della destinazione funzionale. Nelle singole Carte Cronologico-Tematiche ogni area è caratterizzata da un codice alfanumerico che ne speci�ca la cronologia e la destinazione funzionale: ad esempio un’area con codice “BR3” è un area insediata nell’età del Bronzo (“BR”) con funzione di necropoli (“3”), oppure un’area con codice “RIM1” è un’area insediata in età romana imperiale (“RIM”) con strutture di tipo residenziale urbano (“1”). In seguito alla sovrapposizione di queste carte, tali codici vengono sommati, per cui, ad esempio, un’area con necropoli dell’età del Bronzo insediata successivamente da una domus di età romana imperiale risulterà identi�cata dal codice BR3_RIM1. Il centro storico risulta così sud345 G. Bigliardi Fig. 8 – Carta della Potenzialità Archeologica del Centro Storico: i colori classi�cano il centro urbano in base al numero di fasi archeologiche note e alla potenza della stratigra�a antropica (dalle zone verdi che presentano un’unica fase, a quelle rosso scuro che ne presentano sette); le microaree distinte in nero delimitano il centro in base alla potenzialità archeologica, considerando cronologia dei depositi, destinazione funzionale dell’area e caratteristiche dei rinvenimenti. diviso in aree distinte ciascuna da un codice che rispecchia la complessità della strati�cazione archeologica e quindi la potenzialità archeologica (Fig. 8). In questo modo, riconoscendo la ripartizione funzionale in aree diverse e, dunque, la distribuzione delle informazioni archeologiche ed evidenziando l’eterogeneità dei depositi, il rischio archeologico legato ad interventi di scavo può essere di volta in volta quanti�cato e diventare meno soggettivo e aleatorio, perché nasce dalla combinazione e dal confronto dei dati quantitativi con quelli qualitativi (Carver 1981, 1983; Brogiolo 2000b; Gelichi 2002, 66-67, 70). Come già sottolineato in precedenza, si è volutamente evitato di creare delle categorie di potenzialità archeologica gerarchicamente organizzate (alta/media/bassa), diversamente da quanto, invece, è stato realizzato in altri casi, ad esempio a Cesena e a Faenza. Nel primo caso il risultato �nale è stato una suddivisione del centro storico in aree a minore o maggiore rischio archeologico, elaborate sulla base delle consistenze strutturali dei rinvenimenti (rischio alto per i resti di edi�ci; rischio medio per emergenze puntiformi come drenaggi e tombe; rischio basso per le aree già intaccate da interventi di escavazione) e sulla base della consistenza dei depositi antropici conservati, 346 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica calcolata in seguito al censimento dei vuoti provocati da ambienti interrati e scantinati (Gelichi et al. 1999). Nel caso di Faenza, il risultato �nale del lavoro è una Carta delle Potenzialità Archeologiche che suddivide l’area urbana in tre zone di diversa potenzialità (maggiore, minore, relativa), basandosi essenzialmente sul diverso grado di concentrazione dei rinvenimenti di età romana, medievale e post-medievale. In sostanza, un’area insediata con continuità in tutte queste tre fasi sarà classi�cata a potenzialità maggiore, mentre un’area con elementi di un solo periodo corrisponderà ad un’area di potenzialità relativa. Accanto a questa carta vi sono quelle dei Depositi Archeologici Conservati e dei Depositi Archeologici non Conservati, che permettono di conoscere lo stato dei depositi archeologici in merito alla loro presenza/assenza. In�ne, vi sono le Carte Cronologico-Tematiche, che offrono una lettura diacronica del nucleo urbano, e le Carte delle Quote e dei Livelli Archeologici, che evidenziano, divise per periodi storici, i livelli dei piani di calpestio antichi, che consentono di effettuare valutazioni della potenza della stratigra�a conservata. In realtà, successivamente all’approvazione del P.R.G., a Faenza è stata elaborata un’ulteriore carta tematica delle Aree a Potenziale Archeologico Differenziato, basata in questo caso sia sulla potenza della strati�cazione e della continuità insediativa nel tempo, sia sulla base della qualità dell’informazione che ogni area presenta: sono stati infatti assegnati dei punteggi in base al rapporto scaturito tra quantità di dati noti e lo stato della conoscenza della tipologia insediativa presente nell’area. Ad esempio, alla zona occupata prevalentemente da domus è stato attribuito un punteggio basso, poiché sono strutture maggiormente conosciute in regione, mentre all’area forensis, seppur la stratigra�a si presenta esigua, è stato assegnato un punteggio alto (Guarnieri 2000, 28-31, 44-46). Il metodo è certo degno di nota, ma non deve essere sottovalutata la relatività del concetto di valore. Il valore di un bene, infatti, non è mai una qualità assoluta, ma soltanto relativa: esso è legato a valutazioni soggettive del luogo e del periodo storico in cui ci si trova, oltre che all’esperienza e al background di chi deve effettuare la valutazione (Gelichi 2001, 9). Il fatto che �no agli anni Ottanta del secolo scorso fossero sistematicamente sacri�cati i depositi post-classici ne è un chiaro esempio (Ricci 1996; Gelichi 2001, 9; Gelichi 2002, 68; Manacorda 2004, 146). La Carta della Potenzialità Archeologica del Centro Storico è accompagnata da brevi note descrittive che illustrano le peculiarità di ogni area, in riferimento alle caratteristiche dei depositi archeologici noti e prevedibili (cronologia, tipologia e potenza) e a quelle dei rinvenimenti noti. A titolo di esempio si riportano le descrizioni di alcune aree: – Area 1. L’area appare insediata a partire dall’età bassomedievale (circa XIV sec. d.C.) con un’area produttiva caratterizzata dalla presenza di alcune 347 G. Bigliardi fornaci. Successivamente, l’area continua ad essere insediata con strutture di età farnesiana o posteriore. I rinvenimenti sono stati asportati con scavo archeologico. La stratigra�a archeologica ha una potenza media di 4,5 m. – Area 2. Nell’area è noto il rinvenimento di un ossario di età bassomedievale attualmente parzialmente conservato, ma è certo che sull’area insistono anche strutture di età romana imperiale riferibili al teatro, oltre a depositi di età farnesiana o posteriori. La stratigra�a archeologica ha una potenza media superiore ai 3 m. – Area 3. Nell’area è noto il rinvenimento delle strutture del teatro di età romana imperiale, ancora in posto, ed è inoltre possibile che siano conservati depositi di età farnesiana o posteriore. La stratigra�a archeologica ha una potenza media superiore ai 3 m. – Area 4. L’area è caratterizzata dalla presenza di strutture di età romana repubblicana, asportate in seguito a scavo archeologico, e, con ogni probabilità, dalla presenza di depositi di età bassomedievale e di età farnesiana o posteriore. La stratigra�a archeologica ha una potenza media superiore ai 3 m. – Area 5. Nell’area potrebbero essere presenti resti delle mura di età farnesiana, oltre a depositi della stessa epoca o posteriori; per i periodi precedenti dovrebbero essere presenti solamente depositi naturali di origine �uviale riferibili al torrente Parma. La stratigra�a archeologica dovrebbe avere una potenza media inferiore al metro. 7. Considerazioni conclusive Nel corso degli ultimi anni nel nostro Paese sono nati numerosi progetti di cartogra�a archeologica, sia a livello urbano, sia a livello territoriale più ampio. Purtroppo, appare evidente una grande disomogeneità di questi progetti, tale da dare la sensazione che ognuno proceda autonomamente. La mancanza di una linea comune, tuttavia, non equivale a caos metodologico. Innanzitutto, perché da un punto di vista prettamente tecnico si è oramai comunemente affermato l’utilizzo dei software GIS, i quali nelle versioni recenti comunicano tra loro molto bene grazie ai numerosi formati di interscambio. Da un punto di vista tecnico, inoltre, in molti casi nella schedatura delle evidenze archeologiche un occhio di riguardo è mantenuto verso i modelli catalogra�ci predisposti dall’Istituto Centrale per il Catalogo e la Documentazione, i quali, anche se parzialmente rielaborati in base alle singole esigenze, garantiscono il confronto tra le informazioni. La linea comune mancante riguarda i prodotti realizzati in fase di elaborazione dati, cioè nella realizzazione di quella cartogra�a tematica archeologica che dovrebbe costituire la base per le analisi previsionali e per le valutazioni di rischio archeologico. In sostanza, non conta il cammino seguito per raccogliere e organizzare i dati, poiché nella pratica un SIT non 348 Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica costituisce il �ne del lavoro, ma soltanto un contenitore di informazioni e un mezzo con cui produrre cartogra�a. Ne consegue che il mezzo può, anzi deve essere giustamente adattato alla situazione, quindi deve essere adattato ai dati che si hanno a disposizione, alle caratteristiche dell’area in esame e, in generale, alle problematiche storiche-archeologiche-territoriali che il singolo caso presenta. La linea comune, invece, dovrebbe essere stabilita proprio nelle caratteristiche che devono possedere gli elaborati �nali, cioè le carte tematiche di potenzialità e rischio, regolando in che modo gli elementi archeologici devono essere elaborati e interpretati per ottenerne delle indicazioni utili ad effettuare analisi previsionali. La speranza è che con i recenti sviluppi legislativi nel campo dell’archeologia preventiva, la Soprintendenza Archeologica si attivi per arrivare ad una codi�ca, oltre che delle fonti e delle procedure per le valutazioni preventive del rischio archeologico, anche delle procedure per la creazione dei SIT Archeologici e delle rispettive Carte di Potenzialità Archeologica. Se ciò non avverrà al più presto, infatti, di questo passo ogni Comune, investendo tempo e risorse, si doterà in proprio di tali strumenti, creando così un coacervo di sistemi e di carte molto differenti tra loro e dif�cilmente riconducibili ad una tipologia comune. Il pericolo concreto, in questo momento, è che le linee guida della Soprintendenza giungano quando i singoli Comuni avranno già inserito nei loro Piani Territoriali tali strumenti, con la conseguenza che dif�cilmente essi accetteranno di investire ulteriori risorse per rielaborarli nuovamente. Giulio Bigliardi Centro di GeoTecnologie Università degli Studi di Siena BIBLIOGRAFIA Banzola V. (ed.) 1978, Parma la città storica, Parma, Arte Gra�ca Silva. Bigliardi G. 2006, Sistema Informativo Territoriale Archeologico della città di Parma, Tesi di Master di II Livello in Geotecnologie per l’Archeologia, Centro di GeoTecnologie, Università degli Studi di Siena. Bigliardi G. 2007, Il Sistema Informativo Territoriale Archeologico della città di Parma, «Archeologia e Calcolatori», 18, 75-100. Bigliardi G. 2008a, Il Sistema Informativo Territoriale Archeologico del Comune di Parma. Manuale di riferimento, Parma. Bigliardi G. 2008b, Linee guida della Carta della Potenzialità Archeologica del Comune di Parma, Parma. Brogiolo G.P. 2000b, Valutazione, in Francovich, Manacorda 2000, 356-357. Campeol G., Pizzinato C. 2007, Metodologia per la valutazione dell’impatto archeologico, «Archeologia e Calcolatori», 18, 273-292. Carver M. 1981, Sampling towns: an optimistic strategy, in Clack, Hazelgrove 1981, 65-91. Carver M. 1983, Valutazione, strategia e analisi nei siti pluristrati�cati, «Archeologia Medievale», 10, 49-71. 349 G. Bigliardi Clack P., Hazelgrove S. (eds.) 1981, Approaches to the Urban Past, Durham, University of Durham. Francovich R., Manacorda D. (eds.) 2000, Dizionario di archeologia, Roma-Bari, Laterza. Gelichi S. (ed.) 2001a, Dalla carta del rischio archeologico di Cesena alla tutela preventiva in Europa. Atti del Convegno di Studi (Cesena 1999), Firenze, All’Insegna del Giglio. Gelichi S. 2001b, Un rischio calcolato, qualche nota a margine della carta di Cesena, in Gelichi 2001a, 7-9. Gelichi S. 2002, Città pluristrati�cate: la conoscenza e la conservazione dei bacini archeologici, in Ricci 2002, 61-72. Gelichi S., Alberti A., Librenti M. (eds.) 1999, Cesena: la memoria del passato. Archeologia urbana e valutazione dei depositi, Firenze, All’Insegna del Giglio. Guarnieri C. (ed.) 2000, Progettare il passato. Faenza tra piani�cazione urbana e Carta Archeologica, Firenze, All’Insegna del Giglio. Malnati L. 2005, La veri�ca preventiva dell’interesse archeologico, «Aedon. Rivista di Arti e Diritto on line», 3 (http://www.aedon.mulino.it/). Manacorda D. 2004, Prima lezione di archeologia, Roma-Bari, Laterza. Marini Calvani M. 1978, Parma nell’antichità, in Banzola 1978, 19-70. Ricci A. 1996, I mali dell’abbondanza. Considerazioni impolitiche sui beni culturali, Roma, Lithos. Ricci A. (ed.) 2002, Archeologia e urbanistica. XII Ciclo di Lezioni sulla Ricerca Applicata in Archeologia (Certosa di Pontignano, Siena, 2001), Firenze, All’Insegna del Giglio. ABSTRACT The paper describes the features of the Archaeological Territorial Information System of the city of Parma. This is a cultural resource management GIS, that collects and organizes all the archaeological sites discovered in the municipal territory, and it should be useful both to archaeologists and to the municipality for city planning. The sites are positioned on the 1:5000 Regional Technical Map, that provides a spatial framework and information about roads and administrative boundaries. The Map is integrated with aerial photographs, historical maps, geological and geomorphological maps and a Digital Terrain Model. The attribute information for each of the archaeological sites is divided into separate tables and de�ned by thesauri, i.e. lists of preferred terms. Some thematic maps have been created: an Archaeological Map, i.e. a distribution map of the sites, chronological maps and an Archaeological Potential Map, i.e. a map that summarizes the archaeological features of the whole territory, also considering geological, geomorphological and historical information. 350 Archeologia e Calcolatori 20, 2009, 351-372 “MURA BASTIA”. DATI ARCHEOLOGICI, INFORMATIZZAZIONE E RILIEVI 3D LASER SCANNING DEL CASTELLO DEGLI ONIGO (PEDEROBBA, TREVISO) 1. Archeologia, rilievi e continuità progettuale Le indagini archeologiche, avviate oramai da diverso tempo presso il sito “Mura Bastia” (Fig. 1), sotto la direzione scienti�ca del prof. Guido Rosada (Topogra�a antica, Dipartimento di Archeologia, Università di Padova) sono continuate nel 2008, avvalendosi, come l’anno precedente, della pro�cua collaborazione del Laboratorio di Rilevamento e Geomatica (Dipartimento di Architettura, Urbanistica e Rilevamento, Università di Padova), diretto dal prof. Vladimiro Achilli. Lo scopo, infatti, era di completare da un lato il progetto di anastilosi virtuale della torre di Onigo, dall’altro di proseguire, mediante tecnologia laser scanning (Leica HDS2500), nell’acquisizione delle restanti murature pertinenti all’insediamento forti�cato, così da ottenere un modello tridimensionale reale dell’intero sito (Frassine et al. 2008). Proprio in relazione a tale �nalità, le prime due settimane della campagna 2008 sono state dedicate alla rimozione delle essenze infestanti (edera), ricorrendo in diversi casi solamente all’eliminazione del fogliame e degli apparati vegetali secchi, per non compromettere l’integrità delle strutture, stabili grazie alla presenza della vegetazione. Questa operazione ha permesso, al contempo, non solo di attuare una nuova documentazione fotogra�ca dei prospetti murari, ma anche di effettuare diverse sequenze fotogra�che digitali zenitali ad alta risoluzione delle creste murarie (ad eccezione di quelle pericolanti), con l’intento di comporre un rilievo digitale dettagliato dell’intera struttura castellare (Fig. 2). La necessità quindi di realizzare una nuova e più accurata planimetria del sito ha comportato lo scotico di una porzione areale pertinente alla cinta esterna sud-occidentale, di cui non era nota l’esistenza. Tale intervento ha dunque consentito di identi�care l’andamento e la morfologia della struttura muraria (Unità Stratigra�ca Muraria - USM 3007): conservata per un’altezza di circa un paio di metri, essa si presenta con una decisa inclinazione verso occidente rispetto alla verticale originaria e appare in buona parte spogliata sulla facciata meridionale, analogamente a quanto si registra per il contiguo muro d’ingresso (USM 3008) (Fig. 3, Fig. 12). Tutte le murature esposte sono state suddivise, in base alle loro caratteristiche morfologiche, in numerose porzioni planari documentate attraverso la tecnica del fotopiano (cfr. infra § 2). Questi dati, una volta rielaborati all’interno di uno speci�co software fotogrammetrico (E-FOTO), sono stati 351 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 1 – Onigo, “Mura Bastia”. Il sito forti�cato in due riprese aeree del 29 agosto 2008 (foto M. Frassine). 352 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning Fig. 2 – Particolare dell’area del dongione: fotopiani delle murature e corrispettiva restituzione gra�ca vettoriale (elaborazione M. Frassine, A. Bezzi). 353 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 3 – Riprese fotogra�che della cinta esterna sud-occidentale del castello di Onigo a �ne campagna 2008 (foto M. Frassine). Fig. 4 – Planimetria generale dell’insediamento forti�cato (elaborazione M. Frassine, A. Bezzi). 354 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning trasformati in immagini metricamente corrette e georeferenziate. In seguito al passaggio da una gra�ca di tipo raster (fotogra�a) ad un supporto vettoriale, attraverso un programma GIS (OPENJUMP), all’interno del quale ogni singolo elemento è stato disegnato manualmente, si è ottenuto un tradizionale rilievo archeologico e quindi una nuova e puntuale planimetria del sito (Fig. 4). Questa tecnica è stata impiegata anche per la documentazione di scavo, con l’intento di realizzare un articolato GIS (OPENJUMP, gvSIG) ove far con�uire sia i nuovi dati archeologici, sia quelli pertinenti alle campagne pregresse. Le prime applicazioni hanno dunque interessato l’area del dongione, e segnatamente la zona immediatamente a nord della cisterna, dove era stato possibile individuare una struttura rettangolare (Settore H, ambiente 200), in origine sviluppata probabilmente in addosso alla cinta settentrionale della forti�cazione (Frassine 2007). L’analisi stratigra�ca qui condotta su una serie di apporti che hanno livellato l’intero ambiente, colmando il dislivello tra la roccia in posto emergente a settentrione e il muro USM 200 a meridione, ha messo in luce il substrato roccioso, già ripulito quasi totalmente in antico dall’argilla pura arancione-rossastra, tipica della conformazione geologica del sito. L’assenza del paleosuolo potrebbe essere posta in relazione con cinque tagli nel bedrock, quattro di forma quadrangolare destinati all’alloggiamento di travi verticali e uno circolare per palo, riconducibili, forse, data la loro posizione topogra�ca, alla creazione di un’impalcatura lignea funzionale alla costruzione della cinta muraria (Fig. 5). L’esame condotto sui reperti mobili, per quanto scarsi, riconduce senza dubbio all’ambito medievale. Le varie indicazioni cronologiche sembrano, dunque, convalidare quanto già suggerito dalle indagini condotte nel corso delle campagne di scavo precedenti (Marchiori 2003; Ercolino 2004), consentendo di circoscrivere al XIV secolo d.C. il periodo di vita della struttura (Frassine et al. 2008, 300; Frassine 2009). Immediatamente ad occidente dell’ambiente appena descritto, si sviluppa un’altra area sub-trapezoidale delimitata a meridione dal perimetrale nord della torre (USM 1001), a settentrione dalla cinta esterna del castello (USM 2002), ad oriente dall’USM 100 e ad occidente dall’USM 2001. Questo settore (I), indagato attualmente solo nella porzione più orientale, ha evidenziato, al di sotto di alcuni strati moderni relativi al completo abbandono dell’area, la sopravvivenza di una struttura, riconducibile al periodo bellico (novembre 1917-ottobre 1918). Tale postazione militare, orientata in direzione del �ume Piave, si presenta come l’insieme ideale di due opere murarie a secco, separate da un punto di passaggio (Fig. 6). La porzione settentrionale è caratterizzata da una forma quadrangolare (104×124 cm circa) sviluppata in addosso all’USM 2000, mentre l’altra, immediatamente a meridione, si presenta come un muro allungato in senso nord-sud, leggermente curvo, con �lari pseudo-lineari realizzati con pietre di reimpiego provenienti dal castello. Questa struttura 355 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 5 – Settore H ambiente 200: fotopiano relativo alle fasi di frequentazione precedenti alla costruzione dell’edi�cio (elaborazione M. Frassine). Fig. 6 – Il settore I a �ne campagna 2008, documentato attraverso la tecnica del fotopiano (elaborazione M. Frassine). 356 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning appare completamente indipendente dal perimetrale nord della torre (USM 1001), dato che tra questi elementi non esiste un contatto �sico diretto: questo secondo varco serviva forse ad agevolare i collegamenti tra quest’area e l’interno della torre, che presentava, proprio nel perimetrale settentrionale, un’ampia apertura arti�ciale, ancora visibile nelle fotogra�e precedenti al crollo del 1989. Sembrano convalidare al momento tale lettura anche alcuni piani di calpestio legati alla frequentazione dell’area e alcune sistemazioni intenzionali localizzate soprattutto in corrispondenza dell’apertura arti�ciale, realizzata nell’USM 1001 (Fig. 7). La rimozione all’interno della torre (Settore J) del deposito relativo al crollo del 1989 aveva mostrato una sostanziale mancanza di strati�cazione antica, permettendo di individuare al contempo un ampio taglio nella zona nord-orientale (Frassine 2008). L’indagine condotta nel corso della campagna 2008 ha effettivamente consentito di iniziare a scavare i primi riempimenti, confermando, attraverso i vari reperti mobili (tra cui si ricordano diversi contenitori metallici per cibi in scatola, alcune bottiglie, qualche recipiente vitreo per inchiostro e alcuni bossoli di proiettili), la natura bellica dell’intervento (cfr. anche Frassine 2009). Diversa appare, invece, la situazione al limite sud del settore J, dove un tempo insisteva il perimetrale meridionale della torre (USM 1003). Qui, infatti, il deposito archeologico, sviluppato su un fronte di circa 12 m e per una fascia di almeno 2 m in forte pendenza, appare connotato da diverse unità stratigra�che, attribuibili ai momenti di vita, abbandono e crollo della struttura abitativa. L’analisi stratigra�ca, compiuta �nora solo attraverso la realizzazione di un sondaggio-trincea, ha consentito di identi�care un apporto macerioso omogeneo, caratterizzato da coppi e scaglie bianche del Monfenera, sviluppato a copertura di un ulteriore strato, che ha restituito una notevole quantità di reperti collocabili, sulla base di una prima analisi, al XIII secolo. Sono dunque questi gli unici elementi superstiti della strati�cazione antica, presenti in origine all’interno della torre, prima del cedimento del perimetrale meridionale. Questa muratura, individuata già parzialmente l’anno precedente (Frassine 2008), è stata intercettata ed esposta, nel 2008, a seguito dell’asportazione delle unità stratigra�che appena ricordate. La situazione presentava due diversi accumuli di pietre: uno, legato da malta, giacente a ridosso del taglio di fondazione, sarebbe riconducibile alle fondazioni originarie; l’altro sarebbe ascrivibile, per la sua stessa disposizione, al crollo del perimetrale sud (Fig. 8). Allo stato attuale delle conoscenze, sembra dunque ipotizzabile l’esistenza di due diverse modalità costruttive, strettamente connesse all’andamento geomorfologico della dorsale. Laddove il paleosuolo era particolarmente cospicuo, si è proceduto a tagliare il substrato sterile argilloso, per poi costruire un paramento a vista di conci in arenaria variamente sbozzati, all’interno del quale venne in seguito riversato 357 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 7 – Particolare del settore I: a destra la postazione militare e di fronte il taglio realizzato nel perimetrale nord della torre (foto M. Frassine). Fig. 8 – Settore J, area sud: esempio di integrazione tra documentazione tradizionale (campagna 2007) e un fotopiano digitale realizzato durante la campagna 2008 (elaborazione M. Frassine). 358 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning un nucleo di pietre, forse di scarto, di media e piccola pezzatura; laddove, invece, la roccia in posto era af�orante si è ricorso ad una semplice pulitura super�ciale dalle argille. M.F. 2. Dalla documentazione cartacea al digitale: informatizzazione dello scavo di “Mura Bastia”. 2.1 Antefatti Durante la campagna di scavo 2002-2003 è stato effettuato per il sito di “Mura Bastia” un primo tentativo di integrazione tra la documentazione archeologica tradizionale (disegno manuale) e le nuove tecnologie. Il lavoro congiunto di archeologi e topogra� informatici è stato suddiviso in tre distinte fasi a cui rispondevano tre diversi metodi operativi (Grossi et al. 2004). Una prima fase ha visto la realizzazione di una nuova griglia di picchetti di riferimento, posizionata utilizzando una stazione totale Geodimeter 500. A questo reticolo facevano riferimento i disegni delle singole unità stratigra�che, effettuati durante tutta la campagna di scavo attraverso i metodi di documentazione tradizionale (fase due). In�ne, come ultima operazione, è stato rilevato il posizionamento geodetico del sito attraverso la misurazione, in coordinate assolute, di due punti �ssi utilizzando i ricevitori GPS Leica SR299 e Novatel DL4. I dati così ottenuti sono serviti, durante il lavoro di post-scavo, per realizzare un progetto all’interno di un software CAD. Il reticolo di riferimento e i punti misurati attraverso la stazione totale, importati direttamente nel programma, hanno formato la base per il posizionamento degli altri elementi. I disegni manuali sono stati in un primo momento acquisiti tramite scanner e successivamente vettorializzati manualmente. Attraverso i picchetti della griglia di riferimento si è proceduto poi ad inserire i nuovi elaborati all’interno della planimetria generale dello scavo. Un ultimo passaggio è stato compiuto con la sovrapposizione della pianta palinsestica sulla Cartogra�a Tecnica Regionale, utilizzando come target di unione i punti �ssi misurati sul campo sia in coordinate assolute, attraverso i ricevitori GPS, sia nel sistema locale, mediante la stazione totale. 2.2 La campagna 2007: dal CAD al GIS Durante la fase di organizzazione della campagna di scavo 2007 si è deciso di impostare un programma di lavoro, inteso a sostituire gradualmente la documentazione di tipo tradizionale a favore dei nuovi metodi informatizzati. Sebbene nel passaggio non sussistessero particolari dif�coltà, bisognava comunque tener presente sin da subito l’importanza di mantenere un collega359 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo mento diretto con i rilievi cartacei prodotti in più di dieci anni di attività di scavo. Per questo motivo si è preferito evitare di utilizzare per le misurazioni un sistema di coordinate assoluto che, se da un lato avrebbe consentito di inserire il sito all’interno del suo contesto territoriale, permettendo quindi analisi spaziali di tipo extra-site, dall’altro avrebbe complicato notevolmente il lavoro di vettorializzazione e ricollocamento delle vecchie planimetrie cartacee. Si è dunque optato per l’impostazione sul campo, con l’ausilio di una stazione totale (Trimble 3600), di un sistema di coordinate relativo, che fosse ancorato al reticolo di riferimento e alla quota di cantiere, lasciando ad un momento successivo la migrazione verso un posizionamento geodetico. Il nuovo piano cartesiano è stato ideato prendendo come punto origine (500E, 500N) il picchetto “0N”, localizzato a ridosso del perimetrale orientale della torre, e come asse delle ordinate l’allineamento dato dai picchetti “0N” e “6N”, disassato rispetto al nord reale di circa 30 gradi. Un’altra novità, introdotta con la campagna 2007, è stata l’adozione di una piattaforma GIS rispetto al software di tipo CAD utilizzato negli anni 2002-2003. Un’applicazione GIS, infatti, essendo per sua natura un sistema territoriale, consente una migliore gestione dei dati spaziali, lasciando il progetto sempre aperto ad ulteriori integrazioni con dati nuovi o pregressi (Fig. 8). Inoltre, il GIS supporta in maniera nativa il formato raster georeferenziato, dato questo non trascurabile in quanto l’immagine costituisce l’elemento fondamentale del rilievo digitale bidimensionale effettuato con la tecnica del fotopiano. Un altro aspetto favorevole consiste nella possibilità di implementare tale piattaforma con le potenzialità di analisi offerte dal campo dei database e di conseguenza di ampliare notevolmente l’ef�cacia delle interrogazioni spaziali e delle ricerche incrociate. Non meno rilevante per la scelta operata è stato, in�ne, l’ampio spettro di applicativi GIS riscontrabili all’interno del gruppo del software libero. 2.3 Lo strumento informatico libero Tutto il procedimento informatico, applicato durante le campagne di scavo 2007-2008 e nel successivo periodo di rielaborazione, ha visto l’utilizzo esclusivo di software FLOSS (Free/Libre Open Source Software)1. Sia nella più semplice fase di acquisizione e archiviazione dei dati digitali, sia nelle più complesse operazioni di elaborazione, interpretazione e gestione delle informazioni sono stati impiegati gli applicativi liberi inseriti all’interno del sistema operativo ArcheOS2. Acronimo di Archaeological Operating System, è una distribuzione GNU/Linux pensata per risolvere i problemi della ricerca 1 Per una maggiore documentazione sulla de�nizione di FLOSS cfr. http://it.wikipedia.org/ wiki/Software_Free/Libero/Open-Source. 2 http://www.arc-team.com/archeos/. 360 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning archeologica in tutte le sue fasi: dalle ricognizioni preliminari �no alla pubblicazione dei dati, passando per la gestione dello scavo, la classi�cazione e lo studio dei reperti, la ricostruzione virtuale, etc. (Bezzi et al. 2005a-b; Barton et al. 2006; Bezzi et al. 2006b). La scelta di ricorrere al software libero rispetto a prodotti proprietari è stata dettata da necessità pratiche, molte delle quali trovano origine nelle quattro libertà fondamentali garantite dalla licenza GPL (General Public License)3: – “libertà” di eseguire il programma per qualsiasi scopo (libertà 0); – “libertà” di studiare il programma e modi�carlo (libertà 1); – “libertà” di copiare il programma in modo da aiutare il prossimo (libertà 2); – “libertà” di migliorare il programma e di distribuire pubblicamente i miglioramenti, in modo tale che tutta la comunità ne tragga bene�cio (libertà 3). Soprattutto la condivisione del software è un fattore essenziale per uno scavo universitario, in quanto permette di fornire allo studente non solo le conoscenze, ma anche lo strumento per metterle in pratica. Si poteva, inoltre, ricorrere ad un supporto tecnico esteso, quale è una comunità internazionale di utenti/sviluppatori4, oltre ad avvalersi di formati digitali “aperti”, facilmente interscambiabili e accessibili nel lungo periodo (per esempio ODF, GML, SVG, etc.). In�ne, non meno trascurabile appare il fattore economico, che ha permesso di reinvestire nello scavo diverse somme di denaro, che sarebbero state altrimenti spese per l’acquisto delle licenze d’uso di programmi proprietari. 2.4 La metodologia di rilievo L’elemento base della documentazione applicata nel sito di “Mura Bastia” è il rilievo digitale bidimensionale effettuato con la tecnica del fotopiano. Il metodo operativo prevede un’organizzazione del lavoro distinta in due fasi principali: le misurazioni sul campo e il post-processing informatico. Nella prima fase l’oggetto della documentazione (lo strato o la struttura muraria) viene diviso idealmente in differenti piani altimetrici a seconda della morfologia della sua interfaccia superiore. Più la super�cie è irregolare, più è complesso e laborioso il procedimento di rilievo. Per ogni piano vengono posizionate almeno quattro marche di raddrizzamento, successivamente misurate con la stazione totale, e in�ne viene scattata una fotogra�a zenitale. La verticalità del punto di ripresa rispetto all’oggetto e la divisione in aree altimetriche permettono di ridurre al minimo gli errori prospettici e le distorsioni. 3 html. La versione completa della GPL è consultabile sul sito http://www.gnu.org/licenses/licenses. 4 A questo proposito vanno citati alcuni progetti: GFOSS (http://www.gfoss.it/drupal/), IOSA (http://www.iosa.it/) e DAD Project (http://wiki.uibk.ac.at/con�uence/display/excavationtutor/Home). 361 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 9 – Fotopiano realizzato con il metodo “Aramus”: risultato �nale (a sinistra) ed evidenziazione delle singole fotogra�e (a destra) (elaborazione A. Bezzi). La seconda fase, svolta all’interno di stazioni informatiche, consiste nella rielaborazione dei dati grezzi ottenuti sul campo. Il procedimento impiegato per la creazione di fotopiani è il cosiddetto “metodo Aramus” (Bezzi et al. 2006a)5, che permette di realizzare un fotomosaico dall’unione delle singole riprese fotogra�che (Fig. 9). In sostanza, tale metodo consente di distorcere, scalare e ruotare una fotogra�a originale sopra un’immagine di base georeferenziata (modello) sulla quale sono riportate le marche di raddrizzamento, attraverso una serie di passaggi qui brevemente riassunti (Fig. 10). Le coordinate scaricate dalla stazione totale vengono importate all’interno del programma GIS GRASS come livello vettoriale. Una volta impostate l’area di visualizzazione del monitor sul nuovo layer, nonché la risoluzione della regione del progetto (dimensione del pixel in metri), si procede prima ad una conversione del �le vettoriale in raster e poi all’esportazione di questo in formato TIFF, con riferimento geogra�co TFW. Il �le prodotto è un’immagine bianca con indicati in rosso i pixel associati alle coordinate della marca di retti�ca, che però risulta di dif�cile lettura. Per ovviare a questo problema e agevolare, quindi, la fase di comparazione tra l’immagine originale e quella di base, è necessario esportare dal monitor di 5 Il metodo Aramus è stato ideato da Arc-Team s.n.c. per lo scavo scuola dell’Università di Innsbruck (Institut für Alte Geschichte und Altorientalistik) ad Aramus, Armenia. L’intero procedimento è oggetto di un tutorial del DAD Project, accessibile al sito http://wiki.uibk.ac.at/con�uence/display/excavationtutor/Home/. 362 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning Fig. 10 – Esempli�cazione di alcuni passaggi per il raddrizzamento delle immagini: a) elaborazione delle coordinate in un editor di testo; b) visualizzazione delle marche di retti�ca all’interno di GRASS; c-d) comparazione tra la fotogra�a originale e il modello in E-FOTO; e) unione delle immagini e calibrazione dei colori in GIMP; f) il fotomosaico �nale (elaborazione A. Bezzi). GRASS la visualizzazione del livello vettoriale con l’indicazione del suo valore numerico (nome della marca). La nuova immagine deve essere unita e scalata sul primo elaborato all’interno del software di gra�ca raster GIMP. Ottenuto questo modello, il passaggio successivo avviene all’interno del modulo RECTIFICATION della suite di fotogrammetria E-FOTO. L’uso di questo 363 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo modulo è abbastanza semplice e intuitivo: una volta caricati la fotogra�a originale e il modello, è suf�ciente indicare al software, nello stesso ordine, la posizione delle marche di raddrizzamento in entrambe le immagini, prima di procedere alla retti�ca e al salvataggio. L’immagine originale viene così scalata e posizionata sul modello precedentemente ottenuto, che mantiene inalterate le sue dimensioni e la sua georeferenziazione. Il punto di forza di questo procedimento consiste nel poter riunire tutti i �le raster esportati da E-FOTO caricandoli come livelli all’interno di GIMP, dove peraltro sarà possibile effettuare anche accorgimenti “estetici” come la calibrazione dei colori e la sfumatura delle sovrapposizioni. Tutti i fotomosaici vengono successivamente vettorializzati manualmente con OPENJUMP, un software territoriale con ottimi strumenti di disegno (Fig. 2). Le immagini georeferenziate e i livelli vettoriali con�uiscono, in�ne, all’interno di gvSIG, strumento con il quale si sta realizzando il GIS di scavo. A.B. 3. Il rilievo 3D completo e texturizzato delle mura del castello di Onigo ottenuto mediante metodologia laser scanning terrestre 3.1 Acquisizione di tutti gli alzati conservati Il rilievo 3D completo delle mura del castello è stato effettuato nella campagna di misure realizzata nel 2008, utilizzando il laser scanner a tempo di volo (TOF - Time Of Flight) HDS2500, che presenta una precisione di 4/6 mm sul singolo punto per distanze laser scanner – oggetto da 1,5 a 50 m. In continuità con le acquisizioni realizzate nel 2007, durante le quali sono stati rilevati gli alzati della torre, la cisterna e 10 blocchi del crollo avvenuto nel 1989 (Frassine et al. 2008), nel 2008 sono state effettuate scansioni laser di tutte le murature interne ed esterne del castello e di due crolli della torre con passo medio di campionamento di 1 cm. Naturalmente, per la generazione del modello 3D è necessario che le differenti scansioni vengano allineate nello stesso sistema di riferimento dei dati acquisiti nella campagna precedente: per questo motivo è stata progettata, materializzata e misurata una rete topogra�ca di inquadramento, ampliando la rete de�nita e rilevata nel 2007. Da tre vertici di coordinate note della rete, che complessivamente era costituita da sette punti, sono stati scelti altri otto riferimenti, intervisibili con i vertici noti, in modo da agganciare il nuovo rilievo con quello effettuato l’anno passato. In questo modo, i vertici noti, in sede di elaborazione dati, verranno considerati in�nitamente �ssi e saranno utilizzati per calcolare le coordinate dei nuovi punti a partire da quelli noti. I nuovi punti della rete di inquadramento sono stati scelti in modo da essere intervisibili a due a due 364 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning e, per ogni braccio, con almeno un vertice della rete del 2007. Inoltre, questi punti sono stati posizionati in zone accessibili, internamente ed esternamente al castello in quanto serviranno per il rilievo dei target laser scanning. Infatti, prima dell’acquisizione delle nuvole di punti, sulle murature degli alzati sono stati posti segnali retro-ri�ettenti che lo strumento può riconoscere in modo semi-automatico: operativamente, vengono effettuate le singole scansioni generali sull’area da rilevare e, dopo aver generato la nuvola di punti, i target vengono identi�cati manualmente sulla visualizzazione 3D. In questo modo il laser scanner effettua scansioni di dettaglio in corrispondenza dell’area selezionata, individuando le coordinate del centro dei target laser scanning come baricentro delle nuvole di punti acquisite con altissima risoluzione. Questi riferimenti risultano necessari per l’allineamento delle scansioni che non presentano sovrapposizioni reciproche oppure che sono molto scarse. Sebbene il numero minimo di segnali necessario per effettuare la co-registrazione deve essere di tre, in realtà sono stati posizionati sempre almeno cinque target nella �nestra visibile con una singola acquisizione. Tale scelta è stata attuata non solo per prevenire eventuali problemi legati al mancato rilievo di qualche segnale che avrebbe potuto compromettere l’intero lavoro, ma anche per incrementare la precisione della roto-traslazione delle nuvole di punti nella fase di allineamento. Inoltre, i target sono stati collocati in modo da coprire uniformemente l’area di scansione, evitando allineamenti e favorendo il posizionamento su piani diversi. Alcune scansioni sono state realizzate senza predisporre i target laser scanning a causa dell’inaccessibilità del sito: in queste situazioni sono state previste ampie sovrapposizioni delle nuvole di punti (40÷50%), dovendo poi realizzare il loro allineamento solo nella zona in comune tra scansioni adiacenti. Oltre alle murature presenti, sono state acquisite anche le super�ci di due crolli della torre che non erano stati adeguatamente rilevati nella campagna del 2007, ma che erano stati identi�cati e posizionati in 2D nell’analisi basata sul confronto con fotopiani ottenuti da immagini antecedenti il crollo (Frassine et al. 2008, 301-309). Il rilievo è stato effettuato con passo di campionamento medio di 0,5 cm a causa della complessità morfologica dei blocchi e senza utilizzare target laser scanning. Analogamente alla campagna 2007, per ridurre il numero complessivo di scansioni, è stata acquisita l’intera area nella quale erano posizionati i crolli, anziché operare masso per masso. Considerando entrambe le campagne, sono state acquisite complessivamente 131 scansioni e rilevati 92 target. L’acquisizione delle caratteristiche radiometriche è stata effettuata con la camera digitale metrica Canon EOS 1 DS Mark II che fornisce immagini con risoluzione di 16,7 Megapixel: le riprese sono state realizzate sia dai punti di stazionamento del laser scanner, che da altre posizioni per ridurre le zone d’ombra e gli elementi in sottosquadro. 365 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo 3.2 Estrazione del modello complessivo La rete topogra�ca di inquadramento, rilevata con misure sovrabbondanti, è stata compensata nel sistema di riferimento della rete calcolata nel 2007. Fissando tre vertici di quest’ultima, le coordinate dei nuovi punti sono state determinate secondo lo schema a rete vincolata; in questo modo è stato possibile ottenere le coordinate dei nuovi vertici con errori massimi di 4÷5 mm, che risultano suf�cientemente contenuti per l’estrazione di un modello 3D completo, metricamente corretto, accurato e ad alta risoluzione, di tutti gli elementi rilevati mediante il laser a scansione. Le coordinate dei target sono quindi state ottenute rispetto alla rete topogra�ca locale complessivamente costituita da 15 vertici. Le nuvole di punti sono state allineate mediante il software Cyclone v. 5.3, utilizzando due differenti procedure: le acquisizioni provviste di target laser scanning georiferiti sono state roto-traslate nel sistema di riferimento dei segnali (e quindi della rete topogra�ca di inquadramento) imponendo i valori delle coordinate rispettive (modalità survey registration); invece, le scansioni senza target sono state allineate tra loro e con quelle contenenti i segnali, per mezzo delle ampie sovrapposizioni tra acquisizioni successive (modalità cloud registration). Operativamente, nella prima fase le due generiche scansioni sono state avvicinate su punti naturali omologhi comuni, ben visibili e riconosciuti sulle nuvole di punti: successivamente è stato applicato l’algoritmo ICP (Iterative Closest Point) per realizzare un allineamento più preciso (Besl, McKay 1992; Chen, Medioni 1992; Rusinkiewicz, Levoy 2001). La co-registrazione di tutte le nuvole di punti degli alzati conservati, relativi sia alla campagna del 2007 sia a quella del 2008, ha permesso di generare il modello 3D �nale per nuvola di punti con errore massimo di 6 mm e risoluzione non superiore ad 1 cm (Fig. 11). Nel caso invece dei due blocchi di crollo, l’allineamento delle nuvole di punti è stato effettuato solo in modalità cloud registration per l’assenza di target laser scanning georiferiti. I modelli 3D �nali dei due blocchi sono stati generati con errore massimo di 5 mm. 3.3 Texture mapping dei modelli generati L’informazione radiometrica, correttamente texturizzata sui rispettivi modelli tridimensionali, fornisce prodotti fotorealistici e immediatamente utilizzabili, che risultano molto utili soprattutto per rilievi ad alta risoluzione e analisi globali. Il texture mapping dei modelli per nuvola di punti con immagini digitali ad alta risoluzione è stato realizzato con il software Reconstructor 2. Sono stati identi�cati e misurati punti omologhi, facilmente riconosciuti tra modello 3D visualizzato in base ai valori di ri�ettanza e le immagini digitali. In questo modo, sia per le murature che per i paramenti murari dei blocchi 366 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning Fig. 11 – Modello �nale 3D del castello di Onigo ottenuto dall’allineamento di tutte le nuvole di punti. 367 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 12 – Scansioni relative alla muratura in prossimità dell’ingresso al castello: a) per nuvola di punti e b) dopo la texturizzazione del modello 3D. Fig. 13 – Visualizzazione tridimensionale della porzione muraria relativa alla cinta meridionale del dongione: si notino le parti rappresentate per nuvola di punti e quelle texturizzate. acquisiti, ad ogni punto del modello è stata associata l’informazione di colore che deriva dai pixel delle immagini digitali (Figg. 12-13). Il modello texturizzato ottenuto permette una chiara lettura della tessitura dei paramenti, metricamente corretta e utile per analisi comparative e studi di stratigra�a muraria; inoltre, consente di progettare restauri con368 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning Fig. 14 – Rappresentazione esempli�cativa del grado di dettaglio della texturizzazione che consente un’agevole lettura della tessitura muraria. servativi mirati, anche per quelle strutture dif�cilmente rilevabili con metodi diretti (Fig. 14). 3.4 Anastilosi virtuale della torre In continuità con quanto realizzato precedentemente, i modelli dei due crolli rilevati nella campagna del 2008 sono stati roto-traslati nella posizione fornita dal raddrizzamento delle immagini disponibili prima del crollo del 1989 (Frassine et al. 2008, 307-309). Non avendo altre informazioni, per la collocazione virtuale dei blocchi è stata mantenuta l’ipotesi di verticalità della torre rispetto al piano del prospetto individuato dal fotopiano. È stato quindi possibile posizionare virtualmente in 3D cinque blocchi di crollo con la relativa texture, ossia tutti quelli individuati dallo studio compiuto sulle murature (Fig. 15). 369 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Fig. 15 – Anastilosi parziale texturizzata della torre con l’esatta collocazione virtuale dei cinque blocchi di crollo. 3.5 Conclusioni L’integrazione delle metodologie di rilievo 3D, e in particolare del laser scanning terrestre, con le tecniche topogra�che classiche, ha permesso l’estrazione di un modello accurato e ad alta risoluzione di tutto il castello di Onigo. La topogra�a classica risulta, infatti, indispensabile per la realizzazione di reti di inquadramento, necessarie per la misura di tutti i target laser scanning in uno stesso sistema di riferimento. In questo modo è dunque possibile allineare le singole scansioni laser utilizzando le coordinate dei target georiferiti come punti �ssi senza la necessità di sovrapposizioni reciproche tra nuvole di punti adiacenti, se non per garantire la continuità di rilievo e di rappresentazione. Il modello estratto è stato quindi texturizzato con immagini digitali metriche ad alta risoluzione ottenendo un prodotto non solo metricamente corretto, ma anche fotorealistico con una chiara lettura della tessitura muraria. 370 “Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning Il rilievo dei blocchi, già posizionati in 2D sulla base di immagini storiche retti�cate antecedenti al crollo del 1989, è stato completato nella campagna del 2008. I modelli dei due massi rimanenti sono stati roto-traslati nel sistema di riferimento della torre ottenendo l’anastilosi parziale del paramento est mediante il posizionamento virtuale 3D di cinque crolli texturizzati. La metodologia descritta risulta quindi particolarmente utile per la ricostruzione virtuale di strutture ridotte in frammenti, quando sono disponibili due fattori essenziali: il rilievo 3D dei singoli elementi, insieme alle informazioni inerenti la forma originaria dell’oggetto prima della distruzione. M.F., V.A., D.B. Matteo Frassine Dipartimento di Archeologia Università di Padova Alessandro Bezzi Arc-Team s.n.c Massimo Fabris, Vladimiro Achilli, Denis Bragagnolo Dipartimento di Architettura, Urbanistica e Rilevamento Laboratorio di Rilevamento e Geomatica Università di Padova Ringraziamenti Gli autori desiderano ringraziare coloro che hanno consentito lo svolgersi delle attività di ricerca in tutti questi anni: la Regione Veneto, il Comune di Pederobba e la fondazione Opere Pie. Un sentito ringraziamento per la sponsorizzazione fornita deve essere rivolto alla ditta locale “Asolo Costruzioni e Restauri”, nonché al signor Renzo Sartor, titolare dell’“Autof�cina concessionaria automobili Sartor” di Onigo di Pederobba, che ha gentilmente messo a disposizione un piccolo ultraleggero (P92-S Echo), grazie al quale è stato possibile eseguire un lungo sorvolo del sito forti�cato, ottenendo una nuova documentazione fotogra�ca aerea dell’area di scavo. In�ne, gli autori ringraziano l’ing. Andrea Menin e la dott.ssa Ginevra Boatto del Laboratorio di Rilevamento e Geomatica dell’Università di Padova per il contributo fornito nell’elaborazione dei dati. BIBLIOGRAFIA Bagnara R., Macchi Jànica G. (eds.) 2006, Open Source, Free Software e Open Format nei processi di ricerca archeologici. Atti del I Workshop (Grosseto 2006), Firenze, Centro Editoriale Toscano. Barton M., Bezzi A., Bezzi L., Francisci D., Gietl R., Neteler M. 2006, GRASS, un potente GIS per archeologi, in Bagnara, Macchi Jànica 2006, 95-101. Besl P.J., McKay N.D. 1992, A method for registration of 3-D shapes, in IEEE Transactions on Pattern Analysis and Machine Intelligence, 14, 2, 239-256. Bezzi A., Bezzi L., Francisci D., Gietl R. 2005a, L’utilizzo di GRASS in archeologia, «Geomatic Workbooks», 5, 2005. Bezzi A., Bezzi L., Francisci D., Gietl R. 2005b, ArcheOS 1.0 Akhenaton, the �rst GNU/ Linux live distribution for archaeologists, in W. Boerner, S. Uhlirz (eds.), Archäologie und Computer 2005. Workshop 10, Kulturelles Erbe und neue Technologien, Wien, CD-Rom. 371 M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo Bezzi A., Bezzi L., Gietl R. 2006a, Aramus 2006: an international archaeological expedition completely supported by Free and Open Source Software, in W. Boerner, S. Uhlirz (eds.), Archäologie und Computer 2006, Workshop 11, Kulturelles Erbe und neue Technologien, Wien, CD-Rom. Bezzi A., Bezzi L., Francisci D., Gietl R. 2006b, ArcheOS 1.1.6. Akhenaton: la nuova release della prima distribuzione GNU/Linux per archeologi, in Bagnara, Macchi Jànica 2006, 7-16. Chen Y., Medioni G. 1992, Object modelling by registration of multiple range images, «Image and Vision Computing», 10, 3, 145-155. Ercolino R. 2004, Settore H, in G. Rosada (ed.), Pederobba - Onigo (Treviso): Mura della Bastia. Scavo delle strutture e del deposito medievale: campagna 2003, «Quaderni di Archeologia del Veneto», 20, 49-54. Frassine M. 2007, Settore H ambiente 200, in G. Rosada (ed.), Onigo (Treviso): Mura della Bastia. Campagna 2006, «Quaderni di Archeologia del Veneto», 23, 60-62. Frassine M. 2008, Una campagna di passaggio, una svolta per il sito ‘Mura Bastia’, in M. Frassine, G. Rosada (eds.), Onigo (Treviso): Campagna 2007. Scavo archeologico e rilievo 3D laser scanning di “Mura Bastia”, «Quaderni di Archeologia del Veneto», 24, 51-54. Frassine M. 2009, Scavi, rilievi e restauri nel castello degli Onigo, in M. Frassine, G. Rosada (eds.), Onigo, “Mura Bastia”: campagna 2008, «Quaderni di Archeologia del Veneto», 25, in corso di stampa. Frassine M., Rosada G., Fabris M., Achilli V., Bragagnolo D., Bezzi A. 2008, “Mura della Bastia” - Onigo di Pederobba (Treviso). Ricerche archeologiche, rilievo 3D laser scanning e anastilosi virtuale in un castello medievale del Pedemonte trevigiano, «Archeologia e Calcolatori», 19, 293-321. Grossi P., Pirotti F., Pontin M. 2004, Rilievo, posizionamento geodetico, elaborazione gra�ca nelle campagne 2002-2003, in G. Rosada (ed.), Pederobba - Onigo (Treviso): Mura della Bastia. Scavo delle strutture e del deposito medievale: campagna 2003, «Quaderni di Archeologia del Veneto», 20, 47-49. Marchiori A. 2003, Settore H, in A. Marchiori (ed.), Onigo (Treviso) 2002: ripresa degli scavi del castello in località “Mura della Bastia”, «Quaderni di Archeologia del Veneto», 19, 77-82. Rusinkiewicz S., Levoy M. 2001, Ef�cient variants of the ICP algorithm, in Proceedings of the Third International Conference on 3D Digital Imaging and Modelling (Quebec City 2001), 145-152. ABSTRACT This paper concerns computer applications for the management of archaeological data through GIS software, as related to the 2008 excavation campaign at “Mura Bastia”, Onigo (Treviso), Italy. The approach allows for the correlation of data previously acquired with those collected more recently using newer technologies. The shift from the traditional way of drawing archaeological records to the new digital technique began during the excavation of 2007. All of the walls and the layers were documented using a total station and a digital camera (photomosaic method). The elaboration of raw data was obtained using Free and Open Source Software only (GRASS, E-FOTO, GIMP, OPENJUMP, gvSIG). All of the new information levels (bi-dimensional raster and vector layers) were connected with the digitized plan of the old excavation into a GIS project that became the �nal product of the whole work. 3D terrestrial laser scanning surveys, integrated with classical topography and digital photogrammetry methodologies, allowed us to extract an accurate and photorealistic digital model of the Onigo castle. Moreover, a partial 3D virtual anastylosis of the tower was completed thanks to the reallocation of two missing elements in their correct position. 372 Archeologia e Calcolatori 20, 2009, 373-396 BAIA: LE TERME SOMMERSE A PUNTA DELL’EPITAFFIO. IPOTESI DI RICOSTRUZIONE VOLUMETRICA E CREAZIONE DI UN MODELLO DIGITALE* 1. Introduzione Quando, ventiquattro anni fa, iniziammo il rilievo dei ruderi sommersi presso Punta dell’Epitaf�o a Baia elaborammo un disegno in scala 1:250 di quei resti murari nei quali fu possibile riconoscere un complesso termale1. Un accurato esame delle murature superstiti e di interventi, quali ristrutturazioni, ripavimentazioni e tompagnature, ci permise di ricostruire anche le principali fasi di vita di quegli edi�ci. In questa sede intendiamo andare oltre nell’analisi del primo rilievo per tentare di ricostruire la volumetria delle terme sommerse a Punta dell’Epitaf�o, ovvero analizzeremo gli aspetti peculiari di taluni ambienti e, di volta in volta, ne proporremo un’ipotesi di ricostruzione tridimensionale. Ovviamente nessun risultato de�nitivo può scaturire da dati parziali come quelli che emergono da un’indagine dei soli resti murari ancora visibili (il rilievo subacqueo è stato condotto unicamente sulle strutture che emergevano dal fondo sabbioso preventivamente liberato dal perenne “tappeto” di alghe). Tuttavia sentivamo impellente l’esigenza di non fermarci al solo rilievo; volevamo ridare dignità di monumento a quelli che, da sempre, apparivano come anonimi ammassi di pietre o, dopo la loro pubblicazione, �gure geometriche disegnate su un foglio. Abbiamo quindi intrapreso un cammino lunghissimo che ha richiesto l’acquisizione delle tecniche di modellazione tridimensionale e di tutte quelle metodiche, divenute ormai classiche, di texturing e rendering per giungere, in�ne, alla realizzazione di un modello tridimensionale con resa il più possibile fotorealistica (Borra 2000, 259-272). Partendo da un accurato rilievo manuale delle dimensioni delle murature superstiti e delle rispettive altezze dai piani di calpestio sono stati creati due modelli: il primo mostra la situazione dei resti murari come si presentavano negli anni Ottanta al tempo del rilievo e quindi riproduce, in ambiente subacqueo, i “ruderi” del quartiere termale e la strada che lo �ancheggia (Fig. 1). * Desidero ringraziare l’ing. Pompeo Vallario la cui pazienza e competenza sono state per me indispensabili per la creazione delle immagini di questa relazione. Un ringraziamento va anche al dott. Eduardo Scognamiglio con il quale ho condiviso lunghe ore in immersione e lunghissime serate a discutere sui molti misteri ancora insoluti di queste terme sommerse. Sono grato anche all’amico dott. Di Fraia a cui si deve la prima interpretazione di quei resti murari. 1 I risultati di questa ricerca sono pubblicati in Di Fraia et al. 1985-86. In quella sede sono state presentate le descrizioni accurate di tutte le murature riportate nel rilievo, a cui si fa riferimento nel presente articolo. Cfr. più di recente Lombardo 1993. 373 N. Lombardo Per le oggettive dif�coltà di operare in ambito subacqueo e per l’impossibilità di realizzare scavi sistematici che restituissero gli ambienti nella loro totalità, non sono state applicate texture tratte da foto scattate in situ, ma riprese da murature fotografate in ambito aereo, rispettando, ovviamente, il tipo di muratura e/o di rivestimento. Il secondo modello, partendo dalle informazioni del primo, propone una ricostruzione totale degli ambienti, aggiungendo le porzioni mancanti delle pareti e le coperture. In un secondo momento si sono create e aggiunte le decorazioni parietali e pavimentali e pochi, scelti, elementi d’arredo (porte, cancelli, transenne, panche), evitando una sovrabbondanza di elementi, soprattutto decorativi che, pur aumentando l’impatto visivo, avrebbero difettato di veridicità. Per quanto riguarda le immagini, ad esclusione della planimetria, si tratta di inediti. Queste immagini sono in realtà singoli fotogrammi estrapolati da una serie di animazioni realizzate intorno e all’interno di un modello digitale in 3D del quartiere sommerso di Punta dell’Epitaf�o ricostruito, da chi scrive, in scala 1:1. Il lavoro di ricostruzione tridimensionale in digitale degli edi�ci sommersi nella rada di Baia è stato iniziato, come si è detto, circa venti anni or sono e in questa sede sono presentati, per la prima volta, i risultati di questa ricerca. 2. La pianta Anche ad un osservatore inesperto non sfugge il disegno poco omogeneo degli spazi: ad un nucleo, quello settentrionale (Tav. I, in giallo), con orientamento nord-sud, ben in asse anche con la breve rampa che dalla strada basolata consentiva la discesa alle terme, si af�anca un blocco obliquo con orientamento nord-est/sud-ovest (Tav. I, in verde) e tra i due un terzo blocco costituito da due ambienti dalla forma irregolare e da un corridoio il cui pavimento è impostato su muretti paralleli a mo’ di suspensurae (Tav. I, in rosso). Di Fraia ha chiarito i motivi salienti di questa disomogeneità planimetrica (Di Fraia et al. 1985-86, 253-254); qui ci limiteremo a dire che si tratta di due nuclei chiaramente distinti per funzione e cronologia. 3. L’ambulacro n. 62 L’ambulacro, che all’epoca del nostro rilievo ancora conservava in parte il suo tessellato bianco (Di Fraia et al. 1985-86, 227-230, �gg. 9-10), limita ad ovest tutto il quartiere sommerso e corre parallelo alla strada che, in posizione più elevata, �ancheggia le terme. 2 374 La numerazione degli ambienti corrisponde a quella indicata nella pianta a Tav. I. Baia: le terme sommerse a Punta dell’Epitaf�o Tav. I – Le terme di Punta dell’Epitaf�o. Fig. 1 – Strada sommersa. I gradini di accesso alle terme, la piccola vasca rettangolare n. 17 e, al centro, il corridoio n. 6. 375 N. Lombardo Discesi i due gradini che dalla strada immettono alle terme (Di Fraia et al. 1985-86, 218-250; cfr. anche Lombardo 1993, 57, �g. 1), come doveva presentarsi questo spazio ai frequentatori di III secolo che lo percorrevano da nord verso sud? Purtroppo il pessimo stato di conservazione di quest’area, invasa da crolli di ogni genere e ricoperta da un compatto strato di pietrisco e di alghe, fornisce scarsissimi elementi documentari. Analizziamo comunque i resti sommersi della parte orientale. Sul lato sinistro, ad angolo con la corte d’ingresso (Tav. I, n. 2), un piccolo vano cieco (m 1,63×2,10), il cui elevato si conserva per non più di due �lari laterizi, potrebbe far pensare ad un bacino di fontana o ad un castellum aquae (Tav. I, n. 17). Subito oltre, verso sud, si riconosce un ambiente rettangolare interpretato come natatio (Di Fraia et al. 1985-86, 246-248, �gg. 18-19; Lombardo 1993, 61, �g. 8). Per accedere a questo vano si realizzò il corridoio rialzato su muretti paralleli che si rinviene subito a sud e che corre in direzione ovest-est (Tav. I, in rosso). È probabile che su questo lato (ovest) la natatio fosse priva di aperture così da assicurare ai bagnanti anche una certa privacy rispetto a quanti transitavano nell’adiacente corridoio (n. 6). Quindi in questo primo tratto la parete orientale dell’ambulacro n. 6 presumibilmente doveva apparire lineare e continua, forse movimentata appena da una decorazione di lesene e lastre di marmo (in più punti nelle pareti si sono notati i fori per le grappe metalliche atte a fermare le lastre del rivestimento in marmo). Continuando verso sud, si è in corrispondenza del piccolo vano cieco di forma triangolare e della vasca minore del frigidario (n. 13) ricavata per intero nello spessore del muro; pertanto anche questo tratto dif�cilmente poteva prevedere delle aperture. Troviamo una seconda apertura solo all’estremità meridionale di questo lungo tratto rettilineo, nel punto in cui si rinviene l’ingresso principale alla parte propriamente termale; qui la parete piegava ad “elle” verso sud-ovest e il corridoio che stiamo seguendo raggiungeva la zona antistante il ninfeo di Claudio. Percorriamo adesso la facciata ovest, ossia il muro che materialmente separava le terme dalla strada. Pinneggiando da nord verso sud, e cioè dai gradini della strada soprelevata sino al punto in cui il corridoio svolta a sudovest, si resta colpiti dalla maestosità dei crolli e degli smottamenti dei basoli della strada che hanno invaso, scivolando via dalla sede originaria, una parte del corridoio (Fig. 1). Ciò nonostante, quando fu eseguito il rilievo della zona ancora si riconoscevano due tratti di cementizio rivestiti di opus reticulatum e latericium: i miseri resti del muro occidentale. Non è dif�cile immaginare che anche questa parete doveva presentarsi rettilinea e uniforme per tutta la sua lunghezza con un’unica apertura in corrispondenza dei gradini che davano accesso alle terme. Negli anni Ottanta due brevi ante in laterizio erano ancora in parte 376 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 2 – Corridoio n. 6. A destra le scale di accesso alle terme; a sinistra il bacino di fontana e la corte scoperta antistante le scale. visibili ai lati di questo ingresso (Tav. I, sui lati dei due basoli rettangolari; cfr. anche Fig. 1). Ci sembra che nulla ostacoli l’ipotesi che l’ambulacro n. 6 fosse dotato di una copertura, se non il fatto che uno spazio lungo 27 m e largo appena 2 poteva creare qualche problema di luminosità se destinato ad essere coperto. Forse una serie di aperture era sul lato occidentale verso la strada; alcune �nestre, poste in posizione elevata, impedivano ai curiosi di sbirciare all’interno e fornivano l’illuminazione di cui c’era bisogno. In realtà, particolarmente per questo spazio adiacente alle scale, per i problemi di conservazione a cui si accennava in precedenza, la nostra ricostruzione non può che essere parziale: in che modo l’eventuale volta dell’ambulacro si raccordava con l’area della corte (n. 2)? Questo spazio era a sua volta coperto? Questi e per la verità molti altri interrogativi restano per ora senza risposta (Fig. 2). Per il corridoio n. 6 abbiamo immaginato una copertura con volta a botte e solaio (un esempio di corridoio di servizio coperto con solaio in Broise 1987, 103-107, 111-113). 377 N. Lombardo Fig. 3 – Interno dell’ambiente n. 9. Volta coperta a botte con due �nestre sui lati brevi. Al centro l’ingresso orientale da cui si accedeva al tepidario. 4. L’ambiente n. 9 L’ambiente misura m 3,28×5,94 e al momento del rilievo mostrava tre ingressi e i resti del pavimento in tessere bianche. Siamo nel cuore del nucleo termale, a ridosso della parte centrale del frigidario e dell’abside settentrionale del calidario n. 10. Un ambiente di dimensioni ridotte, dalla forma rettangolare allungata, nel quale possiamo riconoscere un apodyterium. Un tempo, forse, sulla parete settentrionale (oggi crollata e riversa al suo interno) ci potevano essere nicchie entro le quali i frequentatori depositavano le proprie vesti per poi avviarsi, attraverso l’ingresso posto ad est, nel tepidario n. 11 (Fig. 3). Per la nostra ricostruzione abbiamo immaginato le pareti di questo ambiente lisce e in parte ci siamo rifatti all’apodyterium del settore femminile delle Terme Stabiane a Pompei, che presentava pareti intonacate di colore rosso e giallo con volta a botte e lunette di colore chiaro (Eschebach 1979). 378 Baia: le terme sommerse a Punta dell’Epitaf�o 5. Il tepidario n. 11 Siamo nella zona meglio conservata di queste terme sommerse, tanto che le altezze delle pareti variano da m 0,40 �no a m 1,35. Pinneggiando sul fondo, la lettura della pianta è immediata: un bell’ambiente di forma rettangolare (misura m 5,30×7,33) con numerosi ingressi, due dei quali tompagnati. Il rilievo e lo studio dei livelli hanno chiarito che il piano di calpestio è stato divelto; così gli elementi in cotto visibili, ancora ben ancorati tra loro, sono quel che resta della sottopavimentazione. Due piastrini laterizi, lungo le pareti orientale e occidentale, testimoniano che un tempo il pavimento doveva essere sorretto da simili elementi. Ai tempi del rilievo si conservava solo un piccolissimo tratto del piano originario, nell’angolo occidentale, nei pressi della soglia di accesso al frigidario; ma i resti di queste lastre di marmo erano talmente esigui che non possono aiutarci in una ricostruzione attendibile. Anche in questo ambiente abbiamo immaginato delle nicchie per il deposito di effetti personali e qualche panca lungo le pareti. Con buona probabilità il tepidario non prevedeva �nestre, ma la luce poteva �ltrare da aperture nelle lunette della volta che, nella nostra ricostruzione, è stata ipotizzata essere a botte (Fig. 4). 6. Il calidario n. 10 Le sue possenti pareti, risultato di numerosi rimaneggiamenti, raggiungono lo spessore massimo di m 1,65 e l’altezza di m 1,60. Si presenta di forma rettangolare (misura m 8,88×5,86), con due absidi sui lati brevi. Gli ingressi, in numero di tre sui lati lunghi, ne completano la pianta. Il piano di calpestio è completamente scomparso e in buona parte ricoperto di crolli; in taluni punti emerge la sottopavimentazione in bessales: gli unici elementi certi che hanno guidato la nostra ricostruzione. La parete nord è leggermente absidata ed è qui che abbiamo posto il labrum, in questa sorta di schola labri; la parete sud, invece, mostra una nicchia rettangolare nella quale facilmente poteva essere collocata una vasca per le abluzioni (alveus). Le pareti, immaginate prive di �nestre per ovvi motivi pratici, nella nostra ricostruzione sono state rivestite di marmi policromi con una sobria decorazione di tipo generico. Lungo le pareti, anche in questo caso, ci è sembrato opportuno disporre delle panchine in marmo. La volta è stata immaginata del tipo a crociera (Fig. 5). 7. Il frigidario n. 13 Con i suoi m 17,50×8,50 è l’ambiente più grande di questo quartiere sommerso e ne rappresenta, anche visivamente, il centro. Il rilievo ha 379 N. Lombardo Fig. 4 – Interno del tepidario. A destra, in fondo, l’ingresso al calidario. Probabilmente non vi erano �nestre, ma la luce penetrava dalle aperture sulla volta. evidenziato numerosi rimaneggiamenti che, nel tempo, ne hanno mutato notevolmente l’aspetto. Si notano, infatti, due ingressi tompagnati nell’area occupata dalla grande vasca, una tompagnatura poi occultata da un muro con andamento curvilineo e un riempimento assai eterogeneo nella parte mediana di forma quadrata; per motivi di simmetria, certamente anche sul lato meridionale venne aggiunto un elemento murario con andamento curvilineo di cui però non resta alcuna traccia. Il fatto poi che si sono rinvenuti i due ingressi tompagnati nella porzione orientale può signi�care solo una cosa: nel progetto originario questo spazio non doveva essere una vasca. Pur tuttavia il rilievo ha evidenziato un piano cementizio posto a m -1,75 (la misura va riferita alla strada sommersa assunta come quota zero), mentre la parte centrale del frigidario conserva la ruderatio a m -1,10 ca. e, a marcare verso ovest questo spazio-vasca, nel 1984, era ancora possibile seguire la labile traccia di un muretto spesso, come quelli perimetrali, ca. 52 cm (Fig. 6). 380 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 5 – Interno del calidario. Al centro, l’abside settentrionale che ospita il labrum. A destra l’ingresso al tepidario e sulla parete opposta la porta che immette nell’ambiente di transito n. 8. Una vasca, dunque, dal fondo absidato e delimitata da un muretto, similmente a molti esempi presenti a Ostia, a Villa Adriana e a Roma3. Nella nostra ricostruzione, rifacendoci a questi esempi, abbiamo immaginato che l’ingresso alla vasca potesse anche prevedere delle colonne a sostenere un architrave con funzione puramente decorativa (Fig. 7). Purtroppo nulla resta degli antichi pavimenti. La nostra ricostruzione può solo servire da spunto per immaginare la ricchezza di quelli originali. Tuttavia si è cercato di disegnare un pavimento con piccole tarsie policrome che rispecchiassero il più fedelmente possibile la forma, le dimensioni e la tipologia dei marmi rinvenuti durante la pulizia e il rilievo dell’ambiente. 3 Ad Ostia il frigidario delle Terme del Foro aveva 2 colonne all’ingresso (resta solo la traccia delle basi e delle lesene laterali). Due gradini formano la vasca profonda ca. m 1, lungo le pareti si notano ancora due nicchie e sul fondo l’abside con un’apertura nel centro forse una �nestra. Anche il frigidario delle Piccole Terme a Villa Adriana ha una forma rettangolare allungata che termina con un’abside �nestrata. A Roma il frigidario delle Terme degli Arvali ha una pianta del tutto simile al nostro, ma sdoppiata. 381 N. Lombardo Fig. 6 – La scheda di immersione n. 24 redatta il 27/8/1984, che mostra la prima fase del rilievo della vasca del frigidario con le annotazioni relative. Si nota bene il muro di delimitazione della grande vasca (cortesia E. Scognamiglio). Identico discorso vale per la decorazione parietale. Un solo elemento è stato rinvenuto in situ e fedelmente riportato nella nostra ricostruzione: si tratta di una spessa lastra di marmo grigio con venature bianche che, nel 1984, ancora si conservava nell’angolo occidentale della grande vasca. Per il resto si è scelto di usare crustae marmoree a formare semplici disegni geometrici con specchiature policrome impiegando quegli stessi marmi, i cui frammenti 382 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 7 – Frigidario. Dalla grande vasca lo sguardo dei bagnanti era guidato verso la piccola vasca sul lato opposto. Nelle ore centrali della giornata il sole, penetrando dalle �nestre del lato breve a sud-ovest, creava suggestivi giochi di luce. furono rinvenuti sparsi al suolo nella pulizia dell’ambiente. Si tratta soprattutto di por�do rosso, “portasanta”, “serpentino” e rosso antico. In alternanza si è scelto di usare marmo bianco venato e grigio venato, giallo antico e verde antico (un sondaggio eseguito nella vaschetta del frigidario restituì numerosi frammenti di questi e altri tipi di marmi). Nella nostra ipotesi di ricostruzione abbiamo immaginato il frigidario così come poteva apparire intorno al III secolo d.C., quando un frequentatore, immerso nella grande vasca absidata, poteva vedere la parte mediana di questo edi�cio caratterizzata da due setti murari curvilinei che “guidavano” lo sguardo verso la piccola vasca ad ovest, creata nello spessore della parete di fondo. Gli antichi architetti escogitarono, dunque, un espediente prospettico per creare, all’interno di un perimetro convenzionale, un insospettabile “gioco volumetrico” (Fig. 7). Sul lato occidentale, opposta alla grande vasca e incassata nello spessore murario, si conservava, al tempo del rilievo, una piccola abside in opera reticolata rivestita di signino; gli scarsi resti di un muretto posto dinnanzi lasciavano intuire che in quel punto, in antico, dovette esserci una seconda vasca. 383 N. Lombardo Certamente, a giudicare dai fori presenti nell’opera reticolata, almeno �no ad una certa altezza, l’abside era rivestita di marmi, mentre la parte alta, forse, prevedeva stucchi e pitture policrome. Durante le fasi di pulizia, si rinvenne anche un frammento di intonaco rosso con strisce dorate (Fig. 8). In considerazione dei numerosi rimaneggiamenti e forse anche dei cambiamenti di funzione (cfr. supra), anche in questo caso per il tipo di copertura del frigidario si è preferito proporre la soluzione più semplice: una volta a botte dotata di �nestroni sui lati brevi (nella nostra ricostruzione ci siamo limitati alle murature e a poche decorazioni, ma era uso comune dotare le �nestre degli ambienti termali di vetri: Seneca, Epistulae morales, 90.25; Broise 1991, 61-78) (Fig. 9). Questa soluzione permette di risolvere senza troppi problemi statici e strutturali il raccordo tra la grande vasca e la parte mediana in corrispondenza con l’ingresso all’ambiente n. 11. Osservando la pianta, infatti, si nota che in questo punto la larghezza del frigidario subisce un restringimento. Se la parete settentrionale prosegue ben dritta dall’angolo nord-orientale della grande vasca sino all’angolo nord-occidentale oltre l’ingresso del calidario n. 14, la parete meridionale subisce un’interruzione subito ad ovest del muro di accesso alla grande vasca per proseguire poi in modo più arretrato sino all’ingresso a sud della piccola vasca. Questo particolare comporta, inevitabilmente, un restringimento anche della copertura che, nel caso di una volta a botte, è risolvibile con un tramezzo che raccorda, su questo lato, le due diverse ampiezze. 8. Il calidario n. 14 Quest’ambiente rettangolare absidato, rinvenuto a ridosso del frigidario con cui comunica tramite un ingresso sulla parete meridionale, non presenta la canonica forma dei calidaria dei bagni pubblici che prevedevano generalmente un aspetto più allungato e un alveus. Anche la sua collocazione spaziale è anomala essendo posto a nord del frigidario (generalmente i calidaria erano posizionati a sud-ovest: Vitruvio, De Architectura, 5.10.1); pur tuttavia durante il rilievo eseguito nel 1984 si rinvennero nell’angolo sud alcuni tubuli �ttili ancora in situ, disposti verticalmente nella parete. Il piano di calpestio, al contrario, era completamente scomparso e restava solo una minima traccia della sottopavimentazione laterizia. La parte mediana dell’abside era divelta e giaceva sulla ruderatio (un’immersione eseguita nel 2001 ha evidenziato tracce che farebbero pensare ad un ingresso poi tompagnato). La decorazione parietale e pavimentale di quest’ambiente è dunque completamente e de�nitivamente scomparsa, ma le descrizioni di autori classici ed esempi ancora visibili a Ostia e a Pompei ci danno un’idea e ci hanno guidato nella nostra ricostruzione. Inoltre, nelle fasi di pulizia e rilievo si rinvennero 384 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 8 – Parte occidentale del frigidario. Sul fondo, a sinistra, l’ingresso all’ambiente n. 8; al centro la piccola vasca ricavata nello spessore della parete e i due tramezzi con andamento curvilineo; in primo piano le colonne che decoravano l’ingresso della grande vasca. Fig. 9 – Le tre fasi del lavoro di ricostruzione. 1: il modello ricavato dal rilievo (in primo piano i resti murari del frigidario); 2: ricostruzione volumetrica del frigidario (in spaccato); 3: aggiunta delle decorazioni parietali e pavimentali. sparsi al suolo frammenti di marmo rosso del Tenaro e “serpentino”; così abbiamo immaginato una pavimentazione marmorea che contenesse soprattutto questi tipi di marmi. Per la decorazione parietale ci siamo fatti guidare dalle parole di Seneca (Epistulae, 86: Alexandrina marmora Numidicis crustis distincta sunt) e ab385 N. Lombardo biamo rivestito le pareti con lastre di marmo a formare semplici specchiature con colori alternati giallo e nero. Ci è sembrato opportuno inserire un sedile di marmo lungo le pareti (un bell’esempio ad Ostia, nelle Terme di Buticosus) e, rifacendoci agli insegnamenti di Vitruvio, abbiamo coperto quest’ambiente con una volta a botte rivestita di stucco con le tipiche strigilature che favorivano il de�usso del vapore verso le pareti (una copertura simile a quella delle Terme Stabiane di Pompei). Per quanto riguarda l’illuminazione, la soluzione più adeguata è sembrata una �nestra zenitale al centro dell’abside. Per gli ambienti riscaldati queste aperture risultavano più adatte rispetto a quelle poste a mezza altezza poiché favorivano in maniera più ef�cace la ventilazione e la regolazione della temperatura. Oltretutto in tal modo si evitava che i bagnanti avvicinandosi al labrum lo oscurassero con le proprie ombre (Vitruvio, De Architectura, 5.10.5) (Fig. 10). 9. Il cortile (palestra?) n. 7 Posto all’estremo sud del nucleo propriamente termale, questo spazio, delimitato a sud-est e a sud-ovest da esili pareti in laterizio spesse appena cm 25-30, ha subito, molto più dei vani ad esso adiacenti, i danni del tempo. Le pareti più esterne, infatti, si conservano per un’altezza massima di soli cm 8 e sono state quasi del tutto ricoperte, così come il piano di calpestio, da uno strato di fanghiglia e alghe che rese faticosissimi la pulizia e il rilievo. Unico elemento degno d’interesse e utile per la ricostruzione di questo spazio dalla forma quadrangolare irregolare è la presenza, sul lato nord-orientale, di una soglia in marmo bianco, che nel 1984 ancora mostrava un cardine bronzeo �ssato con una colatura di piombo4. Due basi rettangolari caratterizzano la parete nord-ovest che mostra tre ingressi (Fig. 11). Quale dovette essere la funzione di quest’ambiente, verosimilmente scoperto, posto all’estremo meridionale delle terme di Punta dell’Epitaf�o? Forse si tratta di uno spazio-cortile che fungeva da palestra e da raccordo tra quest’area termale e quella posta nelle immediate adiacenze del Ninfeo di Claudio. 10. Il cortile n. 3 Esaminiamo ora la parte settentrionale di questo quartiere sommerso. Discese le scale di accesso alle terme, pinneggiando verso nord-est, ci si ritrova in un spazio di vaste proporzioni (m 24,60×7,50) di forma rettangolare, 4 Purtroppo non esiste alcuna documentazione fotogra�ca di questo singolare oggetto, poiché il giorno successivo il suo rinvenimento risultava già scomparso. C’è da considerare che negli anni Ottanta l’area di Punta dell’Epitaf�o con i suoi preziosi resti sommersi non era sottoposta a nessuna forma diretta di vincolo o tutela; anzi era frequentata da numerosissimi subacquei che si dedicavano alla pesca di frutti di mare e alla raccolta indiscriminata dei più svariati tipi di souvenir. 386 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 10 – Calidario. In alto si nota la volta con strigilature. La luce penetra dall’alto da una �nestra azimutale. Al centro dell’ambiente si è ipotizzata la presenza di un labrum di marmo e lungo le pareti di una panca in muratura rivestita di marmo. In fondo, a sinistra, l’accesso al frigidario. invaso da alcuni crolli e ricoperto da uno spesso tappeto di matta di posidonia. Il rilievo subacqueo ha restituito il perimetro di uno spazio lineare, quasi elementare, ma nello stesso tempo elegante e raf�nato. Solo in parte è possibile seguire il lato settentrionale in caementicium privo di paramento; meglio conservato è il lato lungo ad est �no all’innesto con la parete meridionale. Un sondaggio eseguito nell’angolo nord-est del cortile ha chiarito che solo in un secondo momento si costruì, parallelamente al muro perimetrale, un muretto che addossava le sue testate al rivestimento parietale in marmo della prima fase. Questo spazio tra i due muri, lungo m 24,60 e largo m 1, non presenta tracce di alcun riempimento né indizi che facciano pensare ad un addossamento reso opportuno per problemi statici; anzi il fondo in caementicium appare lisciato. Riteniamo che questo lato del cortile, in una fase collocabile nella prima metà del II secolo d.C., vide l’aggiunta di un bacino di fontana, alto forse intorno al metro, rivestito di marmo e rifornito, mediante cascatelle, 387 N. Lombardo Fig. 11 – Cortile-palestra. A destra l’ingresso sud-orientale dove, al momento del rilievo, ancora si conservava un cardine bronzeo. A nord, ben illuminato, uno dei due ingressi al calidario. Al centro l’ambiente n. 8 con (da nord a sud) l’ingresso al frigidario, la porticina dell’ambiente tessellato n. 9 e un secondo ingresso al calidario. dall’acqua di una �stula inserita all’interno dello stesso muro perimetrale: un vero e proprio euripo (Fig. 12). La parete di fondo a sud non presenta particolarità se non nel grande spessore che in taluni punti arriva sino a m 1,20, tale da giusti�care l’ipotesi della presenza di nicchie atte, magari, ad ospitare delle statue. Seguendo un gusto che si riscontra in numerose ville impreziosite da decorazioni egittizzanti5, nel nostro caso non è azzardato supporre che, trattandosi di Baia, la città degli eccessi, si pensò in grande, inserendo nelle nicchie del muro perimetrale esemplari originali, già all’epoca antichi e preziosi. Forse in una di queste era collocata quella statua di marmo nero di cui nel 1985 si rinvenne un frammento di gamba recante su due lati simboli di scrittura gerogli�ca (Di Fraia et al. 1985-86, 221, �gg. 2-4; attualmente il 5 Un bell’esempio di euripo con annesso ninfeo si conserva ad Ostia nella Domus della Fortuna Annonaria. Nella casa di Loreio tiburtino a Pompei, intorno ad una vasca lunga e stretta, sono disposte erme dionisiache, una s�nge e statuette varie. 388 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 12 – Cortile del ninfeo triabsidato. A sinistra l’euripo con le nicchie e le cascatelle; al centro le colonne e i pilastri coperti da un solaio e, a destra, le due colonne che marcano l’accesso al podio. Sul fondo, in una nicchia, è stata collocata la statua egizia di cui si rinvenne un frammento durante il rilievo. reperto si trova esposto al Museo Archeologico Nazionale di Napoli, all’ingresso della Sezione egizia). Noi immaginiamo, sul lato orientale di questo cortile, una serie di nicchie che ospitavano cascatelle d’acqua che si riversavano nel sottostante euripo6 e, sul lato meridionale, statue di provenienza esotica. Un elegante espediente che in un certo senso “sfondava” il monotono andamento rettilineo dei muri perimetrali e accompagnava lo sguardo dei frequentatori, i quali, entrando in questo cortile, scoprivano gradualmente, volgendo lo sguardo sempre più verso destra, il disegno spiccatamente scenogra�co concepito dagli antichi architetti. Nella parte mediana del cortile, parallelamente all’euripo, dalla piatta distesa sabbiosa che ricopre il battuto cementizio emergono i resti dei fusti di 6 A Ostia la Domus del Ninfeo presenta un tipo di cascatelle a gradini realizzate con marmi policromi. Nella nostra ricostruzione abbiamo ricreato questo tipo di cascatella. 389 N. Lombardo Fig. 13 – Facciata del ninfeo con le colonne tortili, le transenne, le colonne trasformate in pilastri e l’ingresso al podio. Sullo sfondo la porzione superiore e la volta della facciata orientale del frigidario. quattro colonne tortili in basalto nero: quelle centrali mostrano le scanalature che si avvolgono in senso speculare (Lombardo 1993, 57, �g. 2), quelle più esterne in un secondo momento furono rivestite di intonaco e trasformate in tozzi pilastri. Nell’intercolumnio esterno si rinvennero anche i resti di una transenna di marmo bianco (Di Fraia et al. 1985-86, 224, �g. 5; altre transenne rinvenute nelle acque di Baia sono in Maniscalco 1997: per la nostra ricostruzione ci siamo ispirati all’esemplare n. 23, 50-52) (Fig. 13). Le colonne e i pilastri erano liberi o sostenevano una copertura? Se consideriamo il contesto, un cortile �ancheggiato da un euripo e verosimilmente decorato da cascatelle d’acqua, è plausibile pensare che questa parte del quartiere era la zona dove si radunavano quanti cercavano un po’ di refrigerio. Pertanto abbiamo ipotizzato che la parte antistante l’accesso al podio fosse coperta da un solaio; si creava in tal modo una piccola passeggiata coperta: l’unico spazio, per quel che sappiamo, utilizzabile per questo scopo all’interno di questo quartiere termale. 390 Baia: le terme sommerse a Punta dell’Epitaf�o 11. Il ninfeo emidecagonale triabsidato n. 4 I quattro elementi verticali fronteggiano perfettamente la facciata dell’edi�cio più scenogra�co di tutto il quartiere sommerso: il ninfeo emidecagonale triabsidato su podio (Di Fraia et al. 1985-86, 225-227, �gg. 6-7; 250-258; Lombardo 1993, 59, �g. 3)7. La presenza delle transenne poste negli intercolumni laterali fa capire quanto dovesse essere studiato tutto l’insieme del cortile e del ninfeo: i frequentatori erano obbligati, dalla presenza di questi ostacoli sistemati lì appositamente, a compiere un preciso percorso per raggiungere il ninfeo e solo sostando nello spazio dell’intercolumnio centrale si potevano rendere conto dell’articolata architettura del ninfeo (e della sua copertura). Dall’esterno, infatti, era impossibile sospettare che questo vano prevedesse nicchie disposte addirittura radialmente. Una sorpresa dunque attendeva i visitatori, i quali, discesi in questo cortile dalle canoniche forme rettilinee, inaspettatamente si trovavano “faccia a faccia” con un edi�cio dalla forma innovativa e ancor più sorprendente perché camuffato da linee esterne di tipo consueto. All’epoca dei nostri rilievi erano ancora ben leggibili il podio e le due rampe che ne consentivano l’accesso; nella nicchia meridionale erano perfettamente visibili una �la di tarsie policrome in marmo e i resti di una gettata che aveva ricoperto questo piano. Tuttavia un’immersione esplorativa effettuata nell’anno 2001 ha reso evidente il devastante trascorrere del tempo: non vi è più traccia di tarsie marmoree e tutto il podio appare eroso e mancante del suo piano in vari punti. I dati in nostro possesso non consentono di rispondere ad alcuni interrogativi su cosa conteneva il ninfeo e sulla presenza di vasche e di nicchie sulle pareti da cui sgorgava acqua, convogliata in canalette poste sul pavimento. Negli anni Ottanta il piano di calpestio del ninfeo si presentava abbastanza ben conservato, ma bisogna considerare che sui resti del podio insistevano crolli, smottamenti e uno strato compatto di pietrame e alghe che, avviluppando tutta la parte settentrionale delle terme, rendeva particolarmente laboriosa la pulizia e il rilievo di quest’area. Nella nostra ricostruzione si è scelto di lasciare vuoto questo enigmatico edi�cio, dotandolo solo di una decorazione parietale di genere, immaginata come marmorea sino all’imposta della volta (Fig. 14). Sulla base di alcuni scatti fotogra�ci eseguiti negli anni Ottanta, ormai unica e preziosa testimonianza dell’esistenza di quell’antico pavimento, si è scelto di 7 La Domus sul Decumano ad Ostia presenta un cortile rettangolare con il lato di fondo occupato interamente da uno stretto bacino di fontana; sul lato opposto vi è un ambiente soprelevato il cui ingresso è marcato da due colonne. Nella Domus della Fortuna Annonaria a Ostia si accede al ninfeo tramite due ingressi posti ai lati di due pilastrini. Il ninfeo presenta 4 nicchie alternativamente rettangolari e absidate; su un lato vi è un euripo e sul fondo dell’abside una nicchia. 391 N. Lombardo Fig. 14 – Interno del ninfeo. Nelle prime ore della mattina il sole inondava di luce il podio. A sinistra l’ingresso all’ambiente n. 5. ricostruire il piano del podio del ninfeo con piccole tarsie marmoree, replicando dimensioni e applicando delle texture che riproducessero il più fedelmente possibile i marmi che realmente si rinvennero al momento del rilievo subacqueo (Di Fraia et al. 1985-86, 225, �gg. 6 e 7; Lombardo 1993, 55, �g. 3). Ovviamente, considerando il numero esiguo di tarsie che all’epoca ancora si trovavano in situ, il disegno originario è destinato a rimanere ignoto; ci limitiamo in questa sede, ed è opportuno ricordarlo, a fornire una semplice ricostruzione ipotetica. Identico discorso vale per il tentativo, arduo anch’esso, di ipotizzare il tipo di copertura di questo edi�cio. È noto che con l’utilizzo del conglomerato cementizio gli antichi architetti riuscirono a svincolarsi dalle forme canoniche �no ad allora adottate e a cimentarsi in ardite sperimentazioni volumetriche e spaziali (per una sintesi Ward Perkins 1989, 59-104) e in tal ambito Baia fu terreno di continue innovazioni (a Baia compare la prima calotta emisferica dal diametro interno di ben 21 m a copertura del c.d. Tempio di Mercurio). Di Fraia a suo tempo ebbe modo di delineare l’ambito “culturale” in cui si inserisce l’edi�cio sommerso di Baia e i suoi aspetti innovativi. 392 Baia: le terme sommerse a Punta dell’Epitaf�o Fig. 15 – Volta a padiglioni del ninfeo. Da notare la copertura, immaginata piana, dell’ambiente n. 5 (se ne intravede la �nestra in basso sulla destra) e delle latrine (solaio in primo piano). Per la copertura del ninfeo, nella nostra ricostruzione ipotetica, ci siamo rifatti a quegli edi�ci, noti a Roma e a Ostia, che presentano forma poligonale e nicchie laterali coperte a botte8. Pertanto non sembra inopportuno, per il ninfeo baiano, una cupola a padiglioni che poteva ergersi dal piano di imposta delle coperture a botte delle nicchie laterali; ma certo nulla vieta di immaginarla simile alla copertura del c.d. Tempio di Venere a Baia o a quella del Canopo di Villa Adriana che mostrano padiglioni nella parte interna e una super�cie liscia all’esterno (Fig. 15). 12. Le latrine Osservando la pianta delle terme sommerse a Punta dell’Epitaf�o colpisce la forma ad “elle” di un vano posto a ridosso delle absidi settentrionale 8 Uno dei primi esempi è la Domus Transitoria dove dal vano centrale coperto a cupola si aprivano quattro vani coperti a botte. La Domus Augustana presenta due aule ottagone coperte a padiglione con i lati sfondati da nicchie. Cfr. anche Scurati-Manzoni 1991, 237-238 e 250-252. Tutti esempi con copertura che si imposta su un piano superiore rispetto a quella delle nicchie. 393 N. Lombardo e occidentale del ninfeo (Tav. I, è l’ambiente tra i nn. 2 e 4). Si tratta di un ambiente dalla forma irregolare con due muretti paralleli che delimitano un corridoio la cui �ne si può solo intuire poiché in quest’area, più che altrove, l’insabbiamento e l’effetto della risacca hanno completamente sconvolto la situazione originaria. Solo la particolare forma di questo vano, che sembra voler celare la sua parte più interna allo sguardo di quanti transitano nella corte antistante le scale di accesso alle terme, ci induce a credere di poter riconoscere in esso le latrine di questo quartiere sommerso, per la cui ricostruzione ci siamo rifatti a quelle ottimamente conservate a Ostia in prossimità delle Terme del Foro. Tuttavia solo uno scavo sistematico riuscirebbe a chiarire l’esatta forma e, forse, la destinazione originaria dell’ambiente e dell’area limitrofa che in questa relazione presentiamo come una corte scoperta (Fig. 2). Abbiamo immaginato le latrine e il quasi simmetrico ambiente pentagonale n. 5 coperti con solai. Questa soluzione poteva consentire una buona illuminazione all’interno del ninfeo il quale, pur se aperto sul davanti, essendo orientato perfettamente ad est, godeva di un’ottima irradiazione diretta solo nelle prime ore della giornata; nelle ore pomeridiane la luce penetrava esclusivamente dalle �nestre delle lunette della volta. Inoltre, una copertura piana avrebbe permesso anche un agevole movimento degli inservienti addetti alla manutenzione e alla regolazione dell’apertura delle �nestre sulle volte degli ambienti termali. 13. I percorsi È ben nota l’attenzione che i Romani prestavano ai �ussi di persone per evitare intasamenti e calca nelle terme e nelle cerimonie; per non ritornare sui propri passi, si preferiva predisporre percorsi di tipo circolare che prevedevano partenza e arrivo separati (notissimo è il passo del Satyricon 72, 10 in cui uno schiavo di Trimalcione rimprovera alcuni ospiti che cercano di uscire dalla stessa porta da cui erano entrati). Per quanto riguarda le terme sommerse a Punta dell’Epitaf�o, riteniamo che gli antichi frequentatori potevano adottare questo tipo di percorso: discese le scale, coloro che intendevano dirigersi nel quartiere termale percorrevano per intero il corridoio n. 6, transitavano nell’ambiente n. 8 (che a nostro giudizio aveva solo una funzione di raccordo e smistamento: Fig. 11), deponevano gli abiti nell’apoditerio n. 9 (anch’esso conserva due aperture sul lato occidentale) ed entravano nel tepidario n. 11. A questo punto avevano due possibilità: per quanti non gradivano il caldo torrido del calidario, l’ingresso nord-occidentale del tepidario li dirottava immediatamente nella zona centrale del frigidario e in questo caso l’ingresso posto nell’angolo sud-occidentale del frigidario riconduceva poi velocemente allo 394 Baia: le terme sommerse a Punta dell’Epitaf�o spogliatoio n. 9. Gli altri, decisi a compiere il giro “canonico”, attraverso la porta sud-occidentale del tepidario n. 11, potevano sostare nel calidario n. 10 e scegliere per l’uscita due possibilità: la porta nord-occidentale del calidario immetteva nell’ambiente n. 8 e quindi velocemente nell’apoditerio n. 9 per recuperare i propri effetti personali. Uscendo dalla porta sudoccidentale ci si ritrovava invece nel cortile-palestra n. 7. Tuttavia è bene ricordare che non era vietato seguire percorsi alternativi a seconda dei gusti e delle abitudini personali. 14. Conclusioni Negli ultimi anni si assiste sempre più spesso alla nascita di progetti di studio �nalizzati alla realizzazione di prodotti multimediali a carattere scienti�co e divulgativo che giustamente prevedono l’intervento di centri di ricerca statali e privati, di sponsorizzazioni, di so�sticate workstation, di adeguati �nanziamenti, di interventi di specialisti in molteplici discipline. In questo senso la nostra esperienza, iniziata a Baia ventiquattro anni fa, rappresenta certamente un unicum. Il campo di azione fu (per lo meno nella sua prima fase) un quartiere termale di epoca imperiale sommerso, per effetto del bradisismo �egreo, nelle acque di Baia presso Napoli e le “forze” scese in campo furono quelle di un gruppo di archeologi che auto�nanziarono tutte le fasi di questa pluriennale ricerca. I risultati di questa onerosa, faticosa, ma esaltante esperienza sono con�uiti in una serie di pubblicazioni e hanno consentito la creazione (da parte del Ministero dell’Ambiente con il Ministero dei Beni Culturali e la Regione Campania) del Parco Sommerso di Baia (D.I. 7.08.2002). Inoltre, l’accuratezza di quel lavoro ha consentito oggi, con l’ausilio delle moderne tecnologie informatiche digitali, di poter tentare la ricostruzione volumetrica di queste antiche terme sommerse. Ovviamente, nel presentare queste ricostruzioni, chi scrive non è privo di dubbi (che per ora restano insoluti) ed è consapevole di qualche inesattezza dovuta al fatto che il rilievo è stato eseguito unicamente sui resti murari emergenti dalla sabbia senza l’ausilio dello scavo archeologico. Riteniamo sia indispensabile avviare un progetto, adeguatamente strutturato, per una conoscenza il più possibile esaustiva dell’immenso patrimonio archeologico sommerso nelle acque di Baia e dei Campi Flegrei e in questo senso la creazione di modelli digitali “multi livello” può essere il mezzo migliore per renderlo di facile accesso a quanti, a vario titolo, ne fossero interessati e per conservare la memoria di preziose testimonianze che ineluttabilmente col passare del tempo tendono a scomparire per sempre. Nicolai Lombardo 395 N. Lombardo BIBLIOGRAFIA Borra D. 2000, La modellazione virtuale per l’architettura antica. Un metodo verso l’isomor�smo percettivo, «Archeologia e Calcolatori», 11, 259-272. Broise H. 1991, Vitrages et volets des fenètres thermales à l’époque impériale, in Les thermes romains. Actes de la Table ronde (Rome 1988), Rome 1991, Ecole française de Rome. Broise H., Scheid J. 1987, Recherches archéologiques à la Magliana. Le balneum des Frères Arvales, Rome, Ecole française de Rome - Soprintendenza Archeologica di Roma. Di Fraia G. 1993, Baia sommersa. Nuove evidenze topogra�che e monumentali, «Archeologia Subacquea. Studi, ricerche, documenti», 1, 21-48. Di Fraia G., Lombardo N., Scognamiglio E. 1985-86, Contributi alla topogra�a di Baia sommersa, «Puteoli. Studi di Storia Antica», 9-10, 211-299. Eschebach H. 1979, Die Stabianer Thermen in Pompeji, Berlin, De Gruyter. Gnoli R. 1988, Marmora Romana, Roma, Edizioni dell’Elefante. Lombardo N. 1993, Le terme di Punta Epitaf�o a Baia, «Archeologia Subacquea. Studi, ricerche, documenti», 1, 55 ss. Maniscalco F. 1997, Ninfei ed edi�ci marittimi severiani del Palatium imperiale di Baia, Napoli, Massa. Salsa Prina Ricotti E. 1988, Villa Adriana. Un singolare solaio piano in opus caementicium, «Palladio», 1, 1-12. Scognamiglio E. 1993, Il rilievo di Baia sommersa: note tecniche e osservazioni, «Archeologia Subacquea. Studi, ricerche, documenti», 1, 65-70. Scognamiglio E. 1997, Aggiornamenti per la topogra�a di Baia sommersa, «Archeologia Subacquea. Studi, ricerche, documenti», 2, 35-46. Scognamiglio E. 2002, Nuovi dati su Baia sommersa, «Archeologia Subacquea. Studi, ricerche, documenti», 3, 47-55. Scurati-Manzoni P. 1991, L’architettura romana dalle origini a Giustiniano, Milano, Guerini-Studio. Ward Perkins J.B. 1989, Architettura romana, Milano, Electa-Mondadori. ABSTRACT Twenty-four years ago in Baia, at the North end of the Bay of Naples, a group of archaeologists began a series of surveys. Their work made it possible to reconstruct the topographic structure of the ancient city and the creation of the “Parco sommerso di Baia”. This article shows, for the �rst time, the volumetric reconstruction of a thermal bath of the Imperial age. Starting from an accurate survey of surviving walls, two digital models have been created: the �rst one shows them in an underwater environment, as they were in the 1984; the second model integrates the missing parts of the walls and roofs. In Campi Flegrei and Baia numerous villas, spas and roads are hidden underwater. Discovering and protecting this historical heritage is essential for the planning of research projects including digital multi-level models, in order to make this knowledge accessibile to everyone and to preserve its memory. 396 Archeologia e Calcolatori 20, 2009, 397-419 “PROGETTO CALVATONE”: DALLO SCAVO ALL’EDIZIONE MULTIMEDIALE 1. Introduzione Il rapporto tra multimedia e archeologia, indagato a partire dalla �ne degli anni ’90 e fonte di un vivace dibattito sulle problematiche ad esso connesse (Forte 2000; Sanders 2000; Guermandi 2000, 2003, 2004; Clarke 2002; Zanini 2004), si è sempre più rafforzato nel corso dell’ultimo decennio e numerosi risultano oramai i prodotti multimediali caratterizzanti il vasto panorama archeologico. È necessario, tuttavia, soffermarsi sulla natura di tali prodotti, distinguibili in “prodotti chiusi”, quali pubblicazioni su CD-Rom e DVD, e “prodotti aperti”, come i siti Internet, diversi per tipologia, destinazione �nale, qualità di contenuti e comunicazione (Zanini 2004, 64). Le pubblicazioni su supporto multimediale spesso si con�gurano come prodotti a larghissima diffusione, destinati a un pubblico vasto per un utilizzo occasionale (Zanini 2004, 64). Da questi si distinguono i prodotti legati a esposizioni museali temporanee e i primi tentativi di pubblicazioni scienti�che a carattere enciclopedico (Manacorda et al. 2001) o specialistico, come nel caso di edizioni su supporto multimediale di indagini archeologiche: tali pubblicazioni, tuttavia, risultano per la maggior parte funzionali a un evento espositivo1 e non delle vere e proprie edizioni scienti�che su Cd-Rom/DVD, ancora rare nel panorama scienti�co italiano. Tale lacuna è tanto più rilevante se si considera quanto l’ambiente accademico italiano sia all’avanguardia in molti settori della ricerca archeologica che prevedono l’impiego di applicazioni informatiche e, tuttavia, ancora frenato da una certa dif�denza nei confronti di soluzioni multimediali per la pubblicazione dei risultati scienti�ci conseguiti in favore del «numero di pagine a stampa» (Zanini 2004, 65). In tale prospettiva si inserisce l’edizione multimediale degli scavi archeologici condotti dal 2001 al 2006 presso il vicus romano di CalvatoneBedriacum (CR), realizzata dall’Università degli Studi di Milano in collaborazione con Regione Lombardia, che presenta una soluzione innovativa nell’ambito della divulgazione scienti�ca, con l’obiettivo di sviluppare un modello funzionale alla pubblicazione di qualunque scavo archeologico. 1 A tale proposito cfr. Zanini 2001, 2002 e le pubblicazioni curate dal LIAAM di Siena, tra cui si ricordano i CD-Rom L’Ospedale Santa Maria della Scala. Storia e Archeologia (2003) e C’era una volta. La ceramica medievale nel convento del Carmine a Siena (2002). 397 L. Palmieri 2. “Progetto Calvatone”: lo scavo archeologico 2.1 Calvatone-Bedriacum: “[...] vicus, duabus iam Romanis cladibus notus infaustusque” Il sito romano individuato presso l’odierno centro di Calvatone si identi�ca con l’antico vicus a carattere commerciale noto alle fonti col toponimo di Bedriacum2, il cui territorio subì, nel 69 d.C., lo svolgersi delle campagne militari tra gli eserciti di Otone, Vitellio e Vespasiano per la conquista del potere imperiale. La fondazione del vicus, nella seconda metà del II sec. a.C., è strettamente collegata ad alcuni provvedimenti che interessarono il territorio di Cremona, la più antica colonia latina fondata a nord del Po (218 a.C.), �nalizzati ad una migliore strutturazione dell’area transpadana: tra questi, oltre alla centuriazione e alla creazione di centri minori, si ricorda in particolare la costruzione della via Postumia, principale arteria di collegamento dell’Italia settentrionale da Genova ad Aquileia, disposta nel 148 a.C. dal console Spurio Postumio Albino (Fig. 1). Bedriacum, sito ubicato tra Verona e Cremona, assumerà importanza nell’ager Cremonensis grazie alla sua funzione di nodo stradale e �uviale: la sua posizione sulla via Postumia, nel punto di attraversamento dell’Oglio, ne fece, infatti, un centro di smistamento commerciale strategicamente importante. La maggior parte delle fonti antiche si riferisce a Bedriacum soltanto come al luogo in cui furono combattute le battaglie del 69 d.C., dandone tuttavia una collocazione topogra�ca precisa, in rapporto alle strade e alle città romane dell’area centro-padana. Tacito (Historiae, II, 23, 5), nel ricordare i tragici avvenimenti, situa Bedriacum tra Verona e Cremona (Inter Veronam Cremonamque situs est vicus, duabus iam Romanis cladibus notus infaustusque); Plutarco (Otho, 8, 1) localizza il piccolo centro (πολíχνη) non lontano da Cremona (πλησíον Κρεμωνης), mentre tra Ostiglia e Cremona lo pone lo scoliasta di Giovenale (Scol. in Iuven., 2, 106). Del tutto simili le informazioni che provengono dalle fonti più propriamente geogra�che: il vicus appare nella Tabula Peutingeriana (segm. IV) situato lungo la via Ostiglia-Mantova-Cremona3. L’apparente discordanza tra le fonti, per cui Bedriacum sembra collocarsi da una parte tra Verona e Mantova, dall’altra tra Ostiglia e Cremona, 2 Il toponimo è stato tramandato dalle fonti scritte nelle forme Bedriacum, Betriacum, Bebriacum e Beloriacum. La forma più diffusa è comunque Bedriacum/Betriacum, attestata nelle principali fonti sopra citate, quasi sempre utilizzata negli studi storico-archeologici dedicati al sito a partire dalla prima metà dell’Ottocento e tuttora adottata: Grassi 2008a, 11; Grassi 2008b. 3 Per una completa rassegna di tutte le fonti riguardanti Calvatone-Bedriacum cfr. Corsano 1991, 51-59. 398 “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 1 – La via Postumia e Bedriacum. trova le sue ragioni nel fatto che in realtà il vicus si situa al bivio tra la via Postumia – il tratto Cremona-Verona – e la via Ostiglia-Mantova-Cremona: Bedriacum si trova quindi in un punto particolarmente importante della viabilità centro-padana, dove ha origine la diramazione della Postumia verso est/sud-est (Grassi 2008a, 11; Grassi 2008b). 2.2 Le ricerche archeologiche: dai rinvenimenti ottocenteschi al “Progetto Calvatone” Nella prima metà dell’Ottocento, sotto l’impulso di eruditi locali stimolati dalle indicazioni fornite dalla tradizione letteraria, si effettuarono le prime ricerche archeologiche nei pressi di Calvatone, in località Costa di Sant’Andrea, un’area in aperta campagna, in cui si concentravano maggiormente i rinvenimenti fortuiti di materiali antichi, af�oranti a seguito dei lavori agricoli. Tali ricerche condussero al recupero, nel 1836, di frammenti pertinenti ad una statua in bronzo raf�gurante una “Vittoria” che si posa su un globo, acquistati nel 1841 dai Musei di Berlino, la cui iscrizione, con 399 L. Palmieri dedica agli imperatori Marco Aurelio e Lucio Vero, permette una datazione tra il 161 e il 169 d.C.4 Al primo pro�cuo periodo di ricerche – durante il quale si recuperarono anche altri materiali antichi quali monete, bronzetti, ceramica, vetri, in gran parte dispersi tra collezioni museali e private – e all’entusiasta attività di personalità locali, tra cui si ricorda il parroco di Romprezzagno, don Luigi Luchini, autore di un’opera illustrativa sulle indagini condotte nei pressi di Calvatone (Bebriaco illustrato dai suoi scavi archeologici, 1878), seguirono pochi interventi sporadici nell’area nella prima metà del Novecento5. L’indagine archeologica riprese per opera della Soprintendenza alle Antichità della Lombardia attraverso gli scavi diretti dal Soprintendente Mario Mirabella Roberti, negli anni 1957-1961: in particolare vennero alla luce «una strada porticata […] la casa del Labirinto […] una domus con cortile e altre costruzioni» (Mirabella Roberti 1972, 104), che consentirono di determinare l’orientamento dell’abitato antico. Oltre agli importanti risultati ottenuti in campo scienti�co attraverso tali esplorazioni, a Mirabella Roberti si deve riconoscere anche il merito di aver intuito l’importanza archeologica del sito, tanto da proporre alla provincia di Cremona nel 1964 l’acquisizione dei terreni in località Costa di Sant’Andrea, al �ne di preservare il deposito archeologico dai danni provocati dai lavori agricoli, condotti con tecniche sempre più invasive. Dopo una lunga pausa, nel 1986 la Soprintendenza Archeologica della Lombardia mostra un rinnovato interesse per le indagini riguardanti il territorio di Calvatone e, in collaborazione con gli Istituti di Archeologia delle Università degli Studi di Milano e di Pavia, nasce il “Progetto Calvatone”, con una diversi�cazione delle aree di intervento, nel tentativo di comprendere, per quanto possibile, lo sviluppo urbanistico del centro abitato e de�nire l’estensione della città antica (Passi Pitcher, Finzi, Sena Chiesa 1987). A una felice realizzazione del progetto ha contribuito, in primo luogo, la particolare situazione di Bedriacum, spostato di alcuni chilometri rispetto al paese moderno di Calvatone, che ha favorito la programmazione di un’esplorazione sistematica sul lungo periodo. Ad una prima fase (1986-1987), caratterizzata da ricerche topogra�che e d’archivio, dallo studio dei materiali provenienti dai vecchi scavi e da ricerche di super�cie (Calvatone romana 1991), è poi seguito, nel 1988, l’avvio di nuovi scavi stratigra�ci. In particolare, mentre la Soprintendenza (sotto 4 Ne esistono oggi cinque copie: al Museo di Cremona, al Museo della Civiltà Romana di Roma, al Museo Puskin di Mosca (forse l’originale scomparso da Berlino alla �ne della Seconda Guerra Mondiale) e due a Calvatone stessa, una delle quali è conservata presso il Municipio mentre l’altra orna il Monumento ai Caduti della piazza principale del paese (monumento alla Vittoria di Calvatone). 5 Il più importante intervento di scavo, effettuato dal Patroni nel 1919-1920 e pubblicato nel 1926 sul «Bullettino di Paletnologia Italiana», portò alla luce, a nord del Dugale Delmona, un abitato del Bronzo Medio (XV-XIV sec. a.C.): Lorenzi 1996. 400 “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 2 – Calvatone, loc. Costa di Sant’Andrea: scavi archeologici condotti dal 1988 al 2008 presso l’area di proprietà provinciale e il Campo del Generale. la direzione di Lynn Pitcher) ha effettuato una serie di saggi (Passi Pitcher 1996), gli scavi delle Università (sotto la direzione di Gemma Sena Chiesa e di Maria Paola Lavizzari Pedrazzini) hanno contribuito all’ampliamento e all’approfondimento dell’indagine nei settori segnalati dalle ricerche degli anni 1957-1961, all’interno dell’area di proprietà provinciale: sono così riprese le 401 L. Palmieri ricerche nell’area della “domus con cortile” (scavo Sud6), in quella della “strada porticata” (saggio Nord7) e nell’area della Domus del Labirinto8. Dal 2005, sotto la direzione di Maria Teresa Grassi, l’indagine è stata estesa anche ad un nuovo settore, il cosiddetto “Quartiere degli Artigiani”, non interessato da interventi precedenti9 (Fig. 2). Attraverso tali indagini, è stato possibile delineare un quadro piuttosto articolato della storia del vicus romano, compreso tra la tarda età repubblicana e il V sec. d.C. (Grassi 2008a, 17). 2.3 Lo scavo dell’area della Domus del Labirinto: una sintesi dei risultati Nell’ambito del “Progetto Calvatone”, dal 2001 al 2006 le indagini archeologiche si sono concentrate nella fascia nord-orientale dell’area di proprietà provinciale, nel luogo in cui era stata parzialmente riportata in luce nel 1959 la cosiddetta Domus del Labirinto (Fig. 3). L’area è così denominata per la presenza di un emblema a mosaico con la raf�gurazione di un labirinto (conservato presso il Civico Museo Archeologico di Piadena), che ornava il pavimento di uno dei due triclini caratterizzanti il nucleo principale di una lussuosa abitazione, databile alla prima età imperiale. Le nuove ricerche hanno interessato dapprima tale zona di rappresentanza e hanno in seguito assunto carattere estensivo, al �ne di indagare i settori limitro� al nucleo centrale e comprendere lo sviluppo planimetrico del complesso e l’organizzazione dell’area circostante: attraverso queste esplorazioni è stato possibile chiarire la sequenza cronologica dell’area, caratterizzata da una fase precedente alla costruzione degli ambienti di rappresentanza della Domus, e da una successiva, con la rifunzionalizzazione dell’area in favore dello sviluppo di attività artigianali. La prima fase di frequentazione di questo settore del vicus si data tra la �ne del II sec. a.C. e la �ne del I sec. a.C. (fase I; Ravasi 2008). Alla metà del I sec. a.C. risale la costruzione di almeno due edi�ci residenziali, già orientati secondo la strutturazione urbanistica del vicus di età imperiale. Uno di essi è meritevole di particolare attenzione, in quanto si con�gura quale antecedente della Domus del Labirinto: si tratta della cosiddetta Domus del Focolare, di cui è stato possibile indagare il cortile. Il rinvenimento, al suo interno, di una fossa – caratterizzata da un riempimento ricco di materiali di pregio, talvolta 6 Campagne di scavo 1988-1991, 1993, 1995-1998, 2000. La pubblicazione dello Scavo Sud è in corso di preparazione a cura di G. Sena Chiesa. Sintesi preliminari dei risultati sono pubblicate nel «Notiziario della Soprintendenza Archeologica della Lombardia», dal 1988-89 al 1998 (G. Sena Chiesa) e nel «Notiziario della Soprintendenza per i Beni Archeologici della Lombardia», 19992000 (G. Sena Chiesa, M.T. Grassi). Cfr. anche Sena Chiesa 1998. 7 Campagne di scavo 1994-1995: Calvatone romana 1997. 8 Campagne di scavo 2001-2006: Grassi 2008b. 9 Le relazioni preliminari di queste campagne (2005-2008) sono pubblicate in Grassi 2007, 2008c. Cfr. anche Bacchetta 2009, Bacchetta c.s. 402 “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 3 – Area della Domus del Labirinto. Settori indagati nelle campagne di scavo 2001-2006. eccezionali (come l’olla situliforme in ceramica a vernice nera tipo Morel 7431 di produzione adriese, II sec. a.C.) – legata ai riti di fondazione della domus di fase I permette di collocare il primo impianto dell’edi�cio intorno alla metà I sec. a.C. (Palmieri 2008). Le strutture mostrano tracce di frequentazione per tutta la seconda metà del I sec. a.C. e la loro distruzione, forse a causa di un incendio di modesta estensione che le ha parzialmente interessate, è compresa tra la �ne del I sec. a.C. e l’inizio del I sec. d.C. La ristrutturazione di questo settore del vicus è da ascrivere alla prima età imperiale, in epoca tiberiano-claudia (fase II), con l’edi�cazione di 403 L. Palmieri due complessi residenziali, la Domus del Labirinto (Bacchetta 2008) e la Domus delle Esagonelle (Benedetti 2008a), separati da uno spazio aperto transitabile (una strada?) caratterizzato da un piano in pezzame laterizio (Benedetti 2008b). La Domus del Labirinto, in particolare, presenta la medesima articolazione planimetrica della precedente Domus del Focolare, con il nucleo strutturato a occidente e un cortile aperto a oriente, con un orientamento nord-est/sud-ovest, caratteristico del vicus, e con uno schema paratattico, in cui ad un settore propriamente residenziale, costituito da due triclini contrapposti e due cubicula destinati a funzioni di rappresentanza, e alcuni ambienti di servizio, si af�ancano, sia a ovest che a est, due aree aperte. L’originale soluzione planimetrica adottata, che vede contrapporsi i due triclini, per i quali si può ipotizzare una speci�ca caratterizzazione d’uso in chiave prettamente “stagionale”, e la raf�natezza dei materiali impiegati e delle soluzioni decorative scelte per i piani pavimentali (Slavazzi 2008) consentono di de�nire la Domus del Labirinto come una residenza di livello elevato, non solo nel ristretto ambito del vicus, ma anche più in generale nel panorama della Cisalpina romana. Il periodo di frequentazione della Domus del Labirinto, così come della Domus delle Esagonelle e del piano in pezzame laterizio che le separava, è da circoscriversi al I sec. d.C., con probabili sporadici interventi destinati alla manutenzione e/o al rifacimento di strutture e decorazioni: sebbene manchino quasi integralmente i livelli e i materiali pertinenti alla fase di frequentazione di queste strutture di fase II, tuttavia l’obliterazione dei due principali impianti idraulici della Domus del Labirinto (una canalina e il pozzo del cortile est; Ossorio 2008a, 2008b), tra la �ne del I e gli inizi del II sec. d.C. (fase III), sembra segnare la �ne della destinazione esclusivamente residenziale dell’area e l’avvio del contestuale processo di rifunzionalizzazione degli spazi. L’abbandono della Domus del Labirinto coincide con la creazione, ad ovest della domus eponima, di una nuova struttura (Ambiente C), che, per posizione, tipologia, destinazione funzionale e cronologia, se ne distingue molto nettamente. Si tratta di un ambiente affacciato su un’area aperta, destinato principalmente ad attività artigianali/produttive, sebbene non se ne possa escludere del tutto una parziale funzione residenziale: una “casabottega” (forse anche con funzioni di magazzino) la cui frequentazione è documentata per circa un secolo, dalla metà del II sec. d.C. alla metà del III sec. d.C. (Albeni 2008; Orsenigo 2008a; Sperti 2008a). Caratteristica peculiare della fase III, e, in particolare, dell’Ambiente C, è la quantità considerevole di frammenti ceramici, per la maggior parte orli ritagliati intenzionalmente, pertinenti a un tipo non ancora noto di olla in ceramica comune, de�nito “olla tipo Calvatone” (Orsenigo 2008b). Non è stato ancora chiarito quale fosse la destinazione funzionale di questi orli 404 “Progetto Calvatone”: dallo scavo all’edizione multimediale frammentari, benché siano state avanzate delle ipotesi, legate soprattutto al contesto di riferimento10. Il complesso gravitante intorno all’Ambiente C viene abbandonato nella seconda metà del III sec. d.C. e le sue strutture crollano gradualmente (Orsenigo 2008c; Sperti 2008b); risulta di particolare interesse la precisa de�nizione cronologica, tra �ne III e IV sec. d.C., di alcune attività di spoglio delle strutture murarie non solo dell’Ambiente C, ma anche di quanto probabilmente sopravviveva delle domus di età imperiale (Nava 2008; Romagnolo 2008), attività presumibilmente proseguite ben oltre il V sec. d.C., orizzonte a cui si ascrivono i materiali più recenti rinvenuti nel corso dell’indagine, tra cui si segnalano in particolare alcune monete (Crisà 2008). 3. “Progetto Calvatone”: l’edizione multimediale 3.1 Genesi e sviluppo del progetto multimediale Il progetto informatico, collegato all’edizione dei nuovi scavi condotti nell’area della Domus del Labirinto tra il 2001 e il 2006, nasce dall’esigenza di voler comunicare, alla �ne di un percorso di ricerca, i risultati scienti�ci conseguiti dall’Università degli Studi di Milano. La volontà di sperimentare una nuova forma di comunicazione in ambito archeologico, che consentisse di offrire una conoscenza il più completa possibile dell’attività svolta nel corso degli anni dall’équipe di ricerca di Calvatone e permettesse la consultazione non solo del dato archeologico già interpretato (contributi scienti�ci), ma anche di tutta la documentazione di scavo (inventari, schede, fotogra�e, rilievi), si deve a Maria Teresa Grassi, direttore degli scavi di Calvatone-Bedriacum e coordinatore del progetto scienti�co: da questa felice intuizione ha preso le mosse l’edizione multimediale dello scavo dell’area della Domus del Labirinto. Il progetto è stato �nanziato dall’Università degli Studi di Milano con un contributo della Regione Lombardia (Assessorato alle Culture, Identità e Autonomie della Lombardia). Il processo di modellizzazione per la progettazione di un multimediale comporta necessariamente ri�essioni di carattere metodologico, in relazione alla struttura da adottare (paratattica o sintattica) per una migliore presentazione del dato archeologico. In considerazione di ciò, il progetto ha attraversato due fasi di sviluppo, che hanno comportato in primo luogo la de�nizione della struttura del DVD e, in un secondo momento, la realizzazione dell’interfaccia 10 È stato ipotizzato che nell’Ambiente C si svolgessero attività collegate alla lavorazione e l’immagazzinamento di cereali o di farina in un impianto di tipo domestico e familiare, con una produzione limitata e forse solo in parte destinata alla vendita. Ad un’attività produttiva si collegano presumibilmente gli orli ritagliati dalle olle (per un uso edilizio?), ma non è chiaro quale fosse il rapporto tra queste attività, se vi fosse un’attività primaria destinata unicamente alla vendita (olle) e una secondaria principalmente domestica (cereali). 405 L. Palmieri gra�ca attraverso linguaggi di programmazione adeguati (in particolare, XHTML e CSS) e l’inserimento dei dati relativi alla pubblicazione archeologica, nel rispetto dei criteri di accessibilità promossi dai protocolli internazionali. Per la progettazione dell’architettura e la de�nizione del modello gra�co ci si è avvalsi dell’esperienza precedentemente acquisita per la creazione, nel 2007, del sito web realizzato per la divulgazione in rete dell’attività scienti�ca condotta dall’Università degli Studi di Milano presso il vicus romano di Calvatone11. Analogamente a quanto avvenuto per il sito web, l’ideazione e lo sviluppo informatico del multimediale sono stati curati da chi scrive e la realizzazione del prodotto è avvenuta interamente per opera dell’équipe di ricerca coordinata dalla prof. Grassi, avvalendosi di un supporto esterno esclusivamente per la masterizzazione delle copie previste. Il prodotto (distribuito gratuitamente dall’Università degli Studi di Milano previa richiesta da inoltrare attraverso la pagina del sito web di Calvatone dedicata al DVD12) è ottimizzato per i principali browser utilizzati per la navigazione in rete (Internet Explorer 7.0 e Mozilla Firefox 3.0) e necessita del software gratuito Adobe Reader per la consultazione di alcuni dei contenuti inseriti. 3.2 L’architettura del DVD multimediale L’interfaccia gra�ca del DVD si presenta con un’architettura semplice e intuitiva (Fig. 4), caratterizzata da pochi elementi funzionali alla navigazione: il corner, il banner, il menu di navigazione, il content. All’interno del “corner” (area quadrangolare collocata in alto a sinistra nella schermata) è visualizzata l’immagine di copertina del DVD: in essa si riconosce il mosaico del Labirinto sullo sfondo, e, in primo piano, sulla sinistra, l’olla situliforme in ceramica a vernice nera tipo Morel F7431 (Palmieri 2008) e, sulla destra, l’olla in ceramica comune “tipo Calvatone” (Orsenigo 2008b). La scelta di tale immagine è stata dettata dalla volontà di sottolineare il passaggio, per la storia archeologica del sito, da «uno scavo di interesse artistico», come de�niva il Mirabella Roberti l’intervento presso la Domus del Labirinto (Mirabella Roberti 1972, 106), a uno scavo in cui la cultura materiale permette di ricostruire lo sviluppo diacronico dell’area e un contenitore in ceramica comune, classe spesso tenuta in scarsa considerazione a causa delle genericità dei dati cronologici che è solita fornire, diventa il “fossile guida” di una delle fasi di sviluppo (fase III). I tre elementi scelti rappresentano, inoltre, le tre fasi principali caratterizzanti l’area della Domus del Labirinto. Alla fase I si collega l’olla situliforme in ceramica a vernice nera tipo Morel F7431, rinvenuta in una fossa rituale individuata nel cortile della Domus del Focolare (fase I, periodo 2): si tratta di un vaso di importazione adriese datato 11 12 406 http://users.unimi.it/calvbedr/. http://users.unimi.it/calvbedr/pages/dvd.html. “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 4 – Pagina illustrativa di un contesto archeologico, esempli�cativa dell’architettura del DVD. al II sec. a.C. e di uno tra i manufatti più antichi mai rinvenuti nell’area del vicus �nora esplorato. La fase II è rappresentata dal mosaico del Labirinto, la cui de�nizione cronologica, �nora fondata esclusivamente su considerazioni di carattere iconogra�co e stilistico e oscillante tra l’età cesariana e l’ultimo quarto del I sec. d.C., appare ormai certa grazie al contributo di uno scavo stratigra�co, con una precisa attribuzione al secondo quarto del I sec. d.C. (Volonté 2008), momento di edi�cazione della Domus del Labirinto. L’olla “tipo Calvatone” si con�gura, in�ne, quale emblema della fase III: il recipiente, rinvenuto in stato frammentario nell’Ambiente C, risulta costantemente 407 L. Palmieri presente nei contesti di fase III, in particolare in forma di orlo ritagliato, e spesso dirimente ai �ni di una de�nizione cronologica puntuale. Il “banner” (in alto nella schermata, a destra del “corner”) ha la funzione principale di esempli�care visivamente, attraverso delle immagini pertinenti, l’ambito cui afferisce la pagina che si sta consultando, fornendo immediatamente dati utili alla contestualizzazione delle pagine: così, ad esempio, nel banner delle pagine relative ai contesti compare l’emblema della fase cui il contesto stesso pertiene (olla in vernice nera, mosaico del Labirinto, olla “tipo Calvatone”), per un suo immediato inquadramento cronologico. Il menu di navigazione rappresenta lo strumento principale con cui rapportarsi nell’interfaccia gra�ca, e un suo corretto utilizzo permette un’agile navigazione tra i contenuti del DVD. L’ideazione del menu ha richiesto un’accurata progettazione, che coniugasse esigenze diverse: era necessario, infatti, creare un elenco che richiamasse l’articolato indice della pubblicazione, ma che avesse un carattere di sinteticità e immediatezza, per consentire una facile consultazione. A tal �ne è stato ideato un menu verticale a scomparsa, de�nito per le sue caratteristiche morfologiche “dinamico”, creato mediante l’utilizzo di script Java: tale menu consente la visualizzazione delle sezioni in cui è suddiviso il DVD – caratterizzate dall’utilizzo di caratteri in grassetto – e dei principali “capitoli” ad esse afferenti. Il menu di navigazione presenta due modalità di interazione, a cui corrispondono due modalità di funzionamento: alcune celle permettono l’accesso diretto alle pagine di pertinenza attraverso un semplice click del mouse, altre consentono l’apertura di un sottomenu, contenente i titoli delle sottosezioni o dei contributi correlati alla sezione in esame. Il “content” (al di sotto del banner, a destra del menu di navigazione) è l’area entro cui si visualizzano tutti i contenuti di una pagina. Tra gli elementi funzionali alla navigazione bisogna includere anche le icone: si tratta di elementi gra�ci inseriti all’interno del “content”, che indicano un collegamento con altri contenuti presenti all’interno del DVD. Le icone progettate sono due, poiché segnalano due tipologie di link differenti: una raf�gura il Labirinto della domus eponima, e indica il link con un’altra pagina del DVD in versione HTML; l’altra raf�gura una pagina con la sigla PDF, e indica un link funzionale all’apertura di un documento in versione PDF. Il DVD risulta organizzato in tre sezioni principali, corrispondenti alle tre parti in cui è suddivisa la pubblicazione scienti�ca: FASI E CONTESTI, MATERIALI E STRUTTURE, ARCHIVIO, a cui si aggiunge una quarta sezione, la BIBLIOGRAFIA. Ogni sezione presenta delle caratteristiche strutturali precipue, per la cui realizzazione ci si è avvalsi di software informatici eterogenei. La prima sezione, FASI E CONTESTI, contiene l’analisi delle fasi, dei contesti e della cronologia. La cella di riferimento permette la visualizzazione di una pagina con la sintesi cronologica delle evidenze rinvenute nell’area della Domus del Labirinto. Una tabella mostra l’orizzonte cronologico di apparte408 “Progetto Calvatone”: dallo scavo all’edizione multimediale nenza dei contesti archeologici presi in esame all’interno della pubblicazione, esempli�candone la pertinenza a ciascuna fase attraverso un colore differente. Tali fasi, elencate nella prima colonna della tabella cronologica, sono tutte collegate alle rispettive piante di fase e periodo attraverso link attivi: cliccando sulla de�nizione di ogni fase e periodo si ottiene la visualizzazione in formato PDF della pianta pertinente, derivante da una elaborazione della stessa con software CAD, caratterizzata dai colori propri della fase, con sfumature del colore dominante di fase che consentono di identi�care la suddivisione in periodi. Ai �ni di una migliore lettura delle piante di fase, e dello sviluppo diacronico dell’area in esame, si è scelto di visualizzare sempre, in ogni pianta di fase/periodo, i quattro pavimenti (i due triclini e i due cubiculi) pertinenti al nucleo principale della Domus del Labirinto, rappresentati attraverso una linea di contorno di colore blu (il colore della fase II), e di inserire nelle piante di fase III e IV, ove opportuno, il riferimento ai pavimenti caratterizzanti l’area a sud della Domus del Labirinto (attraverso una linea di contorno di colore blu) e l’Ambiente C (attraverso una linea di contorno di colore verde, il colore della fase III). Le successive sottosezioni corrispondono ai capitoli di analisi delle aree indagate: ogni sottosezione (Prima frequentazione, Domus del Labirinto, Domus delle Esagonelle, media età imperiale) presenta un sottomenu che permette di accedere ai contributi dedicati alla fase e ai contesti di riferimento. Le pagine relative ai contributi scienti�ci (fasi e contesti) presentano una struttura comune: esse risultano costituite da un titolo, un ipertesto, disponibile anche in versione PDF per la stampa, e una serie di immagini che ne illustra il contenuto. Il testo è caratterizzato da una serie di hotwords, collegamenti che consentono una navigazione dinamica tra i contenuti del DVD, come ad esempio la consultazione delle note – accessibili attraverso l’apertura di una �nestra di “pop-up” – o, nei testi di fase, ciascun titolo di paragrafo, all’interno del quale viene esaminato un determinato orizzonte cronologico, collegato alla pianta di fase/periodo di pertinenza attraverso un link insito nel titolo stesso. Le pagine dedicate ai contesti sono caratterizzate da una struttura particolare e progettate per facilitare la consultazione di tutta la documentazione collegata. Il contesto si muove, infatti, su due livelli e risulta costituito da due pagine complementari: una principale contenente il testo dell’articolo scienti�co, e una secondaria, di collegamento, contenente tutta la documentazione pertinente al contesto stesso. È a questo punto necessario sottolineare il ruolo fondamentale delle immagini, da considerarsi non più «semplice corredo e arricchimento esplicativo», ma «elemento argomentativo in rapporto dialogico con il testo» (Zanini 2004, 71). La pagina principale di contesto presenta tutti gli elementi propri della struttura comune a tutte le pagine caratterizzanti i contributi scienti�ci, descritta in precedenza: il titolo, il testo (disponibile anche in versione PDF per la stampa) e le immagini esplicative del testo – de�nite da una didascalia 409 L. Palmieri che compare al passaggio del mouse sull’immagine d’interesse – che possono essere visualizzate a tutto schermo. Le immagini inserite nei contributi sono tratte dall’Archivio fotogra�co dell’Università degli Studi di Milano. Una serie di collegamenti, de�niti dalla presenza di hotwords, consente il link ad altri contributi oppure alle note, visualizzate in una �nestra di “pop-up”. Un ulteriore collegamento, importante ai �ni dell’inquadramento cronologico del contesto, caratterizza la pagina e si trova al di sotto del titolo: si tratta del link che permette la visualizzazione diretta della pianta di fase/periodo pertinente. Nel corpo del testo si distinguono due link, progettati per i contributi dedicati ai contesti. Il primo dà accesso a un’ulteriore pagina dedicata al contesto (“box”), in cui è raccolta tutta la documentazione relativa all’ Unità Stratigra�ca (US) in esame (Fig. 5). In particolare, è possibile consultare in formato PDF il RILIEVO – o i rilievi – dell’US; la TABELLA dei materiali, che contiene l’elenco di tutti i materiali presenti nel contesto, ordinati per numero di inventario, con l’indicazione della classe di appartenenza, una breve descrizione, il disegno di riferimento (ove presente), indicato dal numero di US e da una sigla identi�cativa della classe di pertinenza del materiale, e la de�nizione cronologica; le TAVOLE dei materiali, con i disegni relativi ai manufatti, realizzati dai singoli autori e lucidati in ambiente CAD, e successivamente assemblati in tavole di contesto. La documentazione fotogra�ca completa l’apparato presente nel “box” di contesto: le fotogra�e sono tutte tratte dall’Archivio fotogra�co dell’Università degli Studi di Milano e de�nite da una didascalia nel caso in cui si tratti di fotogra�e particolari legate all’US in esame. Il secondo link collega direttamente alle tavole dei materiali, senza dover necessariamente accedere al “box” descritto. Tale link è segnalato nel testo dalla presenza, tra parentesi e in genere accanto al numero di inventario, della sigla del materiale di cui è presente il disegno (ad es. VN1). La prima sezione si conclude con lo studio di un contesto moderno (Bursich 2008), a testimonianza di una recentissima frequentazione dell’area della Domus del Labirinto: tale contesto, particolare per sua stessa natura, prende in esame soltanto i manufatti cronologicamente più tardi (una lattina e un bossolo di proiettile) in esso presenti, e per tale motivo non risulta dotato del “box” di contesto. La seconda sezione, MATERIALI E STRUTTURE, contiene degli approfondimenti speci�ci su alcuni materiali e sulle strutture: in essa sono stati inseriti gli studi relativi a singoli pezzi di particolare interesse (frammento di Terra Sigillata, bottiglia Isings 50, applique in bronzo a maschera teatrale), a classi (anfore, monete, pesi, gemme) o tipologie di materiali (lucerne a vernice nera, olla “tipo Calvatone”) particolarmente signi�cative, gli studi relativi alle strutture edilizie (alzati in terra cruda, laterizi di rivestimento, intonaci) e le indagini scienti�che. 410 “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 5 – Esempio di “box”, contenente la documentazione relativa al contesto in esame. Benché tutti gli ipertesti della sezione presentino una struttura del tutto simile a quella dei testi descritti in precedenza, è tuttavia necessario focalizzare l’attenzione su un contributo in particolare, che si distingue per la sua struttura articolata: si tratta dello studio relativo all’olla “tipo Calvatone”, con l’Appendice dedicata alla ceramica comune di Calvatone (Orsenigo 2008b). Il contributo si apre con un’introduzione di carattere metodologico sullo studio della ceramica comune, e in particolare di quella di Calvatone, ed è proprio a questo proposito che si fa riferimento all’Appendice, dedicata alla presentazione in forma sintetica di tutta la ceramica comune �nora nota (edita e inedita). Il collegamento all’Appendice avviene anche attraverso l’icona 411 L. Palmieri “Labirinto”, collocata in fondo alla pagina del contributo. Tale link permette l’accesso alla pagina HTML contenente le avvertenze alla Tabella di sintesi della ceramica comune di Calvatone e il collegamento sia alla Tabella sia alle Tavole di sintesi, entrambe in formato PDF. La Tabella di sintesi contiene la classi�cazione tipologica della ceramica comune di Calvatone, con la suddivisione della classe stessa in Sezioni (Sezione I e Sezione II) e Gruppi. Ogni gruppo, identi�cato dalla sigla “Calv”, da un numero romano indicante la sezione di pertinenza, e da una lettera dell’alfabeto, è collegato direttamente alle tavole di riferimento del gruppo stesso. Un secondo link in fondo alla pagina principale dell’Appendice permette, invece, di visualizzare in un unico documento tutte le tavole contenenti i disegni di sintesi della tipologia elaborata per la ceramica comune di Calvatone. Tali tavole sono state realizzate in occasione della pubblicazione dei nuovi scavi dell’area della Domus del Labirinto e rivelano una natura composita, in quanto derivanti dall’assemblaggio di elementi eterogenei. Per la loro realizzazione, infatti, sono stati impiegati sia disegni editi, tratti dalla pubblicazione relativa al “saggio 6” della Soprintendenza Archeologica della Lombardia (Passi Pitcher 1996), sia disegni inediti relativi ai materiali recuperati nello scavo Sud e nell’area della Domus del Labirinto in occasione degli interventi ad opera dell’Università. La terza sezione, l’ARCHIVIO, contiene tutta la documentazione di scavo ed è risultata senza alcun dubbio la più impegnativa dal punto di vista progettuale. Sono state, innanzitutto, create delle sottosezioni di riferimento, in cui far con�uire tutto il materiale documentario: Inventari e Schede, Fotogra�e, Rilievi. Per ogni sottosezione è stato programmato un lavoro preventivo per la trasformazione della maggior parte dei documenti, solo parzialmente in formato digitale. La prima sottosezione – Inventari e Schede – risulta presente nel menu di navigazione attraverso una cella attiva che permette la visualizzazione di un sottomenu, in cui compaiono le due voci di riferimento: Schede e Inventari. La pagina HTML dedicata alle Schede (Fig. 6) contiene tutte le schede di US redatte nel corso delle campagne di scavo dell’area della Domus del Labirinto, ordinate per numero progressivo di US: le singole schede, originariamente in formato Word, sono state riunite in gruppi di venti all’interno di un unico documento in formato PDF, e risultano consultabili attraverso l’icona di collegamento presente nella pagina (PDF), che permette la visualizzazione del gruppo di schede indicato dal numero identi�cativo delle US collocato al di sotto dell’icona di collegamento. Anche gli Inventari, originariamente in formato Excel, sono stati trasformati in formato PDF. Suddivisi per anno, dal 2001 al 2006, gli Inventari contengono la lista di tutti i reperti recuperati nel corso delle sei campagne di scavo effettuate nell’area della Domus del Labirinto, e conservati in deposito 412 “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 6 – Pagina di accesso alla consultazione delle schede di Unità Stratigra�ca. temporaneo su autorizzazione della Soprintendenza per i Beni Archeologici della Lombardia, presso il magazzino-laboratorio dell’Università degli Studi di Milano a Calvatone. La seconda sottosezione riguarda la documentazione fotogra�ca degli scavi eseguiti nell’area della Domus del Labirinto. Per ogni anno di scavo è stata effettuata una selezione e per ogni ripresa è stato scelto lo scatto migliore, mantenendo inalterata la numerazione originaria dell’archivio fotogra�co generale. Gli archivi così creati, divisi per anno di scavo, sono stati utilizzati per realizzare delle gallerie fotogra�che, per la cui creazione è stato utilizzato Adobe Photoshop CS3. Dalla cella relativa alle Fotogra�e, contenuta nel 413 L. Palmieri Fig. 7 – Esempio di galleria fotogra�ca. menu di navigazione, si visualizza il sottomenu di riferimento, che presenta due tipologie di collegamenti differenti: il primo (Elenco fotogra�e) consente l’accesso a una pagina HTML in cui è presente il link all’elenco delle fotogra�e, un documento in formato Excel, inserito nel DVD in formato PDF, contenente la lista delle immagini presenti nelle gallerie fotogra�che, ordinata per numero progressivo di US, e facilmente consultabile attraverso la funzione “Trova” del software Adobe Acrobat. Il secondo collegamento è rappresentata dai link che permettono l’accesso diretto alle singole gallerie fotogra�che. Le pagine HTML dell’Archivio fotogra�co risultano di facile lettura, in quanto composte da pochi elementi 414 “Progetto Calvatone”: dallo scavo all’edizione multimediale Fig. 8 – Pagina di accesso alla consultazione della Bibliogra�a. (Fig. 7). Ogni fotogra�a contenuta nelle gallerie fotogra�che può essere ingrandita: tale operazione consente l’accesso a una seconda galleria fotogra�ca, attraverso cui è possibile visualizzare ogni singola immagine, procedendo o retrocedendo nella visualizzazione attraverso le frecce grigie situate al di sopra dell’immagine stessa, con la freccia centrale che consente di ritornare al primo livello di visualizzazione. La terza e ultima sottosezione riguarda i Rilievi di scavo: anche per questa documentazione è stato necessario programmare un lavoro preliminare, funzionale all’immissione dei rilievi delle singole US all’interno del DVD. 415 L. Palmieri L’archivio contenente la documentazione gra�ca degli scavi condotti nell’area della Domus del Labirinto, al momento iniziale del progetto, era già in formato digitale, grazie a un grosso sforzo effettuato nel 2004 per recuperare la documentazione pregressa. I rilievi presenti nell’archivio di scavo sono stati così trasformati da �le in formato DWG (AutoCAD) a �le in formato PDF, per un corretto inserimento nel DVD, mantenendo inalterata la scala originaria (1:20), e rinominati con il nome di US di riferimento, per consentire una rapida identi�cazione del rilievo stesso (abbandonando in questo caso la numerazione d’archivio). La pagina HTML dedicata ai Rilievi presenta la medesima interfaccia gra�ca della pagina dedicata alle Schede di US, e identica risulta la struttura: i singoli rilievi sono stati riuniti in gruppi di venti all’interno di un unico documento in formato PDF e risultano consultabili attraverso l’icona di collegamento presente nella pagina che permette la visualizzazione del gruppo di rilievi indicato dal numero identi�cativo delle US collocato al di sotto dell’icona di collegamento. La quarta sezione è costituita dalla BIBLIOGRAFIA, e rappresenta lo spazio virtuale in cui sono raccolti tutti i riferimenti bibliogra�ci citati nei contributi scienti�ci. La cella attiva relativa alla Bibliogra�a, presente nel menu di navigazione, consente l’accesso alla pagina HTML in cui sono visualizzate le abbreviazioni bibliogra�che afferenti alla lettera “A” (Fig. 8): da questa pagina è possibile accedere alle altre pagine caratterizzanti la sezione attraverso il menu situato al centro, in cui sono riportate tutte le lettere dell’alfabeto, funzionali ai collegamenti alle singole pagine di pertinenza della lettera di riferimento. È possibile inoltre consultare tutta la bibliogra�a presente nella pubblicazione in formato PDF, attraverso l’icona di collegamento PDF che consente la visualizzazione del documento in versione stampabile 4. Conclusioni Attraverso la descrizione del progetto informatico realizzato per la pubblicazione dei nuovi scavi nell’area della Domus del Labirinto, si è voluto dimostrare l’assoluta conformità di un supporto multimediale quale il DVD all’edizione di uno scavo archeologico. Da notare, in particolare, le possibilità offerte in relazione alle potenzialità di visualizzazione e di consultazione dei contenuti, che permettono una rapida divulgazione dei risultati conseguiti e una condivisione delle nuove conoscenze acquisite in ambito scienti�co (e non solo), per uno scambio pro�cuo ai �ni di un continuo sviluppo della disciplina archeologica. Lilia Palmieri Dipartimento di Scienze dell’Antichità Università degli Studi di Milano 416 “Progetto Calvatone”: dallo scavo all’edizione multimediale BIBLIOGRAFIA Albeni M. 2008, ES 8905. La frequentazione dell’Ambiente C. Analisi dei materiali datanti, in Calvatone-Bedriacum 2008. Bacchetta A. 2008, La Domus del Labirinto, in Calvatone-Bedriacum 2008. Bacchetta A. 2009, Scavi e ricerche a Calvatone romana: il “Quartiere degli Artigiani” (scavi 2005-2007), «Lanx. Rivista della Scuola di Specializzazione in Archeologia - Università degli Studi di Milano», 2, 169-183. Bacchetta A. c.s., Calvatone (CR), Costa di S. Andrea - Area di proprietà provinciale. Un nuovo mosaico dal vicus di Bedriacum, «Lanx. Rivista della Scuola di Specializzazione in Archeologia - Università degli Studi di Milano», in corso di stampa. Benedetti D. 2008a, La Domus delle Esagonelle, in Calvatone-Bedriacum 2008. Benedetti D. 2008b, ES 9013. Il piano in pezzame laterizio, in Calvatone-Bedriacum 2008. Burenhult G., Arvidsson J. (eds.) 2002, Archaeological Informatics: Pushing the Envelope. CAA 2001 (Gotland), BAR International Series 1016, Oxford, Archaeopress. Bursich D. 2008, Un contesto moderno: analisi dei materiali per la de�nizione di un orizzonte cronologico e delle più recenti attività nell’area di proprietà provinciale, in Calvatone-Bedriacum 2008. Calvatone-Bedriacum 2008, M.T. Grassi (ed.), Calvatone-Bedriacum. I nuovi scavi nell’area della Domus del Labirinto (2001-2006), Milano, DVD. Calvatone romana 1991, G.M. Facchini (ed.), Calvatone romana. Studi e ricerche preliminari, Quaderni di Acme 13, Milano. Calvatone romana 1997, G. Sena Chiesa, S. Masseroli, T. Medici, M. Volonté (eds.), Calvatone Romana. Un pozzo e il suo contesto. Saggio nella zona nord dell’area di proprietà provinciale, Quaderni di Acme 29, Milano. Cerutti A. 2008, ES 9301. Una fossa di scarico, in Calvatone-Bedriacum 2008. Clarke J. 2002, Questions raised by electronic publication in archaeology, in Burenhult, Arvidsson 2002, 351-355. Corsano M. 1991, Le fonti antiche, in Calvatone romana 1991, 51-59. Crisà A., Le monete, in Calvatone-Bedriacum 2008. Forte M. 2000, Comunicazione archeologica, in R. Francovich, D. Manacorda (eds.), Dizionario di archeologia, Roma-Bari, Laterza, 75-80. Grassi M.T. 2007, Calvatone (CR). Località Costa di S. Andrea, area di proprietà provinciale. Vicus di età romana: la fase pre-Labirinto e l’ambiente 2005, «Notiziario della Soprintendenza per i Beni Archeologici della Lombardia», 2005, 109-116. Grassi M.T. 2008a, La ceramica a vernice nera di Calvatone-Bedriacum, Flos Italiae. Documenti di archeologia della Cisalpina Romana, 7, Firenze. Grassi M.T. 2008b, Introduzione. Dal Labirinto all’olla “tipo Calvatone”, in CalvatoneBedriacum 2008. Grassi M.T. 2008c, Calvatone (CR). Località Costa di S. Andrea, area di proprietà provinciale. Vicus di età romana: scavi oltre la Domus del Labirinto e nel Quartiere degli Artigiani, «Notiziario della Soprintendenza per i Beni Archeologici della Lombardia», 2006-2007, 73-81. Guermandi M.P. 2000, L’archeologia in rete. Internet e Multimedia, «Archeologia e Calcolatori», 11, 391-395. Guermandi M.P. 2003, Internet e Multimedia, «Archeologia e Calcolatori», 14, 336339. Guermandi M.P. 2004, Nuovi linguaggi e “vecchie tecnologie”: comunicare la conoscenza archeologica attraverso la rete, «Archeologia e Calcolatori», 15, 483-496. 417 L. Palmieri Lorenzi J. 1996, Il territorio di Calvatone in epoca preistorica, in Passi Pitcher 1996, 1,1, 45-54. Manacorda D., Caravale A., Laudando M.T., Zanini E. 2001, Il mondo dell’archeologia. Storia, metodi, protagonisti, Roma, Istituto della Enciclopedia Italiana Treccani, CD-ROM. Mirabella Roberti M. 1972, Scavi a Bedriacum, in Archeologia e storia nella Lombardia padana. Bedriacum nel XIX centenario delle battaglie. Atti del Convegno (Villa Monastero di Varenna, Lago di Como 1969), Como, 103-122. Nava S. 2008, ES 9116. Un cumulo di macerie dopo la fase residenziale, in Calvatone-Bedriacum 2008. Orsenigo C. 2008a, La media età imperiale: rinnovamento e trasformazione, in CalvatoneBedriacum 2008. Orsenigo C. 2008b, L’olla tipo Calvatone, in Calvatone-Bedriacum 2008. Orsenigo C. 2008c, ES 8908. Il crollo dell’Ambiente C, in Calvatone-Bedriacum 2008. Ossorio F. 2008a, I contesti nella Domus del Labirinto: osservazioni generali, in CalvatoneBedriacum 2008. Ossorio F. 2008b, ES 9226. Il riempimento del pozzo, in Calvatone-Bedriacum 2008. Palmieri L. 2008, ES 9228. Una fossa rituale nella Domus del Focolare, in Calvatone-Bedriacum 2008. Passi Pitcher L. 1996 (ed.), Bedriacum. Ricerche archeologiche a Calvatone, Milano, Edizioni Et. Passi Pitcher L., Finzi E., Sena Chiesa G. 1987, Calvatone (Cremona). Programma di ricerche nel “vicus”. Studio geomorfologico e geo�sico. Piano di intervento, «Notiziario della Soprintendenza Archeologica della Lombardia», 1986, 223-225. Ravasi T. 2008, Prima frequentazione dell’area e impianto degli edi�ci residenziali, in Calvatone-Bedriacum 2008. Romagnolo M. 2008, ES 8904, ES 8814, ES 8963, ES 8907. Una grande fossa e i suoi livelli di riempimento, in Calvatone-Bedriacum 2008. Sanders D.H. 2000, Archaeological publications using Virtual Reality: case studies and caveats, in J.A. Barceló, M. Forte, D.H. Sanders (eds.), Virtual Reality in Archaeology, BAR International Series 843, Oxford, Archaeopress, 351-355. Sena Chiesa G. 1998, Calvatone-Bedriacum: un vicus commerciale lungo la via Postumia, in Sena Chiesa, Arslan 1998, 345-367. Sena Chiesa G., Arslan E.A. 1998 (eds.), Optima Via. Postumia. Storia e archeologia di una grande strada romana alle radici dell’Europa. Atti del Convegno Internazionale di Studi (Cremona 1996), Cremona. Slavazzi F. 2008, I pavimenti del settore di rappresentanza, in Calvatone-Bedriacum 2008. Sperti L. 2008a, ES 8905. La frequentazione dell’Ambiente C. Per la cronologia dell’olla tipo Calvatone, in Calvatone-Bedriacum 2008. Sperti L. 2008b, ES 8916, ES 8923, ES 8973. I contesti “post-Ambiente C”, in CalvatoneBedriacum 2008. Volonté M. 2008, Il mosaico del Labirinto, in Calvatone-Bedriacum 2008. Zanini E. 2001, L’anfora e i suoi miti, Piombino, Museo Archeologico del Territorio di Populonia. Zanini E. 2002, Dalla “Villa Publica” alla Via delle Botteghe Oscure, Roma-Milano, Museo Nazionale Romano-Crypta Balbi. Zanini E. 2004, Scrivere per il multimediale: alcune ri�essioni di un non-specialista, a partire da un’esperienza recente, «Archeologia e Calcolatori», 15, 63-80. Zenoni G. 2008, US 8148. Una fossa di scarico, in Calvatone-Bedriacum 2008. 418 “Progetto Calvatone”: dallo scavo all’edizione multimediale ABSTRACT The paper presents the project for the publication of archaeological excavations conducted from 2001 to 2006 by the University of Milan in collaboration with the University of Pavia at Calvatone-Bedriacum (CR), in the area of the Domus del Labirinto. The project proposes to test a new form of communication, which permits to offer complete information on the research carried out over the years. In particular, the project aims at a more effective and immediate form of communication, mediated by the use of a multimedia support such as the DVD, with the purpose of developing a functional model for the edition of any archaeological excavation. The innovative and experimental publication on DVD, made possible by the contribution of the Regione Lombardia (Assessorato alle Culture, Identità e Autonomie della Lombardia), has allowed us not only to present the analysis and interpretation of the excavations, through a large number of images, but also to provide the full documentation of the archive – inventories, recording sheets, photographs, drawings, plans – which is usually excluded from publication, for obvious problems of space and costs. 419 Archeologia e Calcolatori 20, 2009, 421-427 F. D’Andria, G. Scardozzi, A. Spanò (eds.), Atlante di Hierapolis di Frigia, Istanbul 2008, Ege Yayınları. Il volume, curato da Francesco D’Andria, Giuseppe Scardozzi e Antonia Spanò, è il secondo della Collana “Hierapolis di Frigia” pubblicata dalla MAIER (Missione Archeologica Italiana a Hierapolis), che da più di cinquanta anni opera sul pianoro occupato dalle rovine dell’antica città, che si affaccia sulla valle del �ume Lykos. Come rileva F. D’Andria nell’introduzione, «L’Atlante vuole sancire un cinquantennio di ricerche, offrirne una sintesi facilmente consultabile, proiettare le attività nella prospettiva di un futuro in cui la conoscenza di Hierapolis sarà af�data ai tanti giovani che hanno trovato nei nostri cantieri un’opportunità unica di formazione». Si tratta, dunque, di un’opera monumentale, caratterizzata da un approccio metodologico interdisciplinare che ha visto il concorso di numerosi ricercatori specializzati in diverse discipline e la stretta collaborazione tra l’équipe di geomatica del Politecnico di Torino e i topogra� dell’Università del Salento e dell’Istituto per i Beni Archeologici e Monumentali (IBAM) del CNR di Lecce. Il volume è suddiviso in due sezioni principali: “Cartogra�a e carta archeologica di Hierapolis di Frigia” (pp. 1-47) e “Atlante di Hierapolis di Frigia” (pp. 48-147). La prima sezione, preceduta da una pianta generale dell’area urbana in cui è evidenziata la suddivisione in regiones e insulae, s’incentra sulla cartogra�a numerica e sulle metodologie adottate per offrire una con�gurazione unitaria alla rappresentazione della città, attraverso un processo di armonizzazione della documentazione idoneo a fondere insieme «le “tante” Hierapolis che ad oggi costituiscono il poliedrico quadro insediativo che gli studi archeologici e storici hanno delineato» (A. Spanò, p. 1). Questo approccio, necessariamente interdisciplinare, ha portato alla fusione di tre diversi tipi di rappresentazione gra�ca: la carta topogra�ca, per delineare i caratteri del territorio, la carta archeologica, per documentare le testimonianze riportate in luce, le tracce ancora interrate e le proposte ricostruttive, e in�ne la rappresentazione architettonica per presentare nel dettaglio i complessi monumentali e il sistema urbano. Le tre fonti principali di informazione della carta di Hierapolis, costantemente sottoposte a veri�ca, confronto e integrazione, sono il rilievo metrico di dettaglio a terra, l’ortofoto satellitare, che deriva da una scena QuickBird del 2005, e la restituzione cartogra�ca turca degli anni Novanta, realizzata in base a un volo più antico. A partire dal 2001, l’adozione e l’uso sempre più intensivo di nuove tecnologie e nuovi strumenti, quali le immagini satellitari e il GPS, hanno determinato l’esigenza di riferire la carta di Hierapolis a sistemi di riferimento nazionali e in particolare a due diversi sistemi cartogra�ci: quello topogra�co, a piccola scala, e quello catastale. I dati, organizzati all’interno di un database relazionale, sono stati archiviati in una piattaforma GIS e la loro elaborazione ha dato vita a Modelli Digitali del Terreno, che favoriscono la visualizzazione di informazioni altrimenti non apprezzabili, quali la pendenza del terreno, l’esposizione dei versanti, le direzioni di scorrimento e i potenziali volumi dei corsi d’acqua, agevolano lo studio integrato dei dati archeologici e di quelli morfologici e, con la loro tridimensionalità, danno una visione del complesso informativo in maniera assai vicina alla realtà. Particolare attenzione è stata dedicata alla rappresentazione delle evidenze archeologiche e architettoniche, frutto dell’integrazione dei rilievi forniti dai singoli gruppi di lavoro che operano sul pianoro. Tale rappresentazione, che riguarda in particolare l’edi�cato antico, le necropoli monumentali e la viabilità urbana ed extra421 Recensioni urbana, «è stata affrontata tramite la continua sintesi, integrazione e omogeneizzazione delle informazioni al �ne di ottenere una proposta di rappresentazione adatta alla scala utilizzata (1:1000)» (C. Bonfanti, p. 10). Inoltre, dal 2001, la gestione del rilievo archeologico a Hierapolis è avvenuta all’interno del sistema messo a punto dal Politecnico di Torino per la planimetria della città, giovandosi dell’integrazione di diverse tecnologie (Stazione Totale, GPS e GIS). I rilievi di scavo, realizzati utilizzando la tecnica celerimetrica, trasformati in formato digitale, georeferenziati e digitalizzati, sono andati a implementare l’archivio dei dati gra�ci, che costituisce il cuore del sistema informativo elaborato dal Laboratorio di Informatica per l’Archeologia dell’Università del Salento (B. Pecere). Due capitoli in particolare forniscono elementi di dettaglio relativi all’applicazione di moderne tecnologie di elaborazione dei dati: l’ortoproiezione di immagini satellitari per la realizzazione di prodotti cartogra�ci, con precisioni compatibili a quelli della tradizionale cartogra�a numerica e/o fotogra�ca (F. Chiabrando); le elaborazioni multispettrali delle acquisizioni satellitari per meglio evidenziare le tracce e le anomalie riferibili a resti archeologici sepolti o a elementi paleo-ambientali; l’integrazione delle ricerche di super�cie e dei dati telerilevati con prospezioni geomagnetiche e con l’utilizzo del GPR (G. Scardozzi). La prima sezione si chiude con un capitolo di sintesi archeologica, dedicato alle principali fasi di trasformazione dell’impianto urbano: dalla fondazione di Hierapolis in epoca ellenistica alla prima età imperiale (III sec. a.C.-età neroniana), per passare attraverso l’età imperiale (età �avia-IV sec. d.C.) e l’età proto-bizantina (V-metà VII sec. d.C.) e per giungere in�ne alle epoche medio-bizantina, selgiuchide e ottomana (post metà VII sec. d.C.). L’impianto urbanistico ortogonale di Hierapolis, che risulta fortemente integrato con la morfologia del terreno, risale al periodo della fondazione e rimane sostanzialmente invariato �no all’età proto-bizantina, nonostante gli ingenti danni provocati nel tempo da tre grandi eventi sismici (nel 60 d.C., nella seconda metà del IV secolo d.C. e alla metà del VII secolo d.C.), che hanno segnato la storia della città e che hanno comportato ripetuti interventi di ristrutturazione e di ricostruzione (G. Scardozzi). La seconda sezione del volume è dedicata all’Atlante vero e proprio. Ad un’iniziale descrizione del repertorio delle entità e dei simboli gra�ci utilizzati, che permette di avere un quadro sintetico della corrispondenza tra i dati (le entità spaziali) e i simboli gra�ci associati, segue l’illustrazione dei 4 Quadri d’insieme. Il Quadro 1 è caratterizzato dalla sovrapposizione dei dati relativi all’antropizzazione antica all’ortofoto satellitare (scala 1:25.000) e offre con immediatezza una panoramica della morfologia del territorio su cui sorge Hierapolis. Il Quadro 2 e il Quadro 3 contengono gli strati informativi di natura vettoriale che compongono la cartogra�a: nel primo caso è riportato il taglio dei fogli dell’Atlante (1:10.000), mentre nel secondo l’estensione è limitata all’area urbana e alle strutture edi�cate extraurbane più prossime (1:5000). In�ne, il Quadro 4 concerne la restituzione vettoriale dell’area della Necropoli Nord (1:4000). I Fogli, in scala 1:1000, sono complessivamente 53 e analizzano in dettaglio la città procedendo da Nord a Sud. Schede sintetiche descrivono le evidenze antiche presenti nell’area urbana e nelle necropoli circostanti, soffermandosi, oltre che sui principali complessi monumentali, sui resti dell’impianto urbano, sul sistema di forti�cazione e sulla viabilità antica. Termina il volume un’Appendice dedicata all’Atlante di Hierapolis on-line, che si basa sulla realizzazione di una piattaforma webGIS, a completamento, supporto e integrazione del testo, che «nasce con speci�che �nalità di comunicazione e di condivisione delle informazioni» (p. 149). Il progetto, coordinato da G. Scardozzi, è 422 Recensioni stato sviluppato dal Laboratorio di Topogra�a Antica, Archeologia e Telerilevamento dell’IBAM ed è accessibile sia dal sito web dell’Istituto del CNR (http://www.ibam. cnr.it/) sia da quello della MAIER (http://www.misart.it/). Rispetto alla versione cartacea, la versione in rete anzitutto svincola l’utente dal fattore di scala e dalla consultazione per fogli distinti e gli offre la possibilità di navigare in modo agile e rapido all’interno delle informazioni. La ricerca può essere effettuata per Monumenti o per Fasi cronologiche, con esiti che portano alla costruzione dinamica di mappe tematiche e alla integrazione di dati spaziali e temporali. Allegata al volume si trova anche una versione su DVD, che si ispira alla struttura dell’Atlante on-line e ne costituisce il collegamento ideale con la versione cartacea. I contenuti, articolati in 4 sezioni – Atlante della città e delle necropoli, Cartogra�a, Immagini da satellite e Modelli tridimensionali del terreno – possono essere infatti consultati attraverso due modalità di navigazione: quella per fogli, tipica della consultazione tradizionale, e quella topogra�ca, tipica della versione in rete. Nel complesso, l’Atlante di Hierapolis di Frigia costituisce una testimonianza esemplare di continuità di intenti, di evoluzione metodologica, di approccio interdisciplinare, di utilizzazione cosciente e pro�cua di tecnologie innovative: tutti elementi indispensabili per operare, nel quadro di una sinergica collaborazione scienti�ca e in funzione di una condivisione degli esiti della ricerca, il necessario passaggio dalla fase di lettura diretta sul terreno a quella di progettualità operativa, anche in vista della tutela e della valorizzazione del sito archeologico. Paola Moscati L. Valdés, Gastiburu: el santuario vasco de la Edad del Hierro, Madrid 2009, Real Academia de la Historia. Le ricerche di Luis Valdés, pubblicate dalla Real Academia de la Historia in due imponenti volumi, si pongono come un importante passo nello sviluppo degli studi sull’area basca nell’età del Ferro, periodo di nebulosa trasformazione sociale e politica della penisola iberica. Valdés ripercorre le tappe dell’urbanizzazione nella Valle del Fiume Oka, centrando la sua attenzione sull’importante oppidum di Marueleza e le sue mura, testimonianza dello sforzo sociale e amministrativo delle élites dell’insediamento, dimostrazione ideologica del loro potere. Punto chiave delle interpretazioni storiche di Valdés è il locale santuario di Gastiburu. Qui gli scavi dell’autore hanno portato alla luce una complessa fabbrica sacra, il cui impianto geometrico e la cui cura nella costruzione, provata fra l’altro dall’identi�cazione di un preciso modulo di misura, testimonia un altro importante sforzo pubblico della comunità del IV sec. a.C. che lo ha costruito. L’impianto architettonico del santuario è accuratamente descritto in uno dei capitoli centrali del libro e colpisce per la particolare forma comprendente quattro sporgenze con pianta a ferro di cavallo estese su una piattaforma di roccia pentagonale. La forma a ferro di cavallo che caratterizza gli spazi sacri interni del santuario è oggetto dell’analisi speculativa di Valdés che ne chiari�ca l’originalità nel panorama culturale contemporaneo. La mancanza di dati sulla cultura materiale nel santuario, se si escludono ritrovamenti certo di gran signi�cato come le rappresentazioni di animali totemici come il cavallo, il bue ed il cane e le tavole da gioco con possibile valore divinatorio, porta l’autore ad implementare l’uso di metodologie sussidiare per raccogliere più dati possibili sulla funzione dell’area sacra. Proprio questo 423 Recensioni approccio multidisciplinare rappresenta la conquista più signi�cativa del lavoro di Valdés, perfetto esempio di una “Archeologia del Paesaggio” volta all’unione di diverse metodologie, come l’analisi spaziale degli insediamenti, le analisi geologiche, paleobotaniche e topogra�che dell’ambiente circostante il santuario di Gastiburu e lo studio dei suoi orientamenti astronomici. Il territorio in cui l’area sacra fu eretta diventa quindi esso stesso centrale nell’analisi di Valdés, permettendogli di interpretare la sua funzione nel complesso panorama storico culturale nel quale lo stesso santuario fu eretto. Questa attenta e fruttuosa metodologia di indagine, a cui viene associata una corposa documentazione gra�ca, che comporta dettagliate piante topogra�che della regione, numerosi rilievi di fase, piante geologiche del territorio e ricostruzioni 3D, analisi botaniche con i relativi gra�ci, fotogra�e di scavo ed in�ne un completo catalogo dei ritrovamenti del santuario di Gastiburu, risulta essere la forza maggiore dell’interpretazione storica dell’autore. L’approccio multidisciplinare permette, anche in assenza di dati epigra�ci, di ricostruire, in un rigoroso rispetto del contesto storico, le ideologie e le credenze religiose di dif�cile interpretazione, ma fondamentali nello studio delle civiltà proto-urbane. Questi sono infatti i contesti di cambiamento, precedenti a quelli economici e sociali, che portano al costituirsi di una cultura urbana: lo sviluppo ideologico e religioso è inevitabilmente necessario alla classe sacerdotale e alle élites claniche per creare le condizioni di pax sociale che permettono la nascita di un insediamento urbano. Proprio l’analisi archeoastronomica è fondamentale per cercare di interpretare questi cambiamenti nell’ideologia, in particolar modo davanti ad un’assenza di riferimenti testuali, come è il caso dell’età del Ferro nella Valle del Fiume Oka. All’analisi degli allineamenti astronomici nel sito di Gastiburu è dedicato infatti un lungo paragrafo del saggio di Valdés, nel quale si dimostra in modo inequivocabile che il santuario fu costruito in una località scelta accuratamente in base alla necessità di trovare nella cerchia di cime montuose che la circondano riferimenti opportuni per l’osservazione di eventi astronomici. Le strutture del santuario furono poi costruite in modo da garantire, dal centro della piazza centrale, allineamenti con questi riferimenti che consentivano la determinazione precisa delle date dei solstizi e dei lunistizi. L’ampia documentazione presentata dimostra pienamente l’esistenza degli allineamenti affermati e la loro intenzionalità, punto questo di fondamentale importanza in ogni indagine archeoastronomica ma che viene ancora troppo spesso trascurato. Lo studio mette così in evidenza come i costruttori di Gastiburu fossero pienamente a conoscenza non solo del moto apparente del Sole durante l’anno ma anche di quello, pluriennale e molto più complesso, della Luna: ciò dimostra che essi, anche se non vi sono prove evidenti che fossero in grado di prevedere le eclissi, avevano scelto il luogo del santuario sulla base di osservazioni che si erano protratte per decenni e che erano state accuratamente documentate (anche se non possiamo per ora dire con quali mezzi) in modo da potere essere trasmesse nel tempo, �no al momento nel quale avvenne la decisione �nale sulla localizzazione e sulla pianta del santuario. La presenza di questi allineamenti conferma quindi ulteriormente la conclusione dell’autore che Gastiburu fosse un “luogo centrale”, sia religioso che amministrativo, di una società ben organizzata e gestita da una élite religiosa, esperta nelle misure astronomiche utilizzate sia per scopi rituali che calendariali. Probabilmente, un’ulteriore analisi archeoastronomica sia del santuario di Gastiburu sia dell’oppidum di Marueleza, condotta utilizzando tutti i mezzi che l’Astronomia e l’informatica mettono ora a disposizione di questi studi, potrebbe evidenziare altri elementi capaci di farci meglio comprendere il livello di conoscenze di questa società, evidentemente ben più sviluppata di quanto sia stato ritenuto in passato. 424 Recensioni In�ne, notevole è l’attenzione dell’autore alle attività di restauro e conservazione di questo importante santuario di Gastiburu e del sito di Marueleza, a cui nel libro viene dedicato un intero capitolo nella parte �nale. La valorizzazione di questo patrimonio archeologico è infatti, e ancor di più in un contesto come il territorio basco, centrale nel contributo che la pubblicazione degli scavi al santuario di Gastiburu può dare alla diffusione delle conoscenze relative all’origine della identità culturale del territorio nel quale si colloca. Andrea Polcaro Vito Francesco Polcaro V. Fronza, A. Nardini, M. Valenti (eds.), Informatica e Archeologia Medievale. L’esperienza senese, Firenze 2009, All’Insegna del Giglio. Le attività e le esperienze dell’Area di Archeologia Medievale del Dipartimento di Archeologia e Storia delle Arti dell’Università di Siena nel campo delle applicazioni informatiche e tecnologiche nella pratica delle discipline archeologiche sono raccolte in sintesi in un agile e interessante volume di recente edito a cura di V. Fronza, A. Nardini e M. Valenti. Da circa quindici anni le attività di questo gruppo di archeologi si sono concentrate a sviluppare strumenti e prodotti informatici di supporto alla ricerca e alla catalogazione. Nel 1996 è stato creato il LIAAM (Laboratorio di Informatica Applicata all’Archeologia Medievale), di cui fanno parte archeologi che hanno sviluppato tecniche di documentazione digitale al �ne di gestire in modo ottimale il dato archeologico e di renderlo fruibile sia dalla comunità scienti�ca, sia dal pubblico dei non esperti. Gli articoli presentati, anche se relativi ad argomenti di una certa complessità, offrono al lettore la possibilità di entrare con gradualità nell’argomento e di comprendere con interesse gli sforzi e le procedure che hanno portato alla realizzazione di strumenti informatici utili al progresso della ricerca. Il volume si apre con un contributo di M. Valenti, Una via archeologica all’informatica (non una via informatica all’archeologia), che si pone come un’introduzione al lavoro del gruppo senese e come una nota sintetica sulle applicazioni informatiche nel settore archeologico e sulle vivaci attività svolte in questo settore dagli archeologi di Siena e del gruppo del LIAAM, in particolare. Il testo sottolinea l’importanza ormai consolidata dell’uso dell’informatica nella ricerca archeologica, soprattutto per quanto riguarda la gestione dei dati raccolti durante le ricerche: «senza l’impiego del calcolatore non è assolutamente possibile governare in tempo reale la massa composita dei dati osservati e prodotti durante le indagini, anche se si decidesse di mantenere un grado di dettaglio fortemente approssimato» (p. 16). Valenti sottolinea in più momenti l’importanza di «una via archeologica all’informatica, intesa soprattutto come il bisogno di mostrarsi poco informatici e molto archeologi»: questi sono i presupposti fondamentali del lavoro del LIAAM senese, nell’ambito del quale si sono da anni valorizzati «il protagonismo dell’archeologo e l’uso strumentale e �nalizzato della tecnologia» (p. 12). Nel processo di archiviazione ed elaborazione dei dati tramite gli strumenti informatici, il ricercatore è costretto ad attuare un processo mentale rigoroso, fondato sulla sua cultura archeologica: ed è quindi «l’archeologo (con il suo background, le sue conoscenze, la sua sensibilità storica, il suo intuito) a determinare in modo sostanziale e de�nitivo la qualità dell’interpretazione» (p. 18). Valenti conclude con l’auspicio che l’informatica archeologica possa «diventare patrimonio 425 Recensioni metodologico comune in ambito archeologico, meritando un appropriato spazio in tutti i contributi relativi a progetti che ne prevedono l’uso» (p. 27). I contributi che seguono illustrano le diverse applicazioni informatiche di supporto alla ricerca archeologica sviluppate dai ricercatori del LIAAM e principalmente legate alla città di Siena e al suo territorio. Apre V. Fronza con L’archiviazione del dato in archeologia, incentrato sull’uso del database nella registrazione della documentazione archeologica. Si presentano i risultati del lavoro compiuto sul DBMS Carta Archeologica, un database �essibile e adattabile alle diverse situazioni, pensato con un’interfaccia utente semplice che consente di effettuare con facilità le operazioni base, con lineari esportazioni di dati e con possibilità di gestire immagini e �lmati. F. Salzotti e A. Nardini analizzano, poi, tre diversi tipi di applicazione del GIS sviluppati e portati avanti dal gruppo del LIAAM. Si inizia con la descrizione dettagliata dei metodi e delle procedure riguardanti l’applicazione del GIS alla ricerca territoriale (L’applicazione del GIS alla ricerca territoriale: costruzione e gestione della cartogra�a archeologica), e delle sue �nalità legate alla «produzione di conoscenza e di cartogra�a per la ricostruzione di paesaggi storici» (p. 67). Si passa successivamente a descrivere la soluzione GIS utilizzata per raccogliere e gestire dati e conoscenze relative allo spazio urbano (Il sistema “GIS urbano”: una proposta di archiviazione e gestione del patrimonio storico-archeologico presente all’interno della città), sistema che ha forti potenzialità di utilizzo, dalla consultazione e ricerca alla conservazione e tutela del patrimonio. In�ne in La gestione della documentazione archeologica di scavo tramite GIS vengono indicate le grandi potenzialità nella gestione della documentazione dei contesti di scavo. Gli archeologi del LIAAM hanno sperimentato a partire dal 1996 l’uso del GIS nello scavo di Poggio Imperiale a Poggibonsi (SI), pratica che ha portato alla realizzazione di una soluzione, chiamata OpenArcheo: pensata con l’obiettivo, assai valido, di creare uno standard di riferimento «che riuscisse a far dialogare le migliaia di scavi condotti in tutta Italia, proprio come era accaduto in occasione delle schede US e UT», essa è rimasta, purtroppo, circoscritta nell’uso all’Area di Archeologia Medievale dell’Università di Siena. M. Peripimeno presenta l’impiego delle tecniche di laser scanner nello studio delle strutture architettoniche (Rilievo di monumenti e stratigra�e: l’uso del laser scanner), con particolare riferimento all’uso che gli archeologi del LIAAM ne hanno fatto nello scavo del Castello di Mirandolo (Chiusino, SI), mentre F. Salvadori (Modellazione dei reperti) ne analizza un uso legato allo studio di reperti. Gli ultimi due articoli sono in�ne dedicati ad un aspetto di grande attualità nella ricerca archeologica: la diffusione dei dati e dei risultati delle ricerche. Internet, infatti, con il suo grande potenziale di diffusione dei dati, ha permesso negli anni più recenti di percorrere nuove strade per rendere noti i risultati delle ricerche e divulgare e scambiare le conoscenze acquisite, in alternativa alla stampa. L’obiettivo che deve essere comunque perseguito è quello di una trasmissione culturale adeguata e corretta, obiettivo che il LIAAM persegue tramite il Portale di Archeologia Medievale, on-line dal 1996. Il portale, valorizzato da una gra�ca piacevole e chiara, mette a disposizione oltre 8000 pagine che raccolgono progetti, attività e strumenti di diverso tipo (L. Isabella, Diffusione del dato: il portale web di archeologia medievale). L’ultimo articolo di C. Tronti, Tecnologie multimediali per la documentazione e la comunicazione del dato archeologico, è dedicato alla comunicazione tramite prodotti multimediali. Anche in questo settore gli archeologi di Siena hanno portato avanti progetti innovativi, come quello della collana Archeologia e paesaggi multimediali, progetto editoriale particolarmente attento alle tecniche di comunicazione e di presentazione gra�ca. Nell’articolo si spiegano in dettaglio il concetto di multimedialità, i procedimenti che 426 Recensioni portano alla realizzazione di un prodotto multimediale (quali la de�nizione di una sceneggiatura e la progettazione di un’interfaccia gra�ca) e la creazione di prodotti interattivi destinati a mostre e musei. A corredo degli articoli si trovano molte immagini in bianco e nero e a chiusura del volume è presente un utile glossario dei termini di informatica archeologica. Alessandra Caravale 427