Untitled

Transcript

Untitled
ARCHEOLOGIA E CALCOLATORI
CNR – Dipartimento Patrimonio Culturale
Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico
Rivista fondata da MAURO CRISTOFANI e RICCARDO FRANCOVICH
Comitato Scientifico: DANIEL ARROYO-BISHOP, JOHN BOARDMAN,
ROBIN B. BOAST, FRANCISCO BURILLO MOZOTA, CHRISTOPHER
CARR, MARTIN O.H. CARVER, ANGELO CERIZZA, FRANCESCO
D’ANDRIA, IVAN DI STEFANO MANZELLA, FRANÇOIS DJINDJIAN,
JAMES E. DORAN, MICHAEL EISNER, JEAN-CLAUDE GARDIN,
SA LVATOR E GA R R A F FO, F I L I PPO GI U DIC E , A N N E -M A R I E
GUIMIER-SORBETS, IAN HODDER, F. ROY HODSON, DONNA C.
KURTZ, ADRIANO MAGGIANI, DANIELE MANACORDA, TIZIANO
MANNONI, PAOLA MOSCATI, TITO ORLANDI, CLIVE R. ORTON,
FRANCESCO RONCALLI, PAOLO SOMMELLA, ALBERTUS VOORRIPS
Direttore responsabile: PAOLA MOSCATI
Redazione: GIOVANNI AZZENA, LETIZIA CECCARELLI, ANTONIO GOTTARELLI, MARIA PIA GUERMANDI, MARIA CECILIA PARRA, GRAZIA
SEMERARO, GIANLUCA TAGLIAMONTE, MARCO VALENTI
Segreteria di Redazione: ALESSANDRA CARAVALE, BIANCA LEA ZAMBRANO
Autorizzazione del presidente del Tribunale di Firenze n. 3894 del 6/11/1989
Indirizzo Redazione: Rivista «Archeologia e Calcolatori», CNR – ISCIMA, Area della
Ricerca di Roma 1, Via Salaria Km 29,300, 00016 Monterotondo Stazione (RM)
Tel. +39.06.90672284 – Fax +39.06.90672818
E-mail: [email protected]
http://soi.cnr.it/archcalc/
Edizione e distribuzione: EDIZIONI ALL’INSEGNA DEL GIGLIO s.a.s., Via della
Fangosa 38, 50032 Borgo San Lorenzo (FI)
Tel. +39.055.8450216 – Fax +39.055.8453188
E-mail: [email protected][email protected][email protected]
http://www .edigiglio.it/
ARCHEOLOGIA
E CALCOLATORI
20
2009
All’Insegna del Giglio
Volume edito in collaborazione con il Dipartimento Patrimonio Culturale del CNR
Realizzazione gra�ca della sovracoperta di Marcello Bellisario
ISSN 1120-6861
ISBN 978-88-7814-444-6
© 2010 – All’Insegna del Giglio s.a.s. – www.edigiglio.it
Stampato a Firenze nel gennaio 2010 - Tipolitogra�a Toccafondi
Abbonamento: Italia € 25,00 – Estero € 28,00
I dati forniti dai sottoscrittori degli abbonamenti vengono utilizzati esclusivamente
per l’invio della pubblicazione e non vengono ceduti a terzi per alcun motivo.
INDICE
La nascita dell’informatica archeologica, Atti del Convegno
Internazionale (Roma, Accademia Nazionale dei Lincei, 24 ottobre 2008),
a cura di Paola Moscati
S. Panciera, Parole di saluto
9
E. Vesentini, Gli anni ’70 e la Scuola Normale
11
T. Orlandi, Informatica archeologica e non archeologica
17
J.D. Richards, From anarchy to good practice: the evolution of standards
in archaeological computing
27
D. Kurtz, www.beazley.ox.ac.uk. From apparatus of scholarship to web
resource. The Beazley Archive 1970-2008
37
P. Sommella, Esperienze documentali sul territorio dagli anni ’80 ad oggi.
Alcune considerazioni
47
F. Djindjian, The golden years for mathematics and computers in
archaeology (1965-1985)
61
G. Lock, Archaeological computing then and now: theory and practice,
intentions and tensions
75
G. Semeraro, Strumenti “tradizionali” e nuove tecnologie per la
comunicazione in archeologia
85
J.A. Barceló, The birth and historical development of computational
intelligence applications in archaeology
95
O. Signore, Representing knowledge in archaeology: from cataloguing
cards to Semantic Web
111
P. Paolini, Museo Virtuale dell’Informatica: un esempio emblematico
129
P. Moscati, «Archeologia e Calcolatori»: le ragioni di una scelta
145
M.P. Guermandi, Provando e riprovando: un quarto di secolo di applicazioni 155
G. Azzena, Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi
Territoriali, Analisi spaziali)
169
A. Caravale, La catalogazione informatica del patrimonio archeologico
179
A. Gottarelli, 1984-2009. Da Te.m.p.l.a. al Centro di Ricerca per le
Tecnologie Multimediali Applicate all’Archeologia. Un caso di studio
nella storia delle applicazioni multimediali in archeologia
189
C. Dallas, From artefact typologies to cultural heritage ontologies: or, an
account of the lasting impact of archaeological computing
205
*
*
*
A. Polcaro, V.F. Polcaro, Man and sky: problems and methods of
Archaeoastronomy
223
R. Laužikas, Digitization as a science
247
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali, Spatial pattern of archaeological
site distributions on the eastern shores of Lake Urmia, northwestern Iran
261
S.J. Kay, R.E. Witcher, Predictive modelling of Roman settlement in the
middle Tiber valley
277
A. Casarotto, A. De Guio, F. Ferrarese, ACTION GIS: un modello
predittivo del movimento antropico in un paesaggio antico. Il caso
di studio archeologico della Val d’Alpone (VR)
291
S. Di Zio, D. Bernabei, Un modello GIS multicriterio per la costruzione
di mappe di plausibilità per la localizzazione di siti archeologici:
il caso della costa teramana
309
G. Bigliardi, Sistema Informativo Territoriale Archeologico e Carta della
Potenzialità Archeologica del Comune di Parma
331
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo, “Mura Bastia”.
Dati archeologici, informatizzazione e rilievi 3D laser scanning del
Castello degli Onigo (Pederobba, Treviso)
351
N. Lombardo, Baia: le terme sommerse a Punta dell’Epitaf�o. Ipotesi di
ricostruzione volumetrica e creazione di un modello digitale
373
L. Palmieri, “Progetto Calvatone”: dallo scavo all’edizione multimediale
397
Recensioni:
F. D’Andria, G. Scardozzi, A. Spanò (eds.), Atlante di Hierapolis di Frigia,
Istanbul 2008, Ege Yayınları (P. Moscati), p. 421; L. Valdés, Gastiburu:
el santuario vasco de la Edad del Hierro, Madrid 2009, Real Academia de
la Historia (A. Polcaro, V.F. Polcaro), p. 423; V. Fronza, A. Nardini, M.
Valenti (eds.), Informatica e Archeologia Medievale. L’esperienza senese,
Firenze 2009, All’Insegna del Giglio (A. Caravale), p. 425.
LA NASCITA DELL’INFORMATICA
ARCHEOLOGICA
Atti del Convegno Internazionale
Accademia Nazionale dei Lincei
Centro Linceo Interdisciplinare “Beniamino Segre”
(Roma, 24 ottobre 2008)
a cura di
Paola Moscati
Comitato ordinatore:
Tito Orlandi, Paolo Sommella, Edoardo Vesentini, Paola Moscati
Il Convegno è stato organizzato d’intesa con:
Consiglio Nazionale delle Ricerche
Ministero per i Beni e le Attività Culturali
Ministero dell’Istruzione, dell’Università e della Ricerca
Associazione Amici dell’Accademia dei Lincei
Siav S.p.A.
Università Italo Francese
La naissance de l’informatique en archéologie est
aujourd’hui une application très ancienne, qui peut remonter
jusqu’aux années 1950. On trouverait ici des cas de toutes
sortes, antérieurs même aux emplois les plus élevés du genre,
touchant l’apparition du calcul en archéologie.
De là on aboutit à un proche en proche des passages
“virtuels” en archéologie, où la formation est de bâtir des
centres de recherche appliquée aux technologies multimédia
dans la discipline.
Les exemples du genre sont très nombreux dans un
livre même, et l’on peut s’interroger sur les mérites respectifs
de chacun. Telle est bien la fonction principale de l’ensemble
de l’admirable essai réuni par Paola Moscati.
Jean-Claude Gardin
Archeologia e Calcolatori
20, 2009, 9-10
Il Prof. Silvio Panciera apre il Convegno con le seguenti parole:
Il Presidente, Prof. Giovanni Conso, ed il Direttore, Prof. Rodolfo Sacco, hanno voluto delegare a me il compito di rivolgere un cordiale saluto di
benvenuto agli organizzatori ed ai partecipanti a questo Convegno, rispettivamente a nome dell’Accademia Nazionale dei Lincei e del Consiglio Direttivo
del Centro Linceo Interdisciplinare “Beniamino Segre”.
Ho accettato questo incarico tanto più volentieri in quanto avevo già
deciso di partecipare al Convegno per l’importanza degli studiosi che vi parlavano e per i temi, per molti aspetti non lontani dai miei interessi, di cui si
annunciava la trattazione; dunque: benvenuti a tutti a nome dell’Accademia
e del Centro Segre.
La rivoluzione informatica, di cui siamo testimoni, fruitori ed in qualche
caso anche protagonisti, investe i più diversi campi del sapere e dell’agire ed è
importante che chi opera in questo settore si incontri per scambiare ri�essioni,
esperienze e dubbi, sia di ordine generale, sia su speci�ci aspetti speculativi
o applicativi.
Il Centro Linceo, che prende il nome da chi lo ha fondato nel 1971, il
grande matematico Beniamino Segre, avendo, come suo scopo primario, lo
sviluppo di ricerche di carattere interdisciplinare con riferimento al pensiero
matematico ed alle sue applicazioni, ha scelto da tempo di favorire in vario
modo – tra l’altro – l’incontro delle discipline umanistiche con i metodi e le
tecniche dell’informatica. Così ci sono stati qui ai Lincei parecchi incontri,
Seminari e Convegni che hanno affrontato le questioni che da questo tipo
d’incontro discendono, sia da un punto di vista generale, come in un Seminario del 1991, intitolato “Discipline umanistiche e informatica: il problema
dell’integrazione” o nel ciclo seminariale del 1994, poi pubblicato sotto il
titolo “Discipline umanistiche e informatica: il problema della formalizzazione”, sia da altre ottiche più settoriali, �lologica, ad esempio, come per
limitarsi alle manifestazioni più recenti, nel Convegno Linceo del 1998 su “I
nuovi orizzonti della �lologia: ecdotica, critica testuale, editoria scienti�ca e
mezzi informatici elettronici” e nel volume di Lorenzo Perilli, nato dentro al
Centro Segre e dallo stesso pubblicato, dal titolo “Filologia computazionale”,
o anche dal punto di vista archeologico – sempre per limitarsi alle iniziative
più recenti – come nel Convegno Internazionale su “I modelli nella ricerca
archeologica: il ruolo dell’informatica”, tenuto qui nel 2000. Ma la questione
dei rapporti tra archeologia ed informatica è già stata molte altre volte in
questa sede �n dai primi anni Ottanta.
9
Ai problemi dei rapporti tra archeologia ed informatica si torna anche
con il Convegno odierno, ma in un’ottica che mi sembra un po’ diversa e che
vorrei sottolineare.
L’informatica suole essere considerata disciplina giovane, giovanissima,
e in effetti, con solo una cinquantina di anni di vita, lo è veramente, ma è
anche vero che nel campo dell’informatica tutto si muove con grande celerità, cosicché non ci si deve stupire se ad appena un quarantennio dalle prime
applicazioni dell’informatica all’archeologia un gruppo quali�cato di studiosi,
tra cui quello che fa capo alla meritoria rivista «Archeologia e Calcolatori»,
ha sentito il bisogno di fermarsi, volgersi indietro e considerare ormai “storicamente” il cammino percorso.
Naturalmente per gli studiosi ri�ettere sul passato, lungo o breve che
sia, non è mai operazione in sé conclusa, perché è anche da tale ri�essione
che dipendono molte delle scelte riguardanti il futuro.
Tra pochi giorni, in questa stessa sala si terrà un altro Convegno Internazionale promosso dal Centro Segre che sarà dedicato ai rapporti tra
Epigra�a, informatica e ricerca storica, con particolare riferimento al progetto
informatico EAGLE, che sta creando una banca dati generale dell’epigra�a
greca e latina. Anche in questo caso si dovrà ri�ettere su ciò che è stato fatto
e su quello che ancora ci si propone di fare mettendo a frutto le esperienze
degli ultimi decenni.
Il programma del Congresso che sta per cominciare mostra che, nella
sua organizzazione, si è posta molta attenzione af�nché entrambi i poli della ri�essione – passato e futuro – vi giocassero la loro parte e, visti anche i
nomi dei partecipanti, non dubito che vi siano le migliori premesse perché la
manifestazione abbia pieno successo.
A nome del Presidente dell’Accademia Nazionale dei Lincei e del Direttore del Centro Linceo Interdisciplinare “Beniamino Segre” ringrazio tutti
i componenti del Comitato Ordinatore – Tito Orlandi, Paolo Sommella,
Edoardo Vesentini e Paola Moscati – per avere assunto ed impostato questa
importante iniziativa, tutti gli Enti che l’hanno cosponsorizzata e tutti i relatori
per il determinante contributo che si accingono a dare.
A tutti i partecipanti il più cordiale benvenuto ed i migliori auguri perché
questo incontro risulti piacevole, oltre che – come negli intenti – altamente
produttivo.
10
Archeologia e Calcolatori
20, 2009, 11-15
GLI ANNI ’70 E LA SCUOLA NORMALE
1. Enrico Fermi e la prima calcolatrice elettronica a Pisa
A più di sessant’anni di distanza dalla �ne della seconda guerra mondiale, i primi anni ’50 possono apparire oggi – a molti di coloro che li hanno
vissuti – anni di costruttivo ottimismo. Nella scuola, nelle istituzioni culturali,
nei laboratori scienti�ci, la consapevolezza di avere avviato con qualche successo la ricostruzione delle strutture di base annientate dalla guerra consentiva
di progettare sviluppi futuri nei quali fossero costrette ad integrarsi, per la
prima volta, risorse e competenze �no ad allora lontane l’una dall’altra.
In �sica, le ricerche sul nucleo dell’atomo ponevano – sul piano organizzativo – questioni di programmazione all’incrocio con istanze scienti�che,
politiche, didattiche, �nanziarie di grande momento. Fra esse, i problemi
gestionali e �nanziari assumevano sovente una valenza prioritaria che dava
particolare rilievo agli aspetti dell’autonomia e della programmazione, oltre
che al reperimento di risorse adeguate.
Questi problemi attrassero l’attenzione di Enrico Fermi nella visita che
egli compì in Italia pochi mesi prima di morire. Il frutto di queste ri�essioni
fu una lettera che, l’11 agosto 1954, egli indirizzò ad Enrico Avanzi, Rettore
dell’Università di Pisa.
In occasione del mio soggiorno alla Scuola di Varenna – scrive Fermi – i
professori Conversi e Salvini mi hanno accennato la possibilità che l’Università
di Pisa possa disporre di una somma veramente ingente destinata a favorire
il progresso e lo sviluppo della ricerca in Italia. Interrogato circa le varie
possibilità di impiego di tale somma, quella di costruire in Pisa una macchina
calcolatrice elettronica mi è sembrata, fra le altre, di gran lunga la migliore.
Essa costituirebbe un mezzo di ricerca di cui si avvantaggerebbero in modo,
oggi quasi inestimabile, tutte le scienze e tutti gli indirizzi di ricerca.
Una parola chiave nella lettera è costruire la calcolatrice elettronica: fare
della sua realizzazione un evento scienti�co-didattico del quale si sarebbero
avvantaggiate, in modo inestimabile, tutte le scienze e tutti gli indirizzi di
ricerca, sì che – scrive ancora Fermi – alla disponibilità della nuova macchina
si aggiungerebbero i vantaggi che ne verrebbero agli studenti e agli studiosi
che avrebbero modo di conoscere e di addestrarsi nell’uso di questi nuovi
mezzi di calcolo1.
1
La lettera, che precede di poco più di tre mesi la scomparsa di Enrico Fermi (ed è stata, come
ricorderà più tardi Giulio Racah, “l’ultimo dono lasciato da Fermi in eredità all’Italia”) è anche il
ri�esso di alcuni degli interessi scienti�ci coltivati da Fermi in quel periodo. Primo fra i quali, anche
per l’in�uenza di Stan Ulam, l’interesse per il calcolo elettronico, testimoniato, fra l’altro, dalla Nota:
11
E. Vesentini
Ma, al di là di questi suggerimenti concreti, la lettera ad Enrico Avanzi
si presta ad un’interpretazione più personale. Si può ritrovare in essa il ricordo degli anni lontani nei quali Fermi, studente a Pisa, “insegnava” ai suoi
maestri pisani i rudimenti della nuova meccanica2: trentadue anni più tardi,
egli saliva di nuovo in cattedra, a Pisa, e contribuiva a schiudere idealmente
nuovi orizzonti ad antichi e giovani colleghi.
2. CSCE, CEP, CNUCE
La lettera di Fermi ad Enrico Avanzi dette maggior concretezza alla
proposta (che aleggiava in vari atenei ed enti di ricerca italiani3) di concentrare
anche sulla realizzazione di nuovi strumenti di calcolo le risorse che – nell’ambito dei programmi della ricostruzione post-bellica – il Paese si apprestava
a rendere disponibili per lo sviluppo della ricerca scienti�ca. Nel 1961 – a
conclusione di una competizione assai vivace fra le diverse sedi universitarie
sulle linee di sviluppo di una politica della ricerca �sica in Italia, nella quale
si confrontarono proposte fortemente alternative – la lettera di Fermi trovò
attuazione nella CEP (Calcolatrice Elettronica Pisana)4, realizzata grazie ad
un �nanziamento proveniente principalmente dai Comuni e dalle Province di
Pisa, Lucca e Livorno, cui si aggiunsero contributi signi�cativi della Società
Olivetti5 e delle nascenti strutture organizzative della ricerca �sica che sarebbero poi sfociate nell’INFN.
Protagonisti dell’impresa: Marcello Conversi, Giorgio Salvini, Adriano
Olivetti, Alfonso Caracciolo di Forino, Antonio Grasselli, Giovan Battista
Gerace6, che, da origini diverse, portarono, nel CSCE (Centro Studi Calcolatrici Elettroniche), organo di gestione dell’iniziativa, competenze scienti�che
maturate in settori differenti e talora lontane l’una dall’altra, ma che – grazie
E. Fermi, J. Pasta, S. Ulam, Studies of non linear problems, Document LA-1940 (May 1955); E.
Fermi, Note e memorie (Collected papers), Vol. II, Roma 1965, Accademia Nazionale dei Lincei,
The University of Chicago Press, 978-988.
2
Come raccontava lo stesso Fermi ad Enrico Persico; cfr., in proposito: E. Segrè, Enrico
Fermi Physicist, Chicago and London 1970, The University of Chicago Press, 18.
3
Ad esempio, nel Politecnico di Milano, per iniziativa di Luigi Dadda, od altrove – come
ricorda Fermi nella lettera ad Avanzi – nell’Istituto Nazionale per le Applicazioni del Calcolo, diretto
da Mauro Picone.
4
Per un’analisi storica dell’impresa CEP cfr. M. Vanneschi (ed.), La CEP: storia, scienza e
umanità dell’avventura informatica pisana, Ghezzano, Pisa 2009, Felici Editore.
5
Il programma iniziale, volto alla costruzione di un elettrosincrotrone da un miliardo di
elettronvolt, fu poi realizzato a Frascati.
6
Per una storia della progettazione e della realizzazione della CEP – che vide protagonisti,
oltre a quelli citati: Sandro Faedo, Gilberto Bernardini (a quel tempo Direttore dell’INFN), Giovanni
Polvani (Presidente del CNR) �no alla conclusione dell’impresa – cfr. G. De Marco, La CEP nella
storia dell’informatica in Italia, «AICA, Rivista di Informatica», 28, 3, 1998, 167-175.
12
Gli anni ’70 e la Scuola Normale
anche a questa diversi�cazione – riuscirono a sopperire all’assenza di un retroterra culturale e tecnologico adeguato. D’altra parte, la natura composita
delle differenti competenze ed una latente con�ittualità fra alcune di esse in
merito alle priorità delle proposte avanzate, nonché l’aleatorietà di risorse
�nanziarie certe, non contribuì alla stabilità dell’iniziativa, e sollecitò, direttamente ed indirettamente, un consolidamento attraverso l’intervento successivo
di strutture accademiche, scienti�che ed industriali che si erano consolidate
nel frattempo, in Italia e fuori d’Italia.
Il CSCE concluse il suo mandato nel 1960 con la realizzazione della
CEP. Sulle sue ceneri … accademiche nacque, a Pisa, il primo corso di Laurea
in Scienze dell’Informazione che Sandro Faedo, matematico, succeduto ad
Enrico Avanzi quale Rettore dell’Università di Pisa, realizzò quando l’IBM
donò all’Università quella che poteva considerarsi allora una delle punte di
diamante del calcolo elettronico: l’IBM 7090. In questo anti-climax dello
Sturm und Drang degli anni del CSCE, a coordinare e gestire le varie attività
scienti�che e didattiche programmate su una scala ben più ampia di quella
immaginata all’inizio, venne preposto, nel 1964, il CNUCE (Centro Nazionale
Universitario di Calcolo Elettronico), al quale afferirono università e istituti
di ricerca di varia provenienza.
Nel giro di pochi anni, il CNUCE riuscì, fra l’altro, a fornire – con
grande impegno, coronato da maggiore o minore successo – il know-how
informatico indispensabile ad ogni iniziativa scienti�ca, in senso lato, intrapresa dall’una o dall’altra delle istituzioni pisane7 – quali l’Università, la
Scuola Normale Superiore, la Scuola S. Anna, etc. – oltre che da istituzioni
esterne all’ambiente pisano.
Alcune delle più rilevanti iniziative “nuove” scaturirono dal rapporto
fra il CNUCE e l’Istituto Centrale per il Catalogo e la Documentazione,
concepito con il proposito di affrontare «le problematiche della elaborazione
automatizzata dei dati concernenti i beni archeologici … nel quadro dell’unità
concettuale e contestuale del patrimonio culturale», con, in prospettiva, la
creazione di banche dati disponibili alle istituzioni specializzate, come scriveva,
nel 1991, Oreste Ferrari8, Direttore dell’Istituto Centrale per il Catalogo e la
Documentazione.
Alle quali è rigorosamente ristretto questo ricordo.
O. Ferrari, La catalogazione dei beni archeologici e le tecnologie informatiche, «Archeologia e Calcolatori», 2, 1991, 13-17. In essa, Oreste Ferrari faceva alcune malinconiche considerazioni
sui problemi di metodo che la collaborazione aveva incontrato sin dall’inizio: problemi resi ancora
più ardui dall’istituzione dei “giacimenti culturali”, attivati dalla Legge 41/86, avviata – notava
Ferrari – senza tener conto di quel programma preventivo di interventi che era pur facilmente desumibile dallo stato di avanzamento delle catalogazione che gli organi dell’amministrazione pubblica
avevano realizzato almeno dal 1970 in poi.
7
8
13
E. Vesentini
3. La Scuola Normale Superiore e l’informatica storico-artistica
Nell’ambito pisano, sono proprio “le problematiche della elaborazione
automatizzata dei dati concernenti i beni archeologici” e, più in generale dei
dati e documenti storico artistici “nel quadro dell’unità concettuale e contestuale del patrimonio culturale”, che segnano l’ingresso dell’informatica nella
Scuola Normale Superiore: ingresso seguito peraltro con dissimulato scetticismo da alcuni ambienti accademici che, più o meno consciamente, concepivano
il progresso scienti�co, nella Scuola, nella misura in cui esso potesse essere
ricondotto, direttamente o indirettamente, ai percorsi tradizionali.
L’iniziativa – ideata e lanciata da Paola Barocchi, storica dell’arte, allora
Vice-Direttore della Scuola Normale – ebbe tuttavia un successo immediato,
a seguito del quale essa si consolidò intorno al Centro di Elaborazione Automatica di Dati e Documenti Storico Artistici della Scuola Normale Superiore,
intessendo importanti rapporti internazionali – con la Paul Getty Foundation,
con lo Harvard University Center for Italian Renaissance Studies presso la
Villa “I Tatti”, a Firenze, con il Warburg, etc. – e poté presto contare, oltre
che sul CNUCE, su un hardware gestito direttamente od indirettamente dal
personale tecnico interno alla Scuola.
In un ambiente votato alle discipline tradizionali, il successo fu una
sorpresa per molti. Non fu una sorpresa per chi – come Paola Barocchi – fu
uno dei protagonisti più vivaci e convinti dell’impresa, concentrando, ovviamente, la sua attenzione sui temi più vicini ai suoi personali interessi scienti�ci
contingenti, volti allo studio dei documenti del collezionismo mediceo, ma
incoraggiando e favorendo iniziative in settori diversi.
È stato promosso – scriveva Paola Barocchi9, illustrando una delle prime
iniziative concrete intraprese dalla Scuola – sempre in collaborazione con I
Tatti e l’Università di Siena, nonché con il CNUCE, con l’Istituto Centrale del
Catalogo e della Documentazione del Ministero per i Beni Culturali e col valido
sostegno della Regione Toscana, il primo Convegno Internazionale sull’applicazione della memorizzazione elettronica ai dati e documenti storico-artistici,
svoltosi presso la Scuola Normale Superiore nei giorni 4-7 settembre 1978.
Nei trent’anni trascorsi da allora, la visione di nuovi problemi, l’accesso
a tecnologie dagli sviluppi imprevedibili, anche in settori lontani dalle prospettive del calcolo elettronico, trovano ancora riscontro nella lettera che Enrico
Fermi scrisse al Rettore dell’Università di Pisa più di mezzo secolo fa.
Edoardo Vesentini
Accademia Nazionale dei Lincei
9
P. Barocchi, F. Martorana, Aspetti della memorizzazione elettronica applicata ai dati
e documenti storico-artistici, «Centro di Elaborazione Automatica di Dati e Documenti Storico
Artistici, Bollettino d’informazioni», 1, 1, 1980, 27-39.
14
Gli anni ’70 e la Scuola Normale
ABSTRACT
The Author focuses on the role played by the Scuola Normale Superiore in Pisa during
the 1970s and 1980s in the development of computer applications in archaeology and art
history. The roots of this activity can be traced to the post-war period in the 1950s; these were
years full of constructive optimism which, during the 1960s led to the design and construction
of the CEP (Calcolatrice Elettronica Pisana), to the �rst academic Degree in Computer Science
at the University of Pisa, and to the creation of CNUCE (Centro Nazionale Universitario di
Calcolo Elettronico). This latter was founded in order to coordinate the various scienti�c
and educational activities and support computer-based research also in marginal and newly
established �elds. Several important initiatives resulted from the cooperation with the Istituto
Centrale per il Catalogo e la Documentazione, directed by Oreste Ferrari. Computer Science
was introduced at the Scuola Normale Superiore as an approach to the problems related to the
automatic processing of archaeological and art history data and documents, thanks to Paola
Barocchi and the creation of the Centro di Elaborazione Automatica di Dati e Documenti
Storico Artistici, which established important international relationships with the Paul Getty
Foundation, the Harvard University Center for Italian Renaissance Studies at Villa I Tatti, the
Warburg Institute, etc.
15
Archeologia e Calcolatori
20, 2009, 17-26
INFORMATICA ARCHEOLOGICA E NON ARCHEOLOGICA
1. Introduzione
A me tocca oggi l’onorevole ma delicato compito di dare un senso
generale agli interventi e alle manifestazioni che si susseguiranno in questa
giornata, ed anche, devo dire, di rispondere ad una domanda che sento aleggiare su di noi: è davvero necessario, o anche soltanto utile, ripercorrere le
esperienze passate dell’Informatica Archeologica, di là dall’ovvio interesse
storico di conoscere quanto è stato compiuto dai pionieri della disciplina,
e dal romantico affetto che ogni studioso nutre per le origini della propria
disciplina? In un ambiente, come quello dell’informatica, in cui con rapidità
impressionante si evolvono e cambiano anche radicalmente strumenti tecnologici e modi di ottenere certi risultati, e sorgono possibilità e potenzialità
un momento prima non immaginabili, a che giova riandare ad esperienze
ormai superate che possono apparire anche ingenue, e comunque di nessun
momento in confronto alle esigenze delle attività presenti?
Per rispondere a questa domanda richiamerò preliminarmente due punti,
che dovrebbero dare una base alle argomentazioni che seguiranno:
1) Questo incontro, anche nel titolo, presuppone che l’Informatica Archeologica
sia una disciplina con suoi propri fondamenti teorici.
2) Essa d’altra parte si riconosce non separata, sul terreno più generale,
dall’Informatica Umanistica, perché soltanto in questo ambito più vasto è
possibile valutare correttamente alcune delle caratteristiche delle applicazioni archeologiche. E dunque non parrà improprio se richiamerò i risultati di
una sia pur sommaria e breve indagine storica sugli sviluppi dell’Informatica
Umanistica nel suo complesso (Orlandi 2002).
Secondo quanto ho esposto altrove (Orlandi c.s.) lo sviluppo dell’Informatica Umanistica si può dividere in quattro fasi:
– Periodo dei precursori (fino al 1960). È un periodo affascinante, naturalmente, ma le sue caratteristiche sono irrilevanti per il nostro argomento.
– Periodo delle applicazioni pionieristiche (1960-1970). Un certo numero di
intraprendenti studiosi delle discipline umanistiche inizia a sperimentare in
profondità le capacità delle macchine. Si notano già applicazioni in ambito
archeologico, con l’apparizione del grande Jean-Claude Gardin, che comincia
a cercare linguaggi formali utili a trattare fenomeni non testuali, in particolare
oggetti d’interesse archeologico, con strumenti automatici.
– Periodo degli esperimenti e delle ricerche (1970-1990). È questo il momento
che a mio giudizio va considerato con più attenzione. Gli studiosi diventa17
T. Orlandi
no coscienti del fatto che da un lato l’oggetto stesso delle proprie ricerche
subisce radicali cambiamenti in presenza del nuovo strumento, non solo per
le sue valenze di carattere pratico, operativo, ma soprattutto sotto l’aspetto
metodologico; dall’altro che lo strumento è qualcosa di assai diverso da una
banale macchina, ed ha nel suo stesso funzionamento un aspetto teorico
che invita ad usarlo in modo meno super�ciale di quanto si fosse fatto fino
allora. Senza dimenticare la sintesi pionieristica di Paola Moscati (1987),
interessa soprattutto rilevare come Jean-Claude Gardin (in particolare 1980,
1991) e Mario Borillo (1984) sviluppino la visione della stessa Informatica
Umanistica come un nuovo linguaggio rigoroso, formalizzato, che può e deve
essere reso adatto a descrivere fenomeni archeologici, storici, e letterari. Il
grande merito di Gardin sta nell’aver compreso che con l’avvento delle macchine computazionali si apriva un terreno di indagine affascinante, nel quale
i principi di funzionamento di quelle macchine potevano suggerire linee di
condotta nelle ricerche, che a loro volta venivano ad incidere sulle metodologie
archeologiche. Non si dimenticherà che erano quelli i tempi della cosiddetta
New Archaeology, le cui problematiche erano del tutto estranee all’informatica, ma segnalavano un’esigenza di rinnovamento a cui in sostanza Gardin
dava una risposta. Erano anche i tempi dell’infatuazione per la cosiddetta
intelligenza arti�ciale, che comunque invitava a ri�ettere sui meccanismi intimi
del ragionamento, nella fattispecie archeologico.
Il percorso teorico di Gardin assume un valore essenziale, indipendentemente dal consenso che si voglia dare alle sue soluzioni e alle sue proposte,
a partire dalla concezione di vocabolari archeologici aderenti a regole formali
(Gardin 1976 e ss.; cfr. anche, successivamente, le realizzazioni di GuimierSorbets 1990), alla dialettica fra descrizioni e spiegazioni, con la relativa
spirale (che richiede che non si chiuda mai il rapporto fra i due momenti, al
contrario di come vengono normalmente concepite le ricerche informatizzate), al confronto fra metodologie formali computazionali e metodologie
umanistiche.
La maggior parte delle ricerche di questo periodo fu purtroppo destinata
a rimanere, almeno fino ad oggi, senza conseguenze strutturate e riconosciute, a causa soprattutto della refrattarietà e dell’ignoranza informatica del
mondo accademico umanistico, non soltanto in Italia, ma in tutto l’ambiente
internazionale.
– Periodo del trionfo della tecnologia (1990 ad oggi). Gli incredibili avanzamenti della tecnologia mettono nelle mani degli studiosi (anche in senso
non �gurato, se pensiamo ai computer portatili) strumenti di una potenza
ignorata dai più grandi main frame degli anni precedenti, e sono oltretutto già
dotati di software più o meno incorporati, che fanno dimenticare i semplici
ma essenziali principi su cui il loro funzionamento si basa, e limitano il loro
apprezzamento ai programmi che essi offrono, eclatanti dal punto di vista
18
Informatica archeologica e non archeologica
dell’utente �nale, col risultato di focalizzare l’attenzione sul risultato visibile, e
non sulle procedure sperimentali che dovrebbero essere l’oggetto della ricerca
scienti�ca anche per le discipline umanistiche.
Dunque intorno al 1990 noi collochiamo una crisi per la quale si rinuncia
a ri�ettere sull’incontro fra l’informatica nel suo aspetto più teorico e il mondo delle ricerche umanistiche, e ci si limita a sfruttare le risorse tecnologiche,
diciamo così, a scatola chiusa, per ottenere dei miglioramenti, anche molto
importanti, nella presentazione dei risultati, senza approfondire le opportunità
che la computazione come automazione di procedimenti logici può offrire
alle discipline umanistiche, e in particolare all’archeologia.
Il fatto è che per apprezzare questo tipo di posizione occorre prendere
atto che le opportunità a cui alludo fanno riferimento ad una interazione fra
l’informatica e le discipline umanistiche in quanto tali nella loro generalità,
piuttosto che a ciascuna di esse in particolare. Questo comincia ad essere
evidente se si ri�ette sul fatto che l’utilità dei diversi pacchetti applicativi che
tutti conosciamo è trasversale rispetto alla specializzazione di chi li usa. Che
il word-processor serva a tutti è fin troppo ovvio; meno ovvio ma ugualmente
vero è che i sistemi di information retrieval, di analisi statistica, di trattamento
delle immagini trovano applicazione senza con�ni.
Ma questo non è che una presa di coscienza super�ciale, per quanto
evidente, di quanto cerchiamo di affermare. Per comprendere le nuove possibilità che l’informatica propone anche nell’ambito delle discipline umanistiche, occorre giungere alla comprensione dei principi più profondi per i
quali avviene questo fenomeno; altrimenti si rimane su una constatazione
simile a quella per cui la stampa o la fotogra�a sono altrettanto utili ad un
archeologo che ad un �lologo. Quello che conta è che le possibilità offerte
dall’informatica derivano da processi in qualche modo intelligenti, ovvero
logici, e sembra riduttivo cercare di avvalersene senza sfruttare questa loro
caratteristica.
La constatazione che uno stesso apparecchio possa elaborare dei testi,
trattare delle immagini, gestire delle basi di dati, fare interagire tutte queste
realtà secondo la volontà di chi le produce e di chi ne usufruisce ha due
aspetti complementari. Il primo è quello super�ciale e visibile, preparato dai
tecnici delle diverse applicazioni, al servizio degli studiosi che li istruiscono
sui dati che gli vengono forniti. Il secondo è quello per cui tutti quei dati
vengono ridotti in un primo tempo ad un’unica realtà invisibile, il codice
binario, e sottoposti poi ad una serie di procedimenti. Il fatto che la macchina, mediante tali procedimenti, sia capace di far assumere a dati omogenei
qualunque aspetto sia consono alle più diverse realtà deve essere oggetto di
attenta considerazione.
Questi procedimenti erano più evidenti in tempi passati, quando lo studioso era alle prese con macchine di più dif�cile e complicato sfruttamento,
19
T. Orlandi
che tuttavia lo mettevano maggiormente a contatto con i principi secondo
i quali le macchine agivano. Questo lo incoraggiava a non perdere di vista
quei principi nel progettare le applicazioni che egli desiderava. Man mano
che le macchine sono diventate più user friendly si è considerato solo il fine
che si voleva raggiungere, lasciando ai tecnici la preoccupazione di come
ottenerlo.
Molti sono perfettamente soddisfatti di un tale stato di cose. Ma i più
avvertiti sono invece delusi della via che è stata in tal modo intrapresa. Ecco
dove un ripensamento di quanto è accaduto appare necessario per tornare
ad una considerazione più teorica dell’uso delle macchine informatiche, ed
ecco il signi�cato, a me pare, di giornate come questa.
Il nocciolo di quanto mi premeva sottoporre oggi alla vostra attenzione
è tutto qui. Resta tuttavia il compito di indicare più concretamente alcuni
punti nei quali un tale atteggiamento può essere vantaggioso, senza pregiudizio per i risultati che si sono raggiunti, ma ponendo l’attenzione su problemi
meno evidenti che si possono affrontare con maggiore riguardo agli aspetti
metodologici del nostro operare.
2. La concezione delle basi di dati
L’organizzazione di una banca dati non è necessariamente legata a questo
o quel pacchetto gestionale, ma piuttosto ad un lavoro teorico e metodologico che individui un rapporto fra la formalizzazione della sua struttura e
la realtà che essa sarà chiamata a riprodurre e su cui si faranno le analisi in
modo automatico.
L’umanista che progetta una banca dati prende di solito come punto di
partenza (perché l’ambiente e le precedenti esperienze cartacee lo invitano a
fare questo) due fattori: 1) il programma di gestione che userà; 2) la “scheda”
dei dati che dovrà immettere. Questo atteggiamento (non possiamo chiamarlo
metodo, perché è un modo di operare basato su elementi psicologici e vecchie
abitudini piuttosto che sulla ri�essione metodologica) è oggi da mettere a
confronto con uno diverso, che tiene conto del patrimonio degli studi (ancor
prima che dei programmi) riguardanti il sistema relazionale di gestione delle
banche dati (Atzeni, Batini, De Antonellis 1983, con bibliogra�a).
In effetti questo sistema si basa piuttosto su una visione teorica che
non semplicemente operativa, e dunque non è legato in linea di principio alle
realizzazioni tecniche, che ne conseguono. Esso prevede la costituzione di una
pluralità di archivi (contrariamente al singolo archivio in cui vengono inseriti i
dati nel modello gerarchico), che vengono espressi sotto forma di “tabelle”, e
questo sistema consente di utilizzare le singole tabelle o i singoli archivi come
parte di un sistema complesso, anche diverso da quello per il quale sono stati
concepiti, purché essi siano stati concepiti correttamente in ambito relazionale.
20
Informatica archeologica e non archeologica
Siamo cioè in linea perfettamente coerente con la necessità di scambio di dati
fra studiosi che li possano utilizzare per scopi diversi, ed in contesti diversi.
Il sistema relazionale può essere svincolato dai programmi che vengono
usati in concreto per gestirlo in modo automatico, e mette in crisi il tradizionale
concetto di scheda, se non come di un mezzo per introdurre i dati in maniera
rapida e facile, non in relazione all’architettura dell’archivio, ma in relazione
a come i dati si presentano materialmente allo studioso.
Soprattutto il sistema relazionale è migliore, perché la realtà è più vicina
ad una struttura relazionale che non ad una struttura gerarchica. La struttura
dunque di una banca dati relazionale riprodurrà in modo più fedele ciascuno
degli oggetti della ricerca, anche perché ne manterrà i rapporti con gli altri
oggetti su un piano parallelo, e non verticale, così come nella realtà vi sono
piuttosto relazioni multiple sullo stesso piano che relazioni di dipendenza di
un attributo ad un oggetto.
Il sistema relazionale presuppone dunque la dichiarazione di come lo
studioso vede la struttura dei dati. Purtroppo è raro vedere una tale dichiarazione nelle realizzazioni che vengono proposte, soprattutto in rete.
3. I problemi della codifica
L’attenzione degli studiosi interessati alla metodologia si concentra
soprattutto sul trattamento dei dati, e sulla conseguente formalizzazione
del ragionamento archeologico. Meno sul passaggio iniziale di de�nizione e
descrizione, o rappresentazione, dei dati, cioè quello che intendiamo appunto per codi�ca, e che viene in certo modo ritenuto ovvio, e quasi banale. Si
nota per esempio che nella storia dell’archeologia lo spazio dato al metodo
di descrizione degli oggetti è quasi nullo rispetto a quello dato ai vari metodi
di interpretazione.
La codi�ca non consiste semplicemente nel modo di trasferire all’interno
di una memoria magnetica i dati da sottoporre agli appositi programmi di
un computer, così come sono già preparati sulla carta. Questo passaggio (che
propriamente noi chiameremmo di “transcodi�ca”, cioè di puro passaggio da
un codice all’altro) si risolve semplicemente nell’uso corretto della tastiera, o
comunque degli strumenti utilizzati per l’input dei dati. Anche questo semplice
passaggio non è esente da problemi, perché vi sono molti tipi di tastiera etc.,
che offrono molti tipi di corrispondenza fra i simboli riportati (sui tasti) e le
sequenze magnetiche (o sequenze di bit) prodotte nella memoria del computer.
Ma questi problemi sono più banali.
Prima ancora esiste un problema teorico della codi�ca, che è sempre
stato conosciuto, ma di solito è stato trascurato perché risolto alla buona,
in quanto precedentemente il messaggio archeologico era rivolto sempre a
intelligenze umane, che compivano implicitamente grossi passaggi di interpre21
T. Orlandi
tazione. Con il supporto cartaceo questo era consentito, perché i dati su carta
possono essere letti solo da intelligenze umane, che compiono su di essi una
serie di elaborazioni ovvie, e inconsce, prima di entrare nel merito scienti�co.
I dati su supporto magnetico vengono invece analizzati da un computer, che
non andrà mai oltre a ciò che sia perfettamente esplicito nei dati stessi.
Si può dire che, come si può benissimo usare una lingua senza esplicitarne le regole grammaticali, ma se si vuole stabilire la correttezza di un testo
che si pretende espresso in quella lingua, bisognerà chiarirne la struttura; così
si può usare ef�cacemente della codi�ca, senza teorizzarla, solo �nché non
sorga la necessità di discutere se un certo lavoro di codi�ca sia stato fatto
correttamente o no.
Il procedimento della codi�ca non riguarda solo un trasferimento di
segni, cioè l’utilizzazione di un codice al posto di un altro ma anche la valutazione dei dati che si intendono codi�care. Infatti, per verificare la validità
e la congruità di una codi�ca, occorrerà avere un’idea ben precisa non solo
del codice, ma anche dei dati; e occorrerà che questi dati siano analizzabili
come unità ben speci�cate.
Scrive a questo proposito José E. Igartua (1991, 75): «A questo livello la
codi�ca signi�ca de�nire il signi�cato delle parole e numeri che si inseriscono
nel computer, in modo che la manipolazione dei simboli operata dalla macchina
corrisponda ad una manipolazione dell’informazione che sia utile allo storico.
Incoerenze e ambiguità che rimangano dopo che i dati sono stati resi “machinereadable” in�cierà l’analisi successiva e sarà dif�cile da rimediare».
Si deve tener conto del fatto che non c’è un rapporto di necessità e
dipendenza fra quello che possiamo memorizzare su supporto magnetico,
per poi sottoporre a procedimento automatico, e quello che è rappresentato
sulla tastiera per mezzo della quale vengono compiute le operazioni di input
(lettere, numeri, parentesi, etc.). Il valore attribuito alle sequenze di bit che
vengono memorizzate può anche non coincidere con quello previsto dalle
convenzioni normalmente utilizzate (per esempio il codice ASCII). Tali modelli
sono lontani dall’essere completi, e comunque non sono aderenti alle esigenze
della ricerca umanistica, in particolare archeologica. In realtà, salvo il fatto che
i dati devono essere discreti, la loro scelta e la scelta di come rappresentarli
dipende esclusivamente dallo studioso.
È evidente che questo comporta molti problemi, e solleva parecchie
obiezioni. La più seria, per quanto posso vedere, è che in quel modo i dati
tendono ad essere intimamente connessi ai giudizi su di essi da parte dello
studioso che li ha raccolti e vagliati; e inoltre la loro codi�ca risentirà delle
esigenze dettate dal software a sua disposizione. È opportuno notare che:
a) la “soggettività” dei dati, quando non sia spinta a livelli estremi, del resto
comunque non compatibili con un lavoro serio di ricerca, non è affatto in22
Informatica archeologica e non archeologica
compatibile con i sistemi automatici, anzi ne è un aspetto essenziale. Potrei
dire che il momento della codi�ca dei dati è un momento molto importante,
proprio perché non può mai prescindere da un apprezzamento soggettivo di
essi, guidato dai risultati della ricerca precedente;
b) ad ogni modo in ambito informatico occorrerà compiere uno sforzo per
rendere i dati utilizzabili in ricerche diverse da quelle che li hanno prodotti, e
questo può essere ottenuto in due modi distinti ma interdipendenti: la massima
semplicità e trasparenza nella loro codi�ca; il riconoscimento di un ambiente
operativo comune ai ricercatori, estremamente aperto anche a programmi
individuali, che fornisca uno standard utile allo scambio dei dati.
Finalmente, sarà opportuno chiarire il passaggio fra il momento della
scelta di un codice e quello della individuazione della corrispondenza biunivoca fra i simboli ottenuti con il codice scelto e gli elementi della realtà
che vengono rappresentati da quei simboli. Si tratta di decisioni soggettive,
mediante le quali si attua la corrispondenza fra gli elementi da codi�care e
le unità complesse, e tutto questo va visto in rapporto ai differenti piani di
rappresentazione della realtà. Infatti i procedimenti informatici possono essere
applicati alla realtà, come si presenta direttamente allo studioso; ovvero a
rappresentazioni di tale realtà. Sarà perciò possibile distinguere:
1. Rappresentazione diretta: è quella che avviene mediante immagini assunte
come tali (fotogra�a, riprese televisive, disegni, etc.) ovvero mediante banche
dati formate per mezzo di inchieste dirette, cioè con questionari a cui rispondono i diretti interessati. La rappresentazione per immagini è naturalmente
usata pesantemente in archeologia, e in effetti alcuni progetti sono frutto anche
di una ri�essione approfondita sui relativi risvolti in fase di ricerca.
2. Rappresentazione indiretta: in questo caso il punto di partenza è rappresentato da documenti scritti (anche letterari), i quali vengono codi�cati. La
corrispondenza è dunque col documento, non con la realtà rappresentata
dal documento. Questo signi�ca che nel valutare i risultati dei procedimenti
informatici occorrerà tener conto sia dell’interpretazione di chi ha redatto i
documenti, sia di chi li codi�ca.
3. Rappresentazione doppiamente indiretta: quando il documento su cui si
lavora è un’opera storiogra�ca, da cui si ricavano notizie da codi�care, si opera
una prima sintesi o scelta degli argomenti, oltre a codi�care e interpretare
il documento. Quando il documento è un oggetto archeologico, occorre sia
descrivere il documento in quanto tale, sia esplicitare le caratteristiche che lo
rendono signi�cativo per l’indagine archeologica.
La codi�ca è, per un verso, il momento iniziale di un procedimento di
ricerca, quando venga attuato mediante metodi anche informatici. Ma, sotto un
altro aspetto, rappresenta anche (e forse principalmente) il momento conclusivo
di un procedimento precedente, che ha condotto ad individuare: i con�ni del
23
T. Orlandi
materiale documentario che si vuole prendere in considerazione; le caratteristiche
di quel materiale che determinano il suo interesse per la ricerca; la scelta di un
linguaggio per esprimere i due punti precedenti; il modo di esprimere in tale linguaggio l’identi�cazione del materiale documentario e le sue caratteristiche.
Risulta da questo che una codi�ca non sarà mai de�nitiva, perché è
prevedibile che i risultati del procedimento di ricerca che ha dato origine
alla codi�ca siano tali da far mutare almeno in parte la codi�ca, o almeno a
rendere necessaria la codi�ca di ulteriori documenti o caratteristiche.
Dunque la struttura della codi�ca deve essere aperta, in modo che si
possa intervenire apportando aggiunte o modifiche. La codi�ca riveste dunque
un’importanza assai maggiore di quella che di solito le si concede. C’è addirittura la possibilità (che riteniamo da evitare) che essa diventi totalizzante,
cioè che riunisca in sé anche gli altri passaggi del trattamento automatico
(l’analisi dei rapporti logici fra i dati, e la veri�ca della correttezza teorica
delle procedure di analisi e di sintesi).
In conclusione, la codi�ca rappresenta la sintesi formale di quanto conosciamo dell’oggetto che vogliamo studiare. Essa deriva in prima istanza,
cioè al momento della prima conoscenza che si ha dell’oggetto, soprattutto
dalla dialettica fra le sue caratteristiche intrinseche (forma, dimensioni, materiale...) e la competenza archeologica dello studioso. Il confronto fra questi
due elementi viene attuato con procedimenti sostanzialmente intuitivi, che
determinano quali aspetti dell’oggetto prendere in considerazione e quindi
codi�care.
4. Aspetti teorici
Un terzo aspetto riguarda la effettiva discussione dei problemi teorici
che solleva l’interazione fra archeologia e informatica. Qui si nota soprattutto la separazione fra il settore archeologico e gli altri, in primo luogo quello
linguistico e testuale. Non sarà un caso che quest’ultimo, indubbiamente più
avanzato rispetto agli altri, abbia in un certo senso monopolizzato l’Informatica Umanistica: porteremo ad esempio i due importanti volumi dei due
Humanities Computing Yearbook (Lancashire 1988, 1991), che segnano in
certo senso la conclusione del periodo aureo delle ricerche; e il recente Companion di Oxford, tutti focalizzati completamente sulle applicazioni linguistiche,
in cui all’archeologia è dedicato uno spazio che direi insigni�cante.
Per l’archeologia, esistono luoghi (la rete; ma anche riviste, in primo
luogo questa rivista, «Archeologia e Calcolatori») in cui vengono annunciati
e presentati i progetti informatici e anche vengono esposti punti di vista
metodologici. Ma non c’è quasi mai una discussione che verta sul valore
informatico di quei progetti. È questo un segnale della scarsa vitalità del
settore, nonostante il numero sempre crescente di imprese che si avvalgono
24
Informatica archeologica e non archeologica
di tecnologie informatiche. In effetti il settore stesso non viene pienamente
riconosciuto come tale, anche se l’uso dell’informatica è considerato in qualche
modo (questo modo non viene mai uf�cialmente speci�cato) come un valore
aggiunto, per esempio nella valutazione di progetti di ricerca, in questo caso
secondo una mia personale esperienza, diciamo così, istituzionale.
Questo fa sì che vengano sempre considerati i risultati che si raggiungono
o che ci si propone di raggiungere, ed eventualmente gli aspetti disciplinari,
in questo caso archeologici, dei progetti, e mai la congruità, meglio ancora la
prospettiva metodologica, dell’inserimento di strumenti informatici. Sarebbe
importante invece suscitare e vivacizzare luoghi in cui discutere di questi
problemi, come sta avvenendo, per esempio, nel Regno Unito soprattutto, ma
anche in Olanda o negli Stati Uniti. Siamo in un momento, come mi sembra
risulti da quanto ho esposto sopra, in cui più direzioni si aprono alla collaborazione tra informatici ed umanisti, alcune delle quali intrinsecamente sterili
anche se apparentemente fruttuose, ma solo a breve termine. Probabilmente
la storia farà il suo corso, e le vie distorte saranno raddrizzate strada facendo.
Ma non sarà stato forse inutile che voci al momento inascoltate si siano levate
per invocare una ri�essioni su problemi dif�cili ma di ampia portata.
Tito Orlandi
Accademia Nazionale dei Lincei
BIBLIOGRAFIA
Atzeni P., Batini C., De Antonellis V. 1983, La teoria relazionale dei dati, Torino, Boringhieri.
Borillo M. 1984, Informatique pour les Sciences de l’Homme. Limites de la formalisation du raisonnement, Bruxelles, Pierre Mardaga (http://www.irit.fr/recherches/LILAC/Pers/Borillo/).
Gardin J.-Cl. 1976, Code pour l’analyse des formes de poteries, établi en 1956, revisé en
1974, Paris, CNRS.
Gardin J.-Cl. 1980, Archaeological Constructs. An Aspect of Theoretical Archaeology,
Cambridge-Paris, Cambridge University Press-Editions de la Maison des Sciences de
l’Homme.
Gardin J.-Cl. 1991, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris,
Editions de l’Ecole des Hautes Etudes en Sciences Sociales.
Guimier-Sorbets A.-M. 1990, Les bases de données en archéologie. Conception et mise en
œuvre, Paris, CNRS.
Igartua J.E. 1991, The Computer and the Historian’s Work, «History and Computing», 3,
73-83.
Lancashire I. (ed.) 1988, 1991, The Humanities Computing Yearbook 1988; 1989-90. A
Comprehensive Guide to Software and Other Resources, Oxford, Clarendon Press.
Moscati P. 1987, Archeologia e calcolatori, Firenze, Giunti.
Orlandi T. 2002, Is Humanities Computing a Discipline?, «Jahrbuch für Computerphilologie», 4, 51-58.
Orlandi T. c.s., Un ultimo bilancio dell’informatica umanistica, in Elaborare il sapere nell’era
digitale. Atti del Convegno (Montevarchi 2007), in corso di stampa.
25
T. Orlandi
ABSTRACT
What is the use of re�ecting on the history of Digital Archaeology? Dividing the history
of Digital Humanities in general into four stages, Digital Archaeology was born in the stage
of “pioneers’ applications” (1960-70), and for some time it developed both in practice and in
theory. The theory seemed especially interesting also for non digital Archaeology, but around
1990 technology suffocated the more complicated and dif�cult theoretical approach. The opportunity to go back to this approach is demonstrated in three special cases: the creation of
databases, the encoding procedures, and the relations between archaeology and information
science.
26
Archeologia e Calcolatori
20, 2009, 27-35
FROM ANARCHY TO GOOD PRACTICE: THE EVOLUTION
OF STANDARDS IN ARCHAEOLOGICAL COMPUTING
1. Introduction
Standards are essential to archaeological computing. From the earliest
days of punched cards the discipline turned to computers and quantitative
methods to help identify patterning in the archaeological record, and to systematise its data. Without standards there could be no patterning. However,
there has also been some tension concerning the adoption of standards, with
a feeling that standards can sti�e creativity and evolution. Caught halfway
between the Sciences and the Humanities, most archaeologists were reluctant
to adopt standardised systems. This led to what has been described as the
“not-invented-here” syndrome, by which each researcher thought their own
problem was unique and deserved a unique solution. However, archaeologists
also recognised that the tendency to reinvent the wheel and an overall lack
of vocabulary control were combining to create an archaeological Tower of
Babel.
Unfortunately, this rarely led to action. Early standards were imposed
as much by the computing industry as by practitioners. Gradually, and with
pressure from the worlds of libraries, museums and heritage management,
archaeologists have adopted documentation standards – Dublin Core, CIDOC
CRM, and MIDAS XML. However, these are still permissive standards – they
lead to Guides to Good Practice, or Best Practice, but not Required Practice.
This paper assesses the importance of standards initiatives and asks where we
go from here. Do modern advances in natural language processing and data
mining mean that databases and structured and controlled text have been
superseded, or will we only reap the rewards of information technology if
we learn how to describe our data in standard ways? Does the prospect of an
interoperable Semantic Web render standards redundant, or does it depend
upon standards if it is to function effectively?
2. What do we mean by standards?
In the English language the word standard can mean «something to
which others are expected to conform», but it can also mean «the degree of
excellence required for a particular purpose» – something can be of low or
high standard. This association may not just be coincidental. Something that
conforms to a standard may also be assumed to be of high standard – having
been done with care and attention to detail.
27
J.D. Richards
Before we go further we should therefore be careful to de�ne what
we mean by standards. There are three broad types that have relevance in
archaeology:
1. Technical standards: hardware and software.
2. Content standards: data recording systems.
3. Metadata standards: data documentation.
2.1 Technical standards
During the infancy of archaeological computing there was much concern with hardware and software standards. In the early days of technology
there were many competing and incompatible computer systems, and many
competing software applications. This also led to a fear that archaeologists
operating in isolation were wasting energy by continually re-inventing the
wheel, but that it was also leading to a situation where their data could never
be integrated and shared. Whether we like it or not, the market dominance
of Microsoft has to a large extent solved this problem. Most archaeologists
are now familiar with some form of Windows-based operating system, and
most of us use a PC or an Apple computer which can emulate a PC.
Whereas early surveys of archaeological computer usage (Richards
1986; Booth, Grant, Richards 1989) revealed an astonishing array of different applications programs, the market has also led to the dominance of particular software venders. The Microsoft Of�ce suite dominates the spreadsheet,
word-processor and database market. In more specialist areas there are also
world-leading suppliers – AutoDesk for CAD, ESRI for GIS and so on. Even
if one chooses to use another product the dominance of particular products
ensures that any manufacturer will provide export facilities in standard �le
formats, such as DXF, or an ESRI shape�le. None of this came about because
archaeologists were able to choose and agree on the best solution – standards
were forced upon us – and the rest of the world – by the free market.
2.2 Content standards
Archaeologists have also been concerned with data recording standards.
The development of computerised database systems has gone hand-in-hand
with the standardisation of manual recording systems. The question of whether
we should all record our excavations in the same way, with the same boxes,
and the same codes, has occupied a great deal of attention. On the one hand
this links to the idea of quality control and those minimum recording standards
that should apply if one is destroying a site by excavation. There is also the
issue of comparability of data and the question that unless data are recorded
using the same parameters then it will never be possible to compare them.
On the other hand there is the view that there is no such thing as an objective
28
From anarchy to good practice: the evolution of standards in archaeological computing
archaeological record – one records or observes those factors that are strictly
relevant to the research question under examination. In one form this view is
similar to that which argues that every project is unique and that something
“not invented here” will not be useful. However, there is also an argument
that this diversity is a strength, and that the discipline will stagnate if we are
all forced to use the same recording systems (Richards 1985).
In practice we have witnessed the development of a number of standard
data recording systems, but not a single system that everyone uses. Large organisations have tended to promote particular ways of doing things. For a long
time in England variants of the English Heritage CEU Delilah site recording
system competed with the DUA single context system (Jefferies 1977; DUA
1980). Through time these systems have tended to come closer together (see,
for example, Roskams 2001). Whilst preserving some unique features they
have de�ned a lowest common denominator of recording �elds across which
comparison is possible. Occasionally new projects and new ways of doing
things have led to the appearance of new systems – as in the site recording
system developed by Framework Archaeology employed at Heathrow (Beck
2000). The internationalisation of archaeology has also led to overseas innovations being adopted, such as the adoption of the Swedish Monuments
Board Intrasis recording system in other countries, including the UK1.
Similarly, we have seen a smaller number of monument inventory systems emerge from the wide range of individual sites and monuments records
systems (see, for example, papers in Rahtz, Richards 1989; Robinson
2000). Once again though, this has largely been the result of commercial
dominance (for example by the Exegesis HBSMR system in England)2, rather
than �tness for purpose, and a discipline as small as archaeology cannot support many rival systems at a commercial level.
Some level of standardisation is essential to the discipline. Archaeology
is about the search for patterning – the repeated and consistent re-occurrence
of a range of attributes may de�ne a type of pottery or a form of burial for
example. It is how Childe de�ned a culture as regularly reoccurring and associated variables (Childe 1929, v-vi). Without standards there can be no
patterning. Unless we use the same terms to describe an artefact there can be
no artefact types, no typologies, and no classi�cation – an activity which is
fundamental to the discipline. As soon as archaeologists used the �rst punched
card machine they imposed standards. The pottery sherds recorded could
only be meaningfully compared if there was agreement on the attributes to be
measured and on standardised ware descriptions (Richards, Ryan 1985).
1
2
http://www.intrasis.com/.
http://www.esdm.co.uk/HBSMR.asp.
29
J.D. Richards
However, the fashion in the 1970s and 1980s for the development of
universal archaeological databases (Chenhall 1971; Arroyo-Bishop 1989)
has now given way to a greater realism, and an appreciation that centralised
standardised systems will never be adopted in a world where there are diverse
practitioners, and geographical, historical and political drivers behind diversity. There is now greater emphasis on distributed data systems, and upon
interoperability, supported by the development of documentation standards
(e.g. Kilbride 2004).
2.3 Metadata standards
During the 1980s and 1990s the emphasis on standardised recording
systems was replaced by greater concern with documentation standards. The
rise of the Internet has highlighted that one does not have to use the same
computer or even the same application to communicate with other computers
and other applications. Networks of computers can talk to one another and
share information, and a user can access a range of data sets without leaving
their web browser. There has been a realisation that it is not really important
which machine or programme is used, but that proper documentation of the
archaeological content is much more important to allow computers to talk
to one another.
Metadata standards have emerged as the key standards which allow
data sets to be interoperable, and make their discovery over the Internet possible. Many of these new standards have emerged from the library world and
are international in scope. The Dublin Core element set is an ISO standard
with scope for archaeological extensions3. Similarly the CIDOC-CRM is a
cross-discipline high level ISO standard which seeks to de�ne types of data
elements, and the relationship between them4. If datasets are ever meaningfully
to be integrated and compared it provides an essential mapping. It provides
the infrastructure for an archaeological Semantic Web.
Metadata standards are generally �exible and permissive. They are
standards about data, they do not determine the data itself (Wise, Miller
1997). Thus the ADS Guides to Good Practice series does not dictate how
one should record something; rather it says that if you are going to record
something this is what you should record about it if anyone else is going to
be able to �nd and reuse your data5.
http://dublincore.org/.
http://cidoc.ics.forth.gr/.
5
http://ads.ahds.ac.uk/project/goodguides/g2gp.html.
3
4
30
From anarchy to good practice: the evolution of standards in archaeological computing
3. Standards in action
However, to undertake meaningful cross-searching of disparate data sets
two other things are essential. Firstly, one needs agreed technical standardscommunications protocols, such as Z39.50 (Miller 1999)6 or OAI-PMH7.
Secondly, one still needs some level of agreement about content standards
and vocabulary control. The painstaking work of the Data Standards Unit
at English Heritage and of the Forum for Information Standards in Heritage
(FISH)8 group in developing agreed thesauri of Monument Types and Period
terms now starts to bear rewards when one integrates monument inventories
for different regions in applications such as ADS ArchSearch9 or the English
Heritage Gateway10. For artefact types the Museum Documentation Association artefact thesaurus11 or Getty Art and Architecture thesaurus12 have similar
importance. Archaeology is generally more advanced than other humanities disciplines in its adherence to standards (Richards, Hardman 2008).
Generally, historians do not comply with content and metadata standards. If
standards are a measure of how scienti�c a discipline is, then Archaeology is
de�nitely further towards the scienti�c end of the spectrum, with greater emphasis on the importance of testing and re-use of other people’s data. However,
even within the discipline there is considerable variation in standards compliance. It is easier to integrate several animal bones databases, or a number of
monument inventories, than it is to integrate the databases of a number of
pottery or lithic specialists for instance. This has implications for identifying
the low-hanging fruit for a number of cyber-infrastructure or eScience projects
now under consideration (Kintigh 2006; Snow et al. 2006).
But to achieve interoperability at a European level much more standards work is required (Hansen 1992; Kilbride 2004). The variability in
European languages, and archaeological concepts, creates special problems
(Oberländer-Târnoveanu 2005). The ADS ARENA13 project dodged the
language issue by mapping local classi�cations to the English Heritage thesaurus (Kenny, Kilbride, Richards 2003; Kenny, Richards 2005). The
Council of Europe has developed a Bronze Age thesaurus with mapping between a limited number of European languages (Barber et al. 1995; Council
http://www.loc.gov/z3950/agency/.
http://www.openarchives.org/OAI/openarchivesprotocol.html.
8
http://www.�sh-forum.info/.
9
http://archaeologydataservice.ac.uk/.
10
http://www.heritagegateway.org/.
11
http://www.mda.org.uk/archobj/archcon.htm.
12
http://www.getty.edu/research/conducting_research/vocabularies/aat/index.html.
13
http://ads.ahds.ac.uk/arena/.
6
7
31
J.D. Richards
of Europe 1999). To undertake a comprehensive thesaurus project would
require many decades of investment.
4. Do we still need standards?
But is all this standards investment really worth it? In the 2000s most
archaeologists will turn to Google to cross-search Internet resources. As
everyone knows, Google indexes unstructured free-text data and returns the
most relevant hits. Does it matter that no standards may have been applied
in the classi�cation used, as hopefully all occurrences will be returned? Or
will they?
In 2007 the Archaeology Data Service embarked on the Archaeotools
project14, with funding under the AHRC-EPSRC-JISC eScience programme,
and in collaboration with the Natural Language processing group of the
Department of Computer Science at the University of Shef�eld (Jeffrey et
al. 2009 and forthcoming). The project aims to replace the “type-and-hope”
search engine philosophy with a more reliable “point-and-click” approach,
allowing users to browse large datasets.
In the �rst phase of the project over one million Dublin Core metadata
records for archaeological sites and monuments have been indexed according to pre-de�ned ontologies. The resulting faceted classi�cation interface
classi�es the sites according to three primary facets – what, when, and where
– each based on mapping the record to a standardised thesaurus. The degree
of concordance of the records to the thesauri provides an interesting index
of how far each resource included within the one million record database has
complied with standardised thesauri.
In the second phase of the Archaeotools project techniques of natural
language processing have been employed to search for “what”, “when”, and
“where” terms included in the thesauri within 1000 grey literature reports,
and integrate the index within the faceted classi�cation browser, providing
access to the unstructured grey literature alongside the more structured Dublin
Core metadata database records. In the UK, as elsewhere in Europe, gaining
access to grey literature reports of developer-funded archaeological �eldwork is
extremely dif�cult. At the Archaeology Data Service we are creating an online
library of grey literature15. However, cataloguing and indexing this library by
hand would be a major task. In Norway the Museums Documentation Project
used an extensive labour force over many years to manually mark-up the key
index terms within historical archaeological archives in XML (Holmen et al.
14
15
32
http://ads.ahds.ac.uk/project/archaeotools/.
http://ads.ahds.ac.uk/catalogue/library/greylit/index.cfm.
From anarchy to good practice: the evolution of standards in archaeological computing
2004). It is not feasible to extend such a labour-intensive manual approach
on a large scale. However, if the process can be automated then the dream of
an archaeological Semantic Web becomes a reality (Richards 2006). Once
again, standards are critical to achieving a high success rate in automatically
extracting index terms from the grey literature reports, as the more the reports
adhere to standardised vocabulary the higher the success rate.
5. Conclusion
In summary, there are three types of standards. At the bottom, and least
in�uenced by the Heritage sector, are technical standards. These include �le
formats, communication and computer standards. In the middle are content
standards. This is the area within which the Heritage sector can exercise innovation, and must do so to stop stagnation. Finally there are the metadata
standards that support resource discovery and integration. As Steve Stead said
at an AHRC ICT Methods Network workshop held in October 2007:
«The pragmatic result of any work on Standards should be that our
data is consistent, our process documented and our documentation explicit.
If we achieve that then our work will survive as the profession as a whole
will be able to reuse its results. If we fail in any part of this then our data is
damned and can be safely deleted at the end of the project as it is no use to
man nor beast» (Stead 2007).
In conclusion, archaeological computing standards have evolved enormously in the last 40 years. Far from making them redundant, the Internet
Age and the development of sophisticated search algorithms give data documentation standards fresh importance. At �rst sight one might assume that
the power of search engines such as Google means that structured data and
the use of pre-de�ned terms have become super�uous. On the contrary, and
as anyone who has discovered hundreds of false hits when undertaking a
free text search of the Internet will know, the Semantic Web can only function if the meaning and relationship of data items is mapped to pre-de�ned
standardised ontologies that carry international agreement.
Julian D. Richards
Department of Archaeology
University of York
REFERENCES
Arroyo-Bishop D. 1989, The ArchéoDATA Project, in Rahtz, Richards 1989, 69-86.
Austin A., Richards J.D., Pinto F., Ryan N. 2002, Joined up writing: an Internet portal for research
into the historic environment, in G. Burenhult (ed.), Archaeological Informatics: Pushing
the Envelope CAA2001, BAR International Series 1016, Oxford, Archaeopress, 243-251.
33
J.D. Richards
Barber M., Regteren Altena J.F. van, Brandt R. 1995, European Bronze Age Monuments:
A Multilingual Glossary of Archaeological Terminology. A Pilot Project Covering Denmark, France, the Netherlands, and the United Kingdom, Amersfoort.
Beck A. 2000, Intellectual excavation and dynamic Information Management Systems, in G.
Lock, K. Brown (eds.), On the Theory and Practice of Archaeological Computing,
Oxford, Oxbow Books, 73-88.
Booth B.K.W., Grant S.A.V., Richards J.D. (eds.) 1989, Computer Usage in British Archaeology: Second Edition 1989, Birmingham, IFA Occasional Paper 3, Institute of
Field Archaeologists.
Chenhall R.G. 1971, The archaeological data bank: a progress report, «Computers and the
Humanities», 5, 3, 159-169.
Childe V.G. 1929, The Danube in Prehistory, Oxford, Clarendon.
Council of Europe 1999, European Bronze Age Monuments - Glossary, Strasbourg.
DUA 1980, Department of Urban Archaeology, Site Manual: Part 1, the Written Record,
London, Museum of London.
Hansen H.J. 1992, European archaeological databases: problems and prospects, in J. Andresen, T. Madsen, I. Scollar (eds.), Computing the Past. Computer Applications and
Quantitative Methods in Archaeology, Aarhus, Aarhus University Press, 229-237.
Holmen J., Ore C.-E., Eide O. 2004, Documenting two histories at once: digging into archaeology, in Magistrat der Stadt Wien - Referat Kulturelles Erbe - Stadtarchäologie
Wien (eds.), Enter the Past: The E-way into the Four Dimensions of Cultural Heritage,
BAR International Series 1227, Oxford, Archaeopress, 221-224.
Jefferies J. 1977, Excavation Recording: Techniques in Use by the Central Excavation Unit,
London, Department of Environment.
Jeffrey S., Richards J.D., Ciravegna F., Waller S.J., Chapman S., Zhang Z. 2009, Digging up Data: The Archaeotools Project, Faceted Classi�cation and Natural Language
Processing in an Archaeological Context, Philosophical Transactions of the Royal
Society A, 367, 2507-2519.
Jeffrey S., Richards J.D., Ciravegna F., Waller S.J., Chapman S., Zhang Z. forthcoming,
When ontology and reality collide: the Archaeotools project, facetted classi�cation and
natural language processing in an archaeological context, in Proceedings of the CAA
2008 Conference, Budapest, Archaeolingua.
Kenny J., Kilbride W.G., Richards J.D. 2003, Enter the ARENA: preservation and access
for Europe’s archaeological archives, in M. Doerr, A. Sarris (eds.), CAA2002: The
Digital Heritage of Archaeology. Computer Applications and Quantitative Methods in
Archaeology 2002, Heraklion, Crete, Archive of Monuments and Publications Hellenic
Ministry of Culture, 349-353.
Kenny J., Richards J.D. 2005, Pathways to a shared European information infrastructure
for Cultural Heritage, «Internet Archaeology», 18 (http://intarch.ac.uk/journal/issue18/kenny_index.html).
Kilbride W.G. 2004, The Danube in prehistory in the digital age: towards a common information environment for European archaeology, «Archeologia e Calcolatori», 15,
129-144.
Kintigh K.W. (ed.) 2006, The promise and challenge of archaeological data integration,
«American Antiquity», 71, 567-578.
Miller A.P. 1999, Z39.50 for All, Ariadne 21 (http://www.ariadne.ac.uk/issue21/z3950/intro.
html).
Oberländer-Târnoveanu I. 2005, Multilingual access to Cultural Heritage resources, «Internet Archaeology», 18 (http://intarch.ac.uk/journal/issue18/oberlander_index.html).
Rahtz S.P.Q., Richards J.D. (eds.) 1989, Computer Applications and Quantitative Methods
in Archaeology 1989, BAR International Series 548, Oxford.
34
From anarchy to good practice: the evolution of standards in archaeological computing
Richards J.D. 1985, Standardising the record, in M.A. Cooper, J.D. Richards (eds.), Current
Issues in Archaeological Computing, BAR International Series 271, Oxford, 93-102.
Richards J.D. (ed.) 1986, Computer Usage in British Archaeology, Birmingham, IFA Occasional Paper 1, Institute of Field Archaeologists.
Richards J.D. 2006, Archaeology, e-publication and the semantic web, «Antiquity», 80,
970-979.
Richards J.D., Hardman C. 2008, Stepping back from the trench edge: an archaeological
perspective on the development of standards for recording and publication, in M.
Greengrass, L. Hughes (eds.), The Virtual Representation of the Past, Digital Research
in the Arts & Humanities, Ashgate, 101-112.
Richards J.D., Ryan N.S. 1985, Data Processing in Archaeology, Cambridge, Cambridge
University Press.
Robinson B. 2000, English Sites and Monuments Records - Information, Communication and
Technology, in G. Lock, K. Brown (eds.), On the Theory and Practice of Archaeological Computing, Oxford, Oxbow Books, 89-106.
Roskams S. 2001, Excavation, Cambridge, Cambridge University Press.
Snow D.R., Gahegan M., Giles C.L., Hirth K.G., Milner G.R., Mitra P., Wang J.Z. 2006,
Cybertools and Archaeology, «Science», 311 (5763), 958.
Stead S. 2007, AHRC ICT Methods Network Workshop. Space and Time: Methods in Geospatial Computing for Mapping the Past, Welsh E-Science Centre, Cardiff University,
10-11 October 2007 (http://www.methodsnetwork.ac.uk/redist/pdf/act24report.pdf).
Wise A., Miller A.P. 1997, Why metadata matters in archaeology, «Internet Archaeology»,
2 (http://intarch.ac.uk/journal/issue2/wise_index.html).
ABSTRACT
This paper reviews the importance of standards in archaeological computing and
traces their development, and the tensions surrounding their deployment. Three categories of
standards are de�ned: technical, content and metadata standards. Standards are shown to be
particularly important to current initiatives which seek to achieve interoperability between
distributed electronic resources. If we are to achieve the potential advantages of a Semantic
Web for heritage data over traditional search engine technologies, standards are essential. The
paper introduces the Archaeotools project, which is seeking to create a faceted browse interface
to archaeological resources. It concludes that data standards and ontologies are essential to
the success of such projects.
35
Archeologia e Calcolatori
20, 2009, 37-46
WWW.BEAZLEY.OX.AC.UK
FROM APPARATUS OF SCHOLARSHIP TO WEB RESOURCE
THE BEAZLEY ARCHIVE 1970-2008
1. Introduction
We are all people of our time. My academic career began when computers began moving from the Sciences into the Humanities. Although I
knew that I would be a classical archaeologist from the age of twelve, I had
a natural interest in science and systematic methodologies. I was going to
like computers.
What has made my experience unique is my job; when Sir John Beazley
(Fig. 1) died his executor and successor to the professorship at Oxford asked
me to “look after” his archive. My entire career has been inextricably connected
with it. This means that a tradition of scholarship in one institution, even one
faculty, can be traced over a century – from Beazley’s creation of a personal
apparatus of scholarship, that was rooted in 19th century German academia, to
today’s web resource that serves schools as well as senior scholars, museums,
collectors, and a global public. The Archive’s success is, however, due not to
who we are or where we are, but to what we study – the art of ancient Greece
and Rome – and to how Beazley recorded data about it from 1908.
Today there are two archives: Beazley’s bought by the university in 1964,
and the electronic resource that began in 1979 (Fig. 2). The aims of both are
Fig. 1 – Sir John Beazley (1885-1970).
37
D. Kurtz
Fig. 2 – The Beazley Archive web site.
the same: advancement of knowledge and public service. Public service is,
I think, largely a result of my nationality and early life. An American from
the mid-west, who was given a scholarship to study at Oxford University, I
arrived in awe of the wealth of resources of an ancient European university,
and I remain in awe. Since I was given an opportunity I have wanted to share
it with others.
You will have the impression that I had an ideal job in an ideal place;
success was inevitable. Since an objective of this meeting is to share experiences I would now like to explain how dif�cult it has been to sustain the
Archive, and to transform an apparatus of scholarship into a research centre
with a heavily-used web site.
The challenges along the way have been great. The greatest for me,
as for anyone trying to sustain a computer project in the Humanities even
now, is funding. A classical archaeologist, however, has other challenges. The
subject stands between archaeology and art history. Oxford boasts the largest Faculty of Classics in the world and classical scholars, at least in Oxford,
tend to privilege texts over objects. For decades I tried to persuade them that
computers were a good thing and, like my predecessors in classical archaeology, to persuade them that material culture is as important to the study of
classical antiquity as the language and literature. The potential of ICT has
now been widely accepted but the appreciation of material culture can still
be undervalued.
38
The Beazley Archive 1970-2008
2. 1970-1979
Before anyone can begin a computer project the material needs to be
in good order. Beazley’s archive consisted of 100s of 1000s of photographs
and notes on classical art, 10s of 1000s of gem impressions and many 1000s
of drawings, books and off-prints. While all of this was in Beazley’s home it
was in his personal order, but during the 1960s his health declined and order
descended into chaos. In 1970, the year he died, the material was hastily
packed and transported to Cast Gallery of the Ashmolean Museum.
Why? The professor of classical archaeology was also its curator. In the
early 1960s a gallery had been built behind the museum for the plaster casts
of antique sculpture that had been removed from displayed at its entrance
(Fig. 3). The new building had some empty storerooms, and Beazley’s archive
was moved into them. It remained there for more than 30 years, largely in
the packing cases used to move it in 1970. For decades we had no money, no
space – not even natural light or ventilation.
Fig. 3 – Ashmolean Museum, Cast Gallery.
39
D. Kurtz
Fig. 4 – The Ioannou School of Classical and Byzantine Studies.
Then, in the spring of 2007, the Archive was reunited with its academic
base – the Faculty of Classics – and given much of the top �oor of the Faculty’s
new Ioannou School for Research in Classical and Byzantine Studies (Fig. 4).
The �rst decade of the Archive’s life in the university was uncertain
and chaotic. Computers came at the very end, in 1979. This was so early for
computing in the Humanities that the university was eager to work with us.
Susan Hockey and Lou Burnard – two giants of early humanities computing – wrote our �rst programmes in Famulus �les, which most of you have
probably never heard of. This �rst decade was spent alone and unpaid in a
dreary basement – not in this light and airy space – putting things in order and
making accessible that part of the archive that was unique – the photographs
of ancient Greek pottery.
3. 1980-1989
The second decade was given over to the creation of the pottery database
because that was Beazley’s area of special expertise. You might expect that we
began with his large collection of photographs. We did not, because imaging
equipment was embryonic and networks were incapable of delivering images.
We began instead in libraries with pencils and paper, creating text records.
Our data �elds were largely the ones Beazley had used in publications from
the 1920s. Because he gave us “authority lists” and an internationally accepted
40
The Beazley Archive 1970-2008
Fig. 5 – The Beazley Archive. Athenian pottery 625-300 BC.
vocabulary we could populate the database quickly. We have always used
senior post-doctoral researchers and they have worked closely with me and
Sir John Boardman. For much of this decade we received grants from the J.
Paul Getty Trust in Los Angeles – a then young organisation that was keen
to collaborate internationally.
Since Beazley stopped actively working in the early 60s we took 1960
as a start date for data collection. Our researchers spent hours in libraries
recording vases unknown to Beazley and adding new data about those he
knew, and even more hours inputting the data. They focused on Athenian
�gure-decorated pottery made between 625 and 300 BC (Fig. 5). This is a
large body of material – an estimated 150,000 objects – with rich decoration
about life in classical antiquity. It was ideal for electronic classi�cation: large
numbers and well-established parameters.
4. 1990-1999
By 1990, the beginning of our third decade, we had a large, well-structured database of Greek pottery with text records available online through
the rather primitive Gandalf service. This meant that we were well placed to
participate in EU R&D projects that were beginning to use European cultural
heritage to develop telecoms networks for image transmission.
41
D. Kurtz
Fig. 6 – The Beazley Archive. Sculpture and plaster casts.
Between 1992 and 1996 we participated in four EU projects that gave
us opportunities to work with IBM, Nokia, Telefonica, FranceTelecom, British
Telecom and some of Europe’s greatest museums – the Uf�zi, Prado, Musée
d’Orsay, and State Museums of Berlin. These projects brought signi�cant funding and huge challenges: a project like RAMA (Remote Access to Museum
Archives) was truly visionary; only now can technology begin to realise it. In
retrospect I can see that without this EU funding the Beazley Archive would
not have survived: it was still too early for most humanists to value ICT.
During the 90s we also scanned Beazley’s photographs of pottery – about
150,000 b/w photographs – and we created more databases on other types
of material, initially plaster casts of classical sculpture (Fig. 6). Since we were
housed in a museum basement full of casts this was an obvious thing to do
and it had great potential for the Collection and Reception of classical art.
Later we turned to documentation of engraved gems for a similar practical reason: Sir John Beazley and Sir John Boardman had collected 10s of
1000s of impressions – exact copies – of gems carved from antiquity to the
present (Fig. 7). These were like tiny plaster casts.
Soon we had more than twenty databases with different types of material. Since we wanted users to be able to extract data from all of them we
needed a database that could do this. Greg Parker, the Archive’s Technical
Director, who had worked with me on the RAMA project, carried out the programming. RAMA is the mother of CLAROS to which I shall soon turn.
42
The Beazley Archive 1970-2008
Fig. 7 – The Beazley Archive. Gems.
While we were scanning images and broadening our subject range, the
web was developing. Since we had been online with Gandalf from the early
80s, and were working with telecoms companies in the early 90s, we were
well aware of these developments and that explains why our web site had
begun by the mid 90s. By 2000 we had created thousands of static web pages
in different formats. By the end of our third decade our databases and our
web pages were in urgent need of modernisation.
5. 2000 onwards
As we entered our fourth decade we gave priority to validating and
updating our records and to transferring the 1000s of static web pages into
Cascading Style Sheets. We continued to enhance our scholarly databases and
to add many thousands of colour digital images. We also undertook major
new projects.
The digitisation for the web of more than 300 volumes of Corpus Vasorum Antiquorum and the creation of an underlying database with a �velanguage search facility was a major activity between 2001 and 2004 (Fig.
8). Our earlier work on plaster casts was also transformed during these years
into a new web site: http://www.plastercasts.org/ (Fig. 9).
43
D. Kurtz
Fig. 8 – http: // www.cvaonline.org/.
Fig. 9 – http:// www.plastercasts.org/.
In 2001 we began to envisage CLAROS as a modern RAMA with distributed databases and a single search engine (Fig. 10). I had worked with
Lexicon Iconographicum Mythologiae Classicae from the 80s, and with Sculpture Research Archive in Cologne from the 1990s; both had large datasets.
Cologne was already working with the German Archaeological Institute. Our
small group has stayed together without any funding.
At the beginning of the decade we assumed that CLAROS would use
our thesauri of terms translated into different languages, but ICT changes
44
The Beazley Archive 1970-2008
Fig. 10 – http:// www.clarosnet.org/.
Fig. 11 – The CLAROS data web.
rapidly, and from 2007 we realised that this approach was old-fashioned. The
second generation web – the Semantic Web – was coming and so was image
recognition that could enable users to search without words.
The University of Oxford was developing expertise in both of these
areas. In 2007 it had also established an e-research centre where Humanities
groups like the Archive could work with ICT leaders.
45
D. Kurtz
In the summer of 2008 we began a CLAROS proof-of-concept dataweb
project with Beazley, Lexicon Iconographicum Mythologiae Classicae, the
Cologne sculpture archive, and the Lexicon of Greek Personal Names in
Oxford. The last is a natural bridge between text and image in classical studies (Fig. 11).
This diagram suggests a possible structure. We expect to use different
types of searching, with satellite maps and timelines, image recognition and
some arti�cial intelligence. Our assets at the outset are very large, highly structured and intellectually coherent and our subject is intelligible to a worldwide
audience. CLAROS is not only a model to be extended to other datasets, it is
also an ideal test bed for developing the next generation of the web.
Donna Kurtz
Beazley Archive, Classical Art Research Centre
Oxford
ABSTRACT
Over nearly four decades the Beazley Archive has developed from a personal archive,
whose origins were rooted in 19th century classical scholarship, to a state-of-the-art electronic
resource that can be used anywhere, at any time by anyone. The challenges along the way are
noted and the ways they were met, in the hope of inspiring others to persevere.
The �rst decade was “organisational”, the second saw the adoption of ICT, the third
was dominated by participation in EU R&D projects in telecommunications, and the fourth
by the Vision of CLAROS – Classical Art Research Online Services.
Since this lecture was given in autumn 2008 the CLAROS Vision has become a reality:
by August 2009 more than two million records and images were integrated virtually using
CIDOC-CRM. By adopting an ISO programme developed under the aegis of UNESCO for
ICOM, the International Council of Museums, and by enhancing it with Open Source software,
CLAROS offers a platform that any museum or research institute with digital assets can use
free of charge for the public bene�t.
As the Beazley Archive approaches its �fth decade, it looks forward to collaborating for
the advancement of scholarship and dissemination of results to the global community.
46
Archeologia e Calcolatori
20, 2009, 47-59
ESPERIENZE DOCUMENTALI SUL TERRITORIO
DAGLI ANNI ’80 AD OGGI. ALCUNE CONSIDERAZIONI
Vorrei iniziare questo breve rapporto nel ricordo di Sabatino Moscati
e con riferimento all’incontro di studi che egli promosse con il titolo di “Calcolatori e Scienze umane”. Eravamo nei primi anni ’90 e non sfuggì al suo
spirito indagatore, rivolto a tutti i campi delle Scienze dell’antichità, la necessità
di proporre un primo bilancio sui risultati – de�niti “spettacolari” – che il
fortunato incontro tra le aree della ricerca umanistica e quelle dell’informatica ad essa applicata già erano in grado di mostrare. Un bilancio che veniva
anticipato come positivo, ma che in pari tempo riscontrava già “lacune,
disfunzioni, ritardi”.
E per il settore dell’informatica rivolta all’archeologia del territorio,
Moscati volle af�darmi il compito di un rapido sguardo preliminare: non certo
un consuntivo, bensì l’identi�cazione di come la topogra�a antica e cioè la
ricostruzione storicizzata delle presenze dell’uomo sul territorio avesse reagito
a questo nuovo tipo di approccio che di giorno in giorno andava modi�cando
le tradizionali metodologie di studio su ciò che dell’antico si era conservato
nelle nostre città e nei loro contesti.
Nell’occasione ebbi la possibilità di mostrare, tra l’altro, un primo lotto
di ricerche e pubblicazioni prodotte, a partire dagli anni centrali dell’ ’80,
dal gruppo di lavoro formatosi nell’ambito della redazione della Carta
Archeologica d’Italia, sull’abrivio delle esperienze di Giuseppe Lugli e di
Ferdinando Castagnoli (Sommella 1990)1.
In quella sede suggerivo come, rispetto a un problema che coinvolge
l’intera super�cie nazionale, sia per le proporzioni dell’impresa che per i tempi
tecnici della ricerca, la soluzione non potesse intervenire se non attraverso
adeguate strutture operative e soprattutto mediante un ef�cace sistema di
accesso ai dati. Esigenze, queste, che solo il corretto uso delle tecnologie
informatiche poteva garantire con modalità più rapide di quanto non fosse
stato fatto a partire dagli anni immediatamente successivi alla creazione della
apposita Commissione risalente agli anni successivi a Roma Capitale. È infatti
noto che l’idea di una Carta Archeologica d’Italia venne formulata nel 1885,
in occasione della prima riunione della Direzione di Antichità e Belle Arti del
Ministero della Pubblica Istruzione. Dopo un lungo periodo di gestazione ed
un dichiarato fallimento dell’impresa, nel 1923 la Carta Archeologica d’Italia,
soprattutto grazie all’impegno del Lugli, divenne una delle iniziative scienti�1
Cfr. i riferimenti bibliogra�ci alla �ne del testo.
47
P. Sommella
che promosse, sotto l’egida dell’Accademia dei Lincei, dall’Unione Accademica
Nazionale, con il nome di Forma Italiae (Castagnoli 1974).
Nel 1926 uscì il primo volume della collana editoriale dal titolo AnxurTerracina. Da allora, e con l’intervento postbellico del patrocinio dell’Union
Académique Internationale di Bruxelles (Forma Orbis Romani), la Forma
Italiae ha pubblicato 45 volumi ed oggi, grazie all’intervento della Commissione Internazionale da me coordinata, si è saldata all’iniziativa della T(abula)
I(mperii) R(omani). Dico questo soltanto come spunto per sottolineare che la
Forma tratta di prototipi, cioè di ricerche/caposaldo in varie zone dell’Italia,
alle quali dovrebbe ovviamente seguire una indagine a tappeto ai �ni della
copertura integrale del territorio nazionale. E qui il condizionale è d’obbligo
perché, non ostante più volte si sia avvertita, anche in sedi uf�ciali, l’indispensabilità di una Carta Archeologica d’Italia, operativa ai �ni della tutela, della
valorizzazione e della corretta piani�cazione, ancora ci si muove in un clima
di sperimentazione episodica e quasi sempre mal coordinata.
Numerose sono, infatti, le proposte che sono state avanzate riguardo
alla ricerca archeologica applicata, in specie a partire dalla �ne degli anni
’80 del secolo scorso (Pasquinucci, Menchelli 1989); ma solo nell’ultimo
quinquennio qualcosa si è cominciato a muovere, almeno a livello speditivo,
anche a livello degli organi uf�ciali, cui dovrebbe competere l’omologazione
del sistema informatizzato delle conoscenze archeologiche territoriali e cioè
il Ministero per i Beni Culturali e Ambientali ed i suoi Enti periferici, ovvero
le Soprintendenze nelle varie regioni italiane.
D’altro canto nessuno ha mai messo in dubbio le �nalità operative, oltre
che indirizzate alla ricerca storico-archeologica, di questo tipo di cartogra�a
critica analizzata anche secondo modelli complessi oggi applicabili grazie
all’evolversi delle tecnologie informatiche (La cartogra�a dei beni storici
1994). Ad esempio lo scopo che sottende la Forma Italiae e le imprese ad essa
analoghe – e cioè le redazioni di veri e propri catasti archeologici, utili per
la ricerca storica ma fondamentali anche per la tutela dell’eredità culturale
dell’antico – fornisce un solido e allo stesso tempo sempre più appropriato
strumento di approccio alla conoscenza globale e puntuale di un territorio
poiché si basa più che sugli scavi, necessariamente limitati e costosi, sull’accurata analisi diretta delle testimonianze presenti in ampie aree.
Se dunque il consenso tecnico-scienti�co verso tale tipo di ricerca è ormai
diffuso anche in chiave locale, credo che rimangano valide le domande che mi
ponevo oltre 20 anni fa riguardo alle dif�coltà del dialogo tra i vari sistemi
informativi e dunque tra i titolari degli apparati conoscitivi e delle risposte
omogenee che la ricerca dovrebbe dare alle esigenze differenziate nel campo
delle molteplici utenze (Sommella 1989). Sono tuttora convinto che troppo
spesso si cada ancora da un lato nella trappola dei dati cartogra�ci simbolici
perché predisposti su menu tematici e, dall’altro, in quella delle planimetrie
48
Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni
vincolate da scale pre�ssate. Una risposta esaustiva non può che collegarsi
direttamente alla documentazione rilevata e misurata, e in conseguenza allo
sganciamento dalle costrizioni del fattore di scala: non può in de�nitiva che
prescindere dal riporto tradizionale su una cartogra�a di base e puntare all’inserimento documentale in un livello GIS grazie alle coordinate geogra�che.
Ritengo, comunque, che l’uso del mezzo informatico sia ancora considerato integrativo e non determinante nella maggior parte delle documentazioni territoriali. Solo alcuni picchi della ricerca topogra�ca vedono infatti
il passaggio “automatico” delle informazioni dalla fase della lettura diretta
sul terreno a quella della progettualità operativa prescindendo dall’incombere della tentazione dell’interpretazione specialistica e dalla lettura selettiva
derivante dagli interessi delle varie categorie degli attori della ricerca, quegli
archeologi che per loro formazione non possono che anteporre ai signi�cati
funzionali quelli culturali sia d’ambito urbano che territoriale.
Come osservavo al ricordato Convegno linceo (Sommella 1992), «è
il mezzo informatico che oggi può riprodurre alla dimensione ottimale per le
diverse utenze il dato archeologico o monumentale che, analizzato e quindi
memorizzato attraverso la sintesi dello specialista, viene reso disponibile nei
formati calibrati alle più disparate esigenze di studio o operative. Il colloquio
tra l’apparato cartogra�co e la descrizione del sistema schedogra�co garantisce
altresì l’integrazione dei dati di localizzazione con quelli analitici tarati sui
diversi livelli, da quello amministrativo al tecnico-scienti�co, ivi comprese le
valenze connesse alla valorizzazione anche per una individuazione del potenziale recupero economico».
Ancor prima, in un incontro organizzato a Lecce nel 1987 grazie alla
tempestiva lungimiranza dei colleghi di quella Università ed in particolare di
Francesco D’Andria, avevo avuto occasione di entrare in argomento con speci�co riguardo alla cosiddetta archeologia urbana ovvero quella tipologia di
ricerca nei contesti urbanizzati che già da decenni era all’apice delle necessità
di collaborazione tra indagini specialistiche e vita delle città con premesse
antiche (Sommella 1987a). E lamentavo il perpetuarsi dello scollamento tra
quelli che sono gli aspetti caratterizzanti la ricerca storico-archeologica e il
recupero dei documenti in un sistema aperto e sensibilizzato di progettazione urbanistica, basato sul reale e non sul simbolico, rispettoso dei contesti
delle varie epoche e non soltanto interessato, come spesso avviene, ai lacerti
monumentali a volte discriminati su parametri di importanza apparente. Concludevo come dovesse altresì osservarsi un ritardo operativo sul piano di un
generalizzato sistema di censimento documentario di base e soprattutto sulla
formazione del personale tecnico-scienti�co al �ne di garantire un numero di
specialisti suf�ciente al quadro delle esigenze locali, in aumento ogni anno a
causa del decollo contemporaneo dei piani particolareggiati nei centri storici
di maggior rilievo e tradizione (Sommella 1987b). Osservazione alla quale
49
P. Sommella
v’è oggi risposta visibile nell’offerta didattica dei settori archeologici delle
Università italiane nei quali l’archeologia informatica stenta tuttavia a trovare
una sua collocazione anche e soprattutto ai �ni del corretto inserimento dei
giovani nel mercato del lavoro.
Non sfugge, per altro, come sia ancor valido l’assunto di Roland Martin
al Colloquio Internazionale di Tours di parecchi decenni or sono, quando egli
si domandava se ci fosse ancora spazio per discutere sul tema dell’archeologia
nei centri storici: «Si tratta di de�nire l’oggetto stesso di ciò che si chiama in
breve archeologia urbana: archeologia nel centro urbano? Archeologia della
città? Speci�cità eventuale dei metodi di scavo in un centro urbano? Esigenze
particolari degli scavi in città? Problemi giuridici e amministrativi? Conservazione e valorizzazione dei resti in un tessuto urbano?» (Martin 1972).
È comunque evidente come si preferisse de�nire questo tipo di indagine
nel suo aspetto più immediato e cioè nello scavo, restando invece inespresso, e dunque quasi sempre irrisolto, il problema di fondo, sull’acquisizione
prioritaria – e cartogra�camente circostanziata – degli aspetti documentali,
seguita solo in seguito da sintesi formali e sostanziali relative ad un centro
antico in cui si erano sovrapposte pagine e pagine di una vita urbana quasi
sempre ininterrotta.
L’incontro di Lecce fu una tappa importante per gli iniziali scambi d’idee
tra diversi gruppi di lavoro ma in effetti erano ormai più di tre anni che nel
Laboratorio di Topogra�a antica dell’Università di Roma “La Sapienza” ci si
era dedicati allo studio delle città italiane con continuità di vita, dando inizio
alla fortunata serie di pubblicazioni corredate in prima istanza da planimetrie
informatizzate e in seguito da veri e propri SIT dedicati (Sommella 1987c).
Fu negli anni ’90 che questa prima sperimentazione trovò un giusto
ritmo di ricerca e di edizione: in particolare fu nel volume iniziale della serie
“Venusia e il suo territorio” che venne applicato il metodo della topogra�a di
un intero comprensorio ponendo a disposizione di una vasta utenza, accanto alla ricostruzione dell’antico assetto socio-politico, prodotti cartogra�ci
operativi ed utilizzabili anche in fase progettuale. Il volume trentasettesimo
della Collana della Forma Italiae riassunse infatti due signi�cati particolari
nella storia di questa serie editoriale: il primo concerneva la ricostruzione del
paesaggio antico nel settore regionale in cui la ricerca si era svolta mentre il
secondo era più speci�catamente connesso con la metodologia dello studio
sia negli aspetti della topogra�a applicata che in quelli dell’elaborazione
informatizzata dei dati (Azzena, Tascio 1996).
La scelta di un’area della Basilicata, quella del Vulture, per una serie
di indagini territoriali da pubblicare in più volumi della Forma, rispose non
solo all’esigenza di proseguire su un tema già iniziato con la pubblicazione
su Siris-Heraclea del 1967 ma soprattutto a quella di conoscere una intera
gamma delle realtà archeologiche, notoriamente differenziate nelle diverse
50
Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni
aree della regione, ai �ni della ricostruzione della storia di un comprensorio
secondo linee globali e con parametri di completezza che la geometrica scansione delle Tavolette IGM non aveva �no ad allora consentito. Si trattava
dunque di superare i vincoli della pubblicazione cartogra�camente delimitata
per giungere ai complessi quadri di sintesi storico-culturale senza tradire le
ragioni operative e gli scopi di una base di utilità progettuale che la cartogra�a
archeologica informatizzata aveva ormai ben presenti.
Nel caso del Vulture le tematiche della ricerca furono identi�cate nel
territorio di un centro coloniale di fondamentale importanza durante il
processo della romanizzazione mediorepubblicana dell’Italia antica. Ripeto,
tuttavia, che ciò non volle certamente cancellare il criterio �no ad allora
seguito nell’ambito della Collana, cioè quello del censimento integrale dei
beni culturali antichi di un territorio: e dunque ferma restando la logica del
catasto delle testimonianze sia dal lato archeologico che da quello archivistico-bibliogra�co, la linea seguita fu di studiare comprensori secondo criteri di
insieme organicamente selezionati in modo da assemblare le varie Tavolette
IGM in un’unica cartogra�a recante i risultati della ricerca globale di un
continuum territoriale.
Il tema aggregante per l’area del Vulture fu riconosciuto nella necessità
di disegnare i limiti della colonia latina di Venusia, caposaldo del 291 a.C.
nella politica territoriale di Roma verso il Sud-Est italiano come Atri sarà nel
289 verso le coste orientali. Il più evidente vantaggio di una tale organizzazione editoriale fu quello di evitare doppie redazioni in volumi pertinenti a
zone con�nanti ovvero di eliminare – almeno in gran parte – un sistema di
pubblicazioni cartogra�che “a chiazze” spesso con gli ovvi problemi derivanti
alla ricostruzione storica globale.
Non sfugge come tale programma abbia comportato la necessità di
una continuità �nanziaria sia per la parte della ricerca sul terreno che per
quella relativa alle fasi di stampa: è così che all’iniziale contributo del Consiglio Nazionale delle Ricerche si aggiunse il merito – ormai quasi univoco
– dell’Università di Roma “La Sapienza” e dell’Unione Accademica Nazionale
che tuttora funge altresì da tramite con l’Union Académique Internationale
di Bruxelles sotto la cui egida (Projet 6 Tir/For) si pone l’iniziativa delineata
da Rodolfo Lanciani nel lontano 1919.
Si diceva come a partire dall’ultimo decennio dello scorso secolo varie
imprese scienti�che abbiano lavorato sui temi dell’individuazione e della
documentazione delle testimonianze culturali mobili e immobili presenti sul
territorio delle regioni italiane (Azzena 1997). Ne deriva che numerose sono
state anche le edizioni con titoli che si richiamano alla cartogra�a archeologica,
dagli “Atlanti” ai “Compendi”, dalle “Carte degli insediamenti storici” alle
“Carte storiche, archeologiche, monumentali e paesistiche”, etc. Un buon
segno è inoltre quello che vede l’interessamento pubblico in un settore di
51
P. Sommella
ricerca per anni relegato tra i “supporti complementari” dell’archeologia e
della progettazione.
Sul piano nazionale i risultati di ricerche in corso, le relative iniziative
editoriali, le carte archeologiche pubblicate in contesti sia critici che univocamente documentari, sono ormai sotto gli occhi di tutti. L’ottica comprensoriale è
quella predominante, intendendo nel termine una valenza positiva per gli aspetti
operativi e soprattutto per il coinvolgimento delle forze politiche e culturali più
fortemente interessate ed interessabili a questi ambiti di ricerca. Se non altro ciò
è valido come lettera di intenti se è vero che spesso nella fase editoriale di queste
iniziative si legge una premessa in cui si accenna all’opportunità, alla necessità,
alla indifferibilità che tali opere siano recepite come strumenti urbanistici.
Le carte archeologiche d’ambito regionale, o comunque con limiti amministrativi, sono dunque una realtà nei nostri studi e se sempre si presentano
con lo scopo della conoscenza della strati�cazione antropizzata del territorio
molto spesso rapportano le carte di distribuzione delle evidenze archeologiche
a quelle funzionali alla attuale de�nizione della progettazione d’uso.
Il fatto poi che si sia spesso cercato di etichettare lavori di questo tipo
nell’ambito dei più generici “Repertori” piuttosto che in quello delle più speci�che “Carte archeologiche”, mi sembra più specioso che sostanziale poiché a
volte gli autori non si esimono dal sottolineare come anche tali opere possano
dare un contributo per la conoscenza e quindi per la difesa del patrimonio dei
Beni Culturali. Parimenti nell’ambito di una cartogra�a a grande scala con
tematismo storico-archeologico, vari esempi di redazione di carte basate sul
100.000 con indicazione delle coordinate possono citarsi. Ben consapevole
che il metodo era già noto nella tradizionale cartogra�a archeologica della
British School at Rome degli anni ’50, oltre alla “Carta Archeologica della
Sicilia F.249” curata da C.A. Di Stefano e G. Mannino non potrebbero non
essere riportate le Carte Archeologiche del Veneto e della Lombardia, esempli�cazioni nelle Marche, ed il caso modenese prototipo del sistema regionale
emiliano, da ricordarsi per la predisposizione all’informatizzazione e dunque
adatte ad un uso in tempo reale nei Piani Territoriali Regionali.
Di alcune iniziative toscane fu capo�la la “Carta archeologica della
Provincia di Siena” relativa al Chianti senese (AA.VV. 1995-2004). È partendo da tale pubblicazione che vorrei tornare per un momento sulla gamma di
utilizzo dei repertori schedo-cartogra�ci o Atlanti che dir si voglia. È infatti
indubbiamente vero che agli Enti delegati all’amministrazione del territorio,
anche nella forma gestionale dei Beni Culturali, il plafond informativo di
una schedatura bibliogra�ca generalizzata non può che essere di una qualche
utilità. Però è anche incontrovertibile l’osservazione dell’in�ttirsi del tessuto
conoscitivo che deriva dalla sovrapposizione dei dati della ricerca diretta sul
territorio applicata alla base archivistico-bibliogra�ca: non possiamo dimenticarci che il ritenere esaustivo il riporto cartogra�co a grande scala dei soli dati
52
Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni
di quest’ultima categoria può ingenerare confusione sia dal lato piani�catorio
che da quello della ricostruzione storico-archeologica comprensoriale.
Altresì indubbio fu il merito dell’“Atlante dei Siti archeologici della
Toscana” (Torelli 1992) il quale riprendeva l’antica proposta di R. Bianchi
Bandinelli per una Carta Archeologica dell’Etruria alla scala 1:100.000.
Evidenziai il mio apprezzamento per questa impresa (Sommella 1998): annotando, però, come il campo editoriale della documentazione archeologica
dovesse conservare una precisa gerarchia, mantenendo una diversa funzionalità per i vari livelli cartogra�ci, da quelli 1:1.000.000 (ad es. nel formato
della Tabula Imperii Romani), all’1:100.000 delle cartogra�e nazionali, agli
ingrandimenti 1:25.000 (o, ove mancante, all’1:50.000) delle carte comprensoriali, per giungere alle scale CTR, etc. Poiché in più punti dell’Atlante si
tendeva a sottolinearne la differenza con le Carte Archeologiche, notai che
aldilà delle vecchie discussioni avrei ritenuto più utile che in una pubblicazione
apparsa a quasi un decennio di distanza dalle prime applicazioni del mezzo
informatico nei lavori di sintesi cartogra�ca – avendo constatata la validità
di queste ultime – se ne sfruttasse la potenzialità: soprattutto rilevavo come
fosse quanto meno discutibile che ci si confrontasse, nelle scelte editoriali, con
strumenti datati e con ben preciso ruolo nella storia dell’indagine topogra�ca
ma ormai superati ed anzi sostituiti dalle nuove tecnologie di supporto sia alla
ricerca che alla pubblicazione. E, si badi, non intendevo certamente indicare
le nuove linee della tecnica cartogra�ca applicata alla topogra�a storica nella
sua fase di identi�cazione da telerilevamento, posizionamento mediante GPS,
trasferimento dati e schedatura diretta senza passaggi cartacei bensì ad un più
semplice e generalizzato uso di un database bibliogra�co con collegamento
tra la scheda e il numero identi�cativo sulla carta.
Nel caso dell’Atlante si doveva infatti, a mio parere, lamentare un
prodotto cartogra�co decisamente di retroguardia volendosi giusti�care in
tal modo un riversamento di informazioni bibliogra�che o d’archivio non
circostanziate topogra�camente. In merito potrebbe essere esempli�cativo il
confronto della cartogra�a di un settore del citato Atlante con la surricordata
carta della stessa area (Provincia di Siena) redatta per le cure dell’Università di
Siena anche avvalendosi dell’inserimento dei dati del terreno. Partendo dunque
da questo confronto, ciò che invita a considerare l’inopportunità di pubblicare
i dati archivistico-bibliogra�ci a scala topogra�ca piuttosto che geogra�ca,
nell’ambito di una cartogra�a troppo settoriale, è il fatto che nell’unità di
super�cie di due Tavolette, a fronte di una cinquantina di schede dell’Atlante
si pongono oltre 150 punti archeologici nella Carta del Chianti senese (mi
riferisco ad es. al caso del quadrante II del F.113). La forbice si allarga ancor
più nelle zone prive di tradizione cartogra�ca se si pensa che nelle ricerche
della mia Cattedra nel Vulture il citato rapporto di 1:3 tra il noto bibliogra�co
e i dati del survey allarga di oltre dieci volte il gap conoscitivo.
53
P. Sommella
Ovviamente ciò che è qui posto in discussione è la localizzazione areale
su carte di dettaglio. Penso che resti valida una considerazione fatta in altre
occasioni e cioè che il dato della ricerca è uguale per tutti i sistemi cartogra�ci
che lo contengono e che ormai prescindono – o dovrebbero prescindere – dai
simboli, sia nella fase della documentazione che in quella dell’interpretazione,
restando così il solo vincolo della correttezza dell’informazione di partenza e
dunque della particolare cura posta in fase d’immissione dei dati (Sommella
1990a). Sono sempre le stesse le informazioni che possono trasformarsi da punti
archeologici a valenza geogra�ca in dettagli non simbolici nella traduzione automatica di scala secondo un’ottica scienti�ca rispettosa della lettura oggettiva
ma soprattutto disponibile alle richieste differenziate provenienti dai diversi
ambiti di utenza. Al contrario, �nché il suddetto punto archeologico sarà un
quadratino o un circoletto o un triangolo sia nelle carte tematiche sia in quelle
operative per l’uso a scala urbanistico-territoriale, avremo una incompatibilità di
base tra l’interpretazione specialistica e l’utenza specializzata (Azzena 1999).
A questo punto vorrei ritornare sui concetti distintivi di una carta
archeologica, frutto delle indagini dirette sul terreno, rispetto ad un repertorio
bibliogra�co contestualizzato su una cartogra�a anche a grande scala, e rispetto
soprattutto ad una carta tematica di supporto ad un Atlante storico. Ci si potrebbe chiedere il perché di queste righe conclusive, ma due recenti esperienze mi
hanno posto di fronte all’evidenza di una reiterata confusione sui vari ambiti di
queste categorie documentarie: gli specialismi degli studiosi a volte costituiscono
vere e proprie barriere che ostacolano l’osmosi informativa in quanto sottopongono alla critica metodologica generalizzata iniziative che non sono comparabili
per loro stessa natura e che dunque dovrebbero essere valutate entro i limiti che
potremmo de�nire con il termine di “minimo comune multiplo”.
Sulla prima non mi dilungo. Si tratta della Carta Archeologica di Roma
che dopo decine di anni ha ripreso in qualche modo un suo percorso editoriale
anche se in modo poco coordinato (Tomei, Liverani 2005).
Non è certamente fatto ignoto come nei casi di piani�cazione di opere
pubbliche entro la cerchia delle mura di Aureliano, ci si rivolga tuttora alla base
conoscitiva e soprattutto dislocativa delle preziose tavole della Forma Urbis
Romae di Rodolfo Lanciani, un documento scienti�co ma anche una base piani�catoria che, non ostante tutto, porta piuttosto bene i suoi anni. Un mezzo
di acquisizione globale di dati, quello di un secolo fa, �n dall’inizio redatto per
un’utenza che ancor oggi ne sottolinea l’unicità e l’utilità, ma che fu anche un
modello di lavoro metodico che seguiva dichiaratamente il �ne di “conservare”
più che di “interpretare” l’informazione, in specie in un momento drammaticamente distruttivo come quello della Roma dell’ultimo trentennio dell’800.
A fronte di quell’opera colossale né i tre fogli �nora usciti della Carta
Archeologica di Roma, pubblicati dal Ministero della Pubblica Istruzione (Direzione Generale delle Antichità e Belle Arti) negli anni 1962-1977 per le cure
54
Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni
dell’Istituto Geogra�co Militare, né la riedizione integrata di quella iniziativa
con i Supplementa al Lexicon Topographicum Urbis Romae usano il titolo
nel senso di un livello cartogra�co operativo. Si tratta infatti di documenti di
alto signi�cato specialistico, ma certo non riversabili in un GIS funzionale a
causa del riporto simbolico: costretti nei margini di un livello archeologico
topogra�camente poco circostanziato, queste pubblicazioni non rispondono
esaustivamente alle domande che la piani�cazione delle opere pubbliche (infrastrutture comprese) chiede ormai in formati direttamente inseribili nella
progettazione computerizzata.
In effetti ci si potrebbe chiedere quante cartogra�e archeologiche anche recenti siano in grado di dettagliare il dato altimetrico e in particolare il
riferimento tra il quotato antico e quello moderno, criterio ormai indispensabile per un uso progettuale dei layer archeologici su cui cito ad es. il recente
contributo alla cartogra�a del Celio (Consalvi 2009).
Mi soffermo invece qualche riga in più sul recente caso di un intervento
di studiosi dell’area storica nei campi della ricerca archeologica applicata.
Se da un lato è ormai sostenuta da più parti la necessità di una indispensabile convergenza di competenze appartenenti a diversi specialismi verso le
tematiche storico-archeologiche e si concorda sul fatto che la moderna ricerca
debba giovarsi del concorso di più ricercatori con molteplicità di competenze
nell’ambito delle medesime problematiche, certamente va tenuto ben presente
che i diversi punti di osservazione devono essere pertinenti al livello di preparazione degli osservatori.
Il terreno del “contenzioso” è stato il Foglio K-32 della Tabula Imperii
Romani da me edito con la collaborazione di vari studiosi nell’ambito di
una serie di cui credo sia ben nota la lunga storia e soprattutto il portato
metodologico (Sommella 2006a). Si tratta, per riassumere brevemente, di
un sistema schedogra�co basato su una cartogra�a attuale a scala molto piccola (1:1.000.000), che oggi si propone di abbandonare la vecchia tendenza
all’ibridismo del riporto simbolico e cerca di modernizzare – anche ampliandone l’accesso informatizzato – la gestione delle testimonianze archeologiche
contestualizzabili, relative al mondo romano tra la �ne della Repubblica e il
tardo Impero. Abbandonate le originarie posizioni di cartogra�a storica la TIR
si pone dunque su una moderna linea di supporto cartogra�co informatizzato
del dato reale contestualizzato per coordinate, base riassuntiva di informazioni utilizzabili per le grandi ricostruzioni storiche ma anche disponibile,
sotto la lente d’ingrandimento del GIS dedicato, per gli utilizzi da parte della
piani�cazione urbanistico-territoriale. Non è più tra gli scopi della TIR, e
tanto meno risultavano evidenze in tal senso nel Foglio K-32, il ricostruire la
geogra�a antica dell’area presa in considerazione (Sommella 2006b).
Il fatto stesso che la base della TIR sia stata l’International Map of the
World, avrebbe dovuto rendere edotto qualunque lettore utente del GIS – sot55
P. Sommella
teso in rete all’edizione cartacea nell’indirizzo http://www.formitaliae.it/ – che
la Tabula è andata sempre più situandosi su posizioni diversi�cate da quelle
degli Atlanti storici tra i quali il ruolo di capo�la è oggi tenuto dal Barrington
Atlas of the Greek and Roman World edito nel 2000 per le cure della Princeton
University Press sotto la direzione di R. Talbert (2000). Nella schiera dei
responsabili dell’ingente Atlante spicca il nome di W. Harris che per l’appunto,
in una recensione a sua �rma, critica il volume K-32 (Harris 2008). Non
è questa la sede per entrare nel merito – e del resto si è già risposto – ma si
vuole solo sottolineare il fatto che se tra lo specialismo degli storici e quello
degli archeologi deve subentrare la collaborazione devono altresì stabilirsi
delle regole che agevolino il corretto passaggio delle informazioni tra i diversi
settori (Guzzo 2002; AA.VV. 2003).
Non è certamente un buon inizio il fatto che si critichi una carta
archeologica perché nella carta documentaria di sintesi non si ricostruisce la
geogra�a antica senza prendere coscienza che la identi�cazione dell’assetto
geomorfologico antico rientra in una delle tante carte tematiche che di necessità corredano le analisi di dettaglio dei territori studiati. E sottolineo le
cartogra�e di dettaglio perché è lì e non nei grandi quadri di sintesi del tipo
della Tabula Imperii che si pretende lo studio degli antichi percorsi �uviali
o delle antiche linee di costa che naturalmente non possono invece mancare
negli Atlanti storici (Talbert 1992).
Se non si provvede immediatamente a chiarire le diverse aree delle
competenze e dunque gli scopi di ogni progetto sia di ricerca che editoriale
la confusione impedirà presto il riconoscimento del reale dal ricostruito e la
distinzione tra gli assetti antichi e quelli moderni. A puro titolo di risposta
�nalizzata ad un ristabilirsi di un clima distensivo tra diverse aree di specialismi
– e dunque in chiave di boutade – potremmo chiederci se uno studioso pertinente ad una qualsiasi area antichistica potrebbe anche soltanto dubitare se
privilegiare per la piani�cazione di una viabilità di grande impatto nel territorio
dell’antica Alba Fucens un foglio di un Atlante storico (ad es. il Barrington)
con l’indicazione dell’antico lago fucente o non piuttosto una cartogra�a del
tipo Tabula Imperii Romani che nel modello informatizzato potrebbe essere
ingrandita �no all’indicazione degli attuali limiti di proprietà della ripartizione
fondiaria ottenuta dal prosciugamento del Fucino.
Per concludere con qualche parola di �duciosa apertura verso il rapporto tra utenza e ricerca si sottolinea l’opportunità di un momento di discussione
sugli attuali orientamenti che concernono i vari contributi alla fase dell’indagine applicata. Ci si riferisce al fervore degli interventi di ricerca sul territorio
che caratterizza questi ultimi anni. Si tratta di attività che si svolgono secondo
parametri spesso non omogenei, che vedono unità operative legate ad ambiti
scienti�co-accademici (Università, Consiglio Nazionale delle Ricerche, Centri
di ricerca, etc.), accanto ad esperienze di realtà amministrative che operano
56
Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni
sia in modo autonomo che in convenzione (Regioni, Province, Comuni, etc.),
ovvero nella prospettiva sempre più ef�cace di Consorzi multisinergici. Unità
operative che in generale si collegano all’attività istituzionale degli Organi
periferici del Ministero per i Beni e le Attività culturali, le Soprintendenze da
cui i ricercatori dovrebbero trarre le linee del coordinamento.
Conoscenza, dunque, come presupposto alla valorizzazione ed anche
all’investimento economico, con spazio per l’intervento privato (Sommella
2002). È propria di questi tempi la quaestio sulla produttività del Bene Culturale: ne è risultato coinvolto anche l’aspetto della coerenza tra l’investimento nella
ricerca topogra�ca e la conseguente creazione di una cartogra�a archeologica
di dettaglio da utilizzare ai �ni della conservazione. Una conservazione non
passiva cioè priva di investimenti, bensì attiva, consapevole della unicità storica
e dunque del valore universale del documento, comunque degna di risorse che
non dipendano solo dalla rilevanza economica del documento stesso.
Dovendo trarne delle conclusioni, siamo comunque di fronte a precisi
indizi circa il raggiungimento di un livello di guardia per quanto riguarda il
futuro della catalogazione dei Beni Culturali presenti sul territorio e giunti
�no a noi: potrebbe rivelarsi irreparabile il procrastinare un progetto topogra�co globale (troppe sono ancora le zone d’Italia “mute” per assenza di
indagini!) con una ricerca coordinata che, in ogni caso, non dovrebbe servire
a pilotare in chiave di valutazione commerciale eventuali criteri selettivi per
la dismissione del Bene stesso.
Paolo Sommella
Accademia Nazionale dei Lincei
BIBLIOGRAFIA
AA.VV. 1995-2004, Carta Archeologica della Provincia di Siena, voll. I-VI, Siena, NIE.
AA.VV. 2003, I modelli nella ricerca archeologica. Il ruolo dell’informatica, Atti del Convegno
Internazionale (Roma 2000), Contributi del Centro Linceo Interdisciplinare Beniamino
Segre, 107, Roma.
Azzena G. 1997, Questioni terminologiche - e di merito - sui GIS in archeologia, in A. Gottarelli (ed.), Sistemi Informativi e reti geogra�che in archeologia: GIS-INTERNET,
VII Ciclo di Lezioni sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena,
1995), Firenze, All’Insegna del Giglio, 33-43.
Azzena G. 1999, Dal rilievo archeologico all’Atlante storico: un percorso possibile, in Archeologia senza scavo. Nuovi metodi d’indagine per la conoscenza del territorio antico, Atti
della XXVIII Settimana di Studi Aquileiesi (Aquileia 1997), Trieste, 241-251.
Azzena G., Tascio M. 1996, Il Sistema Informativo Territoriale per la Carta Archeologica
d’Italia, in M.L. Marchi, G. Sabbatini, Venusia, Forma Italiae 37, Firenze, Leo S.
Olschki, 281-297.
Castagnoli F. 1974, La Carta Archeologica d’Italia e gli studi di topogra�a antica, in Ricognizione archeologica e documentazione cartogra�ca, «Quaderni dell’Istituto di Topogra�a
Antica dell’Università di Roma», 6, 7-17.
57
P. Sommella
Consalvi F. 2009, Il Celio orientale. Contributo alla Carta archeologica di Roma. Tav. VI,
sett. H, Roma, Quasar.
Guzzo P.G. 2002, Natura e storia nel territorio e nel paesaggio, Roma, L’Erma di Bretschneider.
Harris W.H. 2008, «Bryn Mawr Classical Review», 2008.02.49.
La cartogra�a dei beni storici, archeologici e paesistici nelle grandi aree urbane dal censimento
alla tutela, Atti del Convegno (Roma 1990), Roma 1994, Quasar.
Martin R. 1972, Atti del Colloque international sur la cartographie archéologique et historique (Paris 1970), Tours.
Pasquinucci M., Menchelli S. (eds.) 1989, La Cartogra�a archeologica. Problemi e prospettive. Atti del Convegno Internazionale (Pisa 1988), Pisa, Università degli Studi di Pisa.
Sommella P. 1987a, Cartogra�a archeologica computerizzata, in F. D’Andria (ed.), Informatica e Archeologia Classica, Atti del Congresso Internazionale (Lecce 1986), Lecce,
Congedo Editore, 17-30
Sommella P. 1987b, Premessa a G. Azzena, Atri, Città antiche in Italia 1, Roma.
Sommella P. 1987c, in AA.VV., La collana “Città antiche in Italia” e il progetto per la
cartogra�a archeologica di Padova, «Quaderni di Archeologia del Veneto», 3, 217221.
Sommella P. 1989, Forma Italiae. Un progetto scienti�co e uno strumento operativo, in Pasquinucci, Menchelli 1989, 291-305.
Sommella P. 1990, Informatica e topogra�a storica: cinque anni di esperienza su un secolo di
tradizione, «Archeologia e Calcolatori», 1, 211-236 (collab. G. Azzena e M.Tascio)
Sommella P. 1992, Tecnologie avanzate e Beni Culturali. La cartogra�a, in Calcolatori e
Scienze umane. Atti del Convegno (Roma, Accademia Nazionale dei Lincei-Fondazione
IBM, 1991), Roma, ETAS, 25-32.
Sommella P. 1998, Rec. a Atlante dei Siti archeologici della Toscana, «Bonner Jahrbücher»,
198, 527-530.
Sommella P. 2002, Dopo Lanciani, in M.P. Guermandi (ed.), Rischio archeologico: se lo
conosci lo eviti, Atti del congresso Internazionale di Studi su cartogra�a archeologica
e tutela del territorio (Ferrara 2000), Firenze, All’Insegna del Giglio, 20-28.
Sommella P. (ed.) 2006a, Tabula Imperii Romani F. K-32, Roma, Quasar.
Sommella P. 2006b, Saper leggere la TIR (Foglio K-32). A proposito di una recensione di
W.V. Harris, «Mediterraneo Antico», 9, 2, 391-414.
Talbert R.J.A. 1992, Mapping the classical world: major atlases and map series 1872-1990,
«Journal of Roman Archaeology», 5, 5-38.
Talbert R.J.A (ed.) 2000, Barrington Atlas of the Greek and Roman World, Princeton-Oxford,
Princeton University Press.
Tomei M.A., Liverani P. 2005, Carta archeologica di Roma. Primo Quadrante, Roma,
Quasar.
Torelli M. (ed.) 1992, Atlante dei siti archeologici della Toscana, voll. 1-2, Firenze-Roma,
L’Erma di Bretschneider.
ABSTRACT
In the early 1990s the Author brought attention to the fact that the Carta Archeologica
d’Italia – due to the entity of the project which involved all of the national territory and the
time required for the relative research – was in urgent need of a structural updating, through
an effective system of access to the results. These demands were of a nature that only a correct
use of computer technologies could guarantee in real operational time. In that period, only
a few advanced experimental peaks of topographic research actually included the automatic
58
Esperienze documentali sul territorio dagli anni ’80 ad oggi. Alcune considerazioni
transition of information from the phase of terrain reading to that of operational planning
feasibility. Since then, many scienti�c projects have been devoted to locating and documenting
tangible and intangible cultural heritage in Italy. However, we still have to deal with the problem
of adopting common platforms to share information and make use of cartographic systems in
a GIS environment, regardless of the symbols being used in the documentation phase as well as
in the interpretive phase. The same information can be turned from geographical points into
plan details, through an automatic scale conversion and with a scienti�c perspective available
for the requirements of different user environments.
The Author concludes by remarking on the urgent need of a convergence of competences
from specialised sectors. Nevertheless, modern research, while taking advantage of the co-operation of a wide range of experts, should always consider that results coming from different points
of observation pertain to the observers’ speci�c �eld and should not be “invasive” but respectful
of their methods.
59
Archeologia e Calcolatori
20, 2009, 61-73
THE GOLDEN YEARS FOR MATHEMATICS AND COMPUTERS
IN ARCHAEOLOGY (1965-1985)
1. Introduction
For twenty years, from 1965 and 1985, Archaeology was the major �eld
of application of mathematics and computers, as in other Natural, Social and
Human Sciences. At the same time, applications involving Physics were also
being used in Archaeology. In this paper we attempt to reconstruct the history
of these twenty years, the main actors, their contribution to the evolution of
Archaeology, the reason for the shift towards Computing Archaeology and
the present potential comeback resulting from these techniques (Fig. 1).
2. 1945. A worldwide context for the development of scientific
research
Between the two world wars, the progress of a quantitative movement
in Anthropology, Sociology and Psychology also in�uenced other sectors of
the Social and Human Sciences, in particular Archaeology. Similarly, the in�uence of quanti�cation in the Earth Sciences (Geology, Taxonomy, Ecology,
etc.) became very important in prehistoric Archaeology.
The researchers helping the war effort (operational research), based on
fundamental research, applied the methods and tools developed during the
war, promoting quantitative approaches and mathematics. The foundation
and the development of large European research organizations were inspired
by the model of the USSR Academy of Sciences: the CNRS in France, the
CNR in Italy, and of course other institutions in all the Eastern and Central
European countries located behind the iron curtain. The very large number of
researchers recruited between 1945 and 1965 for those institutions augmented
fundamental and applied research for the next thirty years until about 1975,
when the recruitment of researchers was limited.
3. 1945-1965. The general development of a quantitative movement
in Social and Human Sciences and in Archaeology: statistics and
graphics without computers
During the period from 1945 to 1965, Archaeology was the �eld of a
very dynamic quantitative movement, using elementary statistics and graphics,
to solve the main classical questions that are at the origin of the methods we
now use for processing archaeological data.
61
F. Djindjian
The names below represent a partial list of several of the main contributors from the USA and Europe:
Mielke (1949)
Cultural facies
Brainerd, Robinson (1951) Seriation
Spaulding (1953)
Typology and statistics (χ²)
Bordes, Bourgon (1953)
Cumulative diagram for cultural facies
Clark, Evans (1954)
Nearest Neighbour Analysis and spatial analysis
Bohmers (1956)
Graphics and statistics for typology
Meighan (1959)
Seriation
De Heinzelin (1960)
Typology and statistics
Vescelius (1960)
Sampling
Ford (1962)
Graphics for seriation
Clarke (1962)
Matrix Analysis
Vertes (1964)
Statistics and graphics
Laplace (1966)
χ² test and “Synthetotype” for cultural facies
Angel (1969)
Prehistoric demography
At the same time, other preliminary research works dealt with the
formalization and recording of data for the purpose of archaeological data
banks, using punch card machines (Gardin 1958).
4. 1960. The computer liberates the researcher from manual
computing
After the laboratory experimental machines (1946-1950), the �rst
products appeared in the 1950s: 1951, Univac 1 (Remington Rand); 1952,
Gamma 2 (Machines Bull); 1952, IBM 701 (IBM). In 1955, the Fortran language was developed on the IBM 704, the �rst scienti�c computer. The �rst
business computer, IBM 1401, developed in 1959, was followed in 1964 by
the IBM 360, the �rst of the fully compatible upgraded IBM machines.
Starting in 1960, the �rst computers for academic research were installed
in computer centres of the universities for general purposes. It was a heroic
time for researchers who were obliged to develop their own software in binary language, assembly language and then Fortran language for scienti�c
programs. Fortunately, the computer departments in the universities started
to develop the �rst packages, offering users the �rst statistical software (SPSS,
Osiris, BMDP). Not just limited to elementary statistics, statistical tests or
graphics, the packages were also offering tools to develop sophisticated algorithms like numerical taxonomy (Sneath 1957; Sokal, Sneath 1963), Factor
Analysis, Quantitative Geography (Haggett 1965). At the same time, it was
also the very beginning of mapping (Bertin 1967, Sémiologie graphique)
and maps were printed by special dedicated machines (“traceurs”) until the
end of the 1970s.
62
The golden years for mathematics and computers in archaeology (1965-1985)
5. Many other scientific influences
During this period, many other types of research in�uenced the �elds
of the Human and Social Sciences, for example:
– System dynamics of J.W. Forrester: 1961 (Industrial dynamics), 1969
(Urban dynamics), 1971 (World dynamics). It is interesting to note the relationships with the disputed 1972 “Limits to growth” of the club of Rome,
recently updated in 2004.
– Mathematical Ecology (Pielou 1969);
– Catastrophe theory (Thom 1972);
– Mathematical modeling including Multi-agent system (Doran 1981);
– Sampling (Desabie 1966; Cochran 1977);
– Expert systems (Dendral 1965; Mycin 1972);
– Quantitative Geography (Chisholm 1962; Haggett 1965; Berry
1967);
– Physical and chemical analysis (Archaeometry, name given in 1958);
– Quantitative environmental studies.
6. 1970. The revolution of multidimensional data analysis
The mathematical foundations of multidimensional data analysis have
been well known since the beginning of the 20th century (Principal Component
Analysis by Pearson 1901). But the computations for obtaining the eigenvalues during the process of diagonalising the matrix were too long to be used
without computers. This was the reason why, around 1930, their development
was limited to Psychometry (Spearmann, Thurstone, Guttman, Burt) by the
de�nition of special questionnaires, simplifying the computations.
From 1960 to 1970, the �rst computerised algorithms appeared which
were at the origin of a new revolution of Statistics. The multidimensional data
analysis techniques included several different techniques:
– The Cluster Analysis techniques, �guring, mainly by a tree, the similarities
between objects described by numerous variables and producing clusters of
objects. 1963 is the year of the �rst publication of the famous book by R.R.
Sokal and P.H.A. Sneath Numerical Taxonomy.
– The scaling techniques, reducing a multidimensional space of data to a one
or two dimensional scale; the most famous of them is the Non-metric Multidimensional Scaling by J.B. Kruskal (from Bell labs), �rst published in 1964.
– The “Factor” Analysis techniques, a family of techniques based on the diagonalization of a matrix of correlation or association between individuals or
variables, including Principal Component Analysis (Pearson 1901), Factor
Analysis (Spearman 1904), Discriminant Analysis (Mahalanobis 1927;
Fisher 1936), Correspondence Analysis (Benzécri 1973).
63
F. Djindjian
7. 1966-1976. The quantitative revolution in Archaeology
Around 1966, several papers marked the start-up of the quantitative
revolution in Archaeology:
– Hodson, Sneath, Doran (1966): Cluster Analysis on Münsingen �bulae;
– Doran, Hodson (1966): Multidimensional scaling on upper Palaeolithic
assemblages;
– Binford, Binford (1966): Factor Analysis on Mousterian assemblages;
– Archer, Archer 1963; Kuzara, Mead, Dixon 1966; Hole, Shaw 1967;
Crayton, Johnson 1968; Elisseef 1968; Renfrew, Sterud 1969: Seriation
algorithms;
– Renfrew, Cann, Dixon (1968): Characterization and exchange of obsidian
around the Mediterranean sea (Archeometry).
In 1970, the Conference of Mamaia (Romania) Mathematics in the Archaeological and Historical Sciences was the place where famous statisticians
met Archaeology: Rao, Kruskal, Kendall, Sibson, La Vega, Lerman, Wilkinson,
Solomon, Doran, Ihm, Borillo, Gower, and where archaeologists also showed
that they knew how to use statistics: Moberg, Spaulding, Cavalli-Sforza,
Hodson, Orton, Hesse, Ammerman, Goldmann.
The Conference of Mamaia also showed the �rst use of data analysis in Archaeology and historical texts (Multidimensional scaling, Cluster Analysis).
The period from 1966 to 1976 is the time of the precursors, most of them
were often trained in both Archaeology as well as Science and computers:
– USA: A.C. Spaulding, G.L. Cowgill, A.J. Ammermann, C.S Peebles, R.
Whallon, E. Zubrow;
– UK: J.D. Wilcock, J. Doran, Cl. Orton, I. Graham, D.G. Kendall;
– Italy: A. Bietti;
– Germany: I. Scollar, P. Ihm, A. Zimmermann;
– Netherlands: A. Voorrips, H. Kamermans;
– Russia: P. Dolukhanov;
– France: F. Djindjian;
– Australia: I. Johnson;
– Denmark: T. Madsen;
– Belgium: A. Gob.
The next generation arrived in the period from 1976 to 1986, all of
them being archaeologists: P. Moscati, A. Guidi, F. Giligny, S. Shennan, C.
Gamble, J.A. Barceló, H. Hietala, K. Kintigh, K. Kvamme, J.M. O’Shea, S.
Scholtz-Parker, S. Van der Leew, etc.
1966-1976 is the period of the greatest development of Quantitative
Archaeology:
– Quantitative Archaeology (Doran, Hodson 1975);
64
The golden years for mathematics and computers in archaeology (1965-1985)
– Environmental Archaeology (Butzer 1970);
– “Spatial” Archaeology (Hodder, Orton 1976; Clarke 1977);
– Simulation in Archaeology (Clarke 1972; Hodder 1978; Sabloff 1981);
– Image processing in Archaeology (Scollar 1975);
– Harris matrix (Harris 1975);
– Demography (Hassan 1973, 1981; Masset 1973);
– Site catchment analysis (Vita-Finzi, Higgs 1970; Higgs 1975; Zubrow
1975) ;
– Sampling in archaeological surveys and excavations (Mueller 1975;
Cherry, Gamble, Shennan 1978);
– Mathematical models (Doran 1970, 1981).
8. Archaeology, Classical Archaeology and New Archaeology
The development of mathematics and computers in Archaeology has
received varying degrees of acceptance, depending on the nature of the different theoretical approaches. Prehistoric Archaeology has preferred multidimensional data analysis for typometry, culture identi�cation, spatial intrasite
analysis, environmental studies. Classical Archaeology has given a signi�cant
impulse to data bank edition for epigraphy, to cultural resource management
and to GIS implementing intersite spatial analysis. Processual Archaeology or
New Archaeology, oriented towards Anthropology, functionalism and cultural
ecology, had a preference for deductive models implementing statistical tests
and mathematical modeling. Post-Processual Archaeology, of course, does
not need any scienti�c method.
9. A case study: typometry
Artefact classi�cation or typology is one of the basic methods of Archaeology. Until 1950, the classi�cation was the result of a visual observation
of artefacts, preferably spread out upon a large table.
The analogy with numerical taxonomy in Natural Sciences involves
the formalization of a description of artefacts (attributes) which permits a
classi�cation on the basis of similarities between artefacts, quanti�ed from
the measurements in the description.
Numerous statistical approaches have been proposed; the main ones
are cited below:
– Attribute analysis (Spauling 1953) is based on the use of χ² tests for measuring the association between attributes.
– Matrix analysis (Tugby 1958; Clarke 1962) is based on the reorganization of
the rows and columns of a matrix of presence-absence or percentages to reveal
a partition inside the matrix, demonstrating the evidence of several types.
65
F. Djindjian
– Biometry (Bohmers 1956; de Heinzelin 1960) is based on the use of Laplace-Gauss elementary statistics to reveal the existence of multi-modal peaks
in histograms or separated point clouds in diagrams, to isolate types.
– Numerical taxonomy (Hodson, Sneath, Doran 1966) is based on the use
of techniques of Cluster Analysis to identify archaeological types.
– Typological Analysis (Djindjian 1976) is an improvement of numerical
taxonomy techniques. The Typological Analysis is based on a R + Q Correspondence Analysis and/or Principal Component Analysis associated with a
Cluster Analysis. The Multiple Typological Analysis (Djindjian 1991) is based
on several Typological Analyses applied on homogeneous intrinsic variables
(morphology, technology, decoration, gripping, raw material, etc.) and a �nal
one applied to the matrix of the clusters resulting in the previous analyses.
– Morphology analysis (pattern recognition) is based on multidimensional data
analysis techniques applied to the digitalization of the pro�le of artefacts. Different codings of pro�le measures have been tested and proposed: Sliced method
(Wilcock, Shennan 1975), Tangent-pro�le technique (Main 1986), Extended
sliced method (Djindjian et al. 1985), B-spline curve (Hall, Laflin 1984),
Fourier series (Gero, Mazzula 1984), Centroïd and cyclical curve (Tyldesley
et al. 1985), Two-curves system (Hagstrum, Hildebrand 1990), etc.
10. A case study: seriation
Seriation is certainly the most original method in Archaeology for determining the chronological order of artefacts (from a description) and mainly
between closed sets, particularly the burials in a cemetery (from an inventory
of types). It is the reason why so many algorithms have been proposed to
solve the problem of the seriation:
– Similarity matrix ordering (Brainerd, Robinson 1951; Bordaz 1970;
Landau, de La Vega 1971);
– Graphs (Meighan 1959; Ford 1962);
– Matrix reorganization (Clarke 1962; Bertin 1973);
– Incidence matrix direct ordering (Kendall 1963; Regnier 1977);
– Computerised similarity matrix ordering (Asher 1963; Kuzara et al. 1966;
Hole, Shaw 1967; Craytor, Johnson 1968);
– Rapid methods on similarity matrix (Dempsey, Baumhoff 1963; Elisseef
1968; Renfrew, Sterud 1969; Gelfand 1971);
– Multidimensional scaling (Kendall 1971);
– Travelling salesman problem (Wilkinson 1971);
– Reciprocal averaging method (Goldman 1971; Wilkinson 1974; Leroux
1980);
– Correspondence Analysis (Djindjian 1976);
– PCA (Marquardt 1978);
66
The golden years for mathematics and computers in archaeology (1965-1985)
– Rapid method on incidence data matrix (Ester 1981);
– Toposeriation (Djindjian 1984);
– and others (Ihm 1981; Laxton, Restorick 1989; Baxter 1994; etc.).
Today, Correspondence Analysis is the most popular and easy to use
technique of seriation, delivering a double parabola (the Guttmann effect),
ordering chronologically both objects (burials) and types. The technique is
very robust; it is able to reveal errors in recording or excavation and inaccuracies of typology, and permits separation of the time scales from other
non-time parasite scales.
11. A case study: typology, assemblage, culture and “system”
When confronted with closed sets of artefacts, the archaeologist needs
to compare them with others and to link the similarities between assemblages
with time and space. It is the origin of the concept of culture which has many
Fig. 1 – Proposed techniques for the typological analysis.
67
F. Djindjian
analogies in archaeological literature (techno-complexes, assemblages, facies,
industries, cultures).
The archaeological methods proceed from artefacts to types (typology), and then from types to cultures, from a matrix of percentages of types
in the archaeological layers, by searching partitions. The approach, generally
limited to Prehistory and Protohistory records, starts from simple statistical
techniques, inspired by Geology for the cumulative diagram of Bordes and
Bourgon (1950) or based on histograms and χ2 tests for Laplace (1957)
and its synthetotype method.
The actual multidimensional scale of the problem has been well understood by Binford, Binford (1966) in their famous revision study of
European Mousterian assemblages, refuted unfortunately by an incorrect use
of their Factor Analysis. At the same time, the �rst use of a Multidimensional
scaling algorithm by Doran, Hodson (1966) shows the potential of the
multidimensional approach to solve the problem.
The technical dif�culty was then to process both individuals (Q method)
and variables (R method): several techniques were proposed around 1970,
until the use of Correspondence Analysis applied either on contingency tables
of types (Djindjian 1976) or Burt tables of attributes, thus avoiding the use
of typologies (Djindjian 1980) (Fig. 1).
12. A case study: spatial analysis in Archaeology
The beginning of spatial analysis in Archaeology is associated with the
in�uence of Quantitative Ecology (Pielou 1969): Nearest Neighbor Analysis,
tests on grid counting. Whallon (1973) and Dacey (1973) were the �rst
to apply these techniques to artefact distribution on occupation �oors, for
showing the evidence of concentrations. But rapidly, it was evident that the
artefact distributions had a multidimensional component (lithics, ceramics,
stones, bones, etc.) which could not be limited to a single one.
The tests of spatial associations were then proposed in the 1970s as
a technical improvement: Hodder, Orton 1976; Clarke 1977; Hietala,
Stevens 1977; Hodder, Okell 1978; Berry et al. 1980, etc.
But the only way was the use of Multidimensional spatial data analysis:
– Local density analysis by Johnson (1976);
– Spectral analysis by Graham (1980);
– (X, Y) clustering by Kintigh, Ammermann (1982);
– Unconstrained clustering by Whallon (1984);
– Spatial structure analysis with topographical constraints by Djindjian
(1988);
– Spatial structure analysis of re�tted artefacts by Djindjian (1997, 1999).
68
The golden years for mathematics and computers in archaeology (1965-1985)
Such methods are always in the state of the art of spatial analysis. But
the rapid development of GIS now involves the need to implement spatial
analysis techniques in the GIS packages, as an easy to use function.
13. A case study: mathematical modeling in the 1970s
Various mathematical modeling techniques have been used in Archaeology, for example, algebraic and exponential equations, linear programming,
stochastic process, gravity models, system dynamics, catastrophe theory,
multi-agent system:
– Population model of hunter-gatherer groups (Wobst 1974);
– Fitting of logistic curves for demographic estimation of cities or regions
(Ammerman et al. 1976): Y = A/(1 + Bexp(-kT));
– Population estimation of hunter-gatherer groups from surface and structure
of dwelling areas (Hassan 1975): A = 0,7105 P exp 1,76;
– Boundary models (Renfrew, Level 1979): I = C exp(a) – kd with a = 0,5,
k = 0,01;
– Subsistence models (Jochim 1976; Keene 1979);
– Transition model from hunter-gatherer economy to farming and breeding
economy (Reynolds, Ziegler 1979);
– Stochastic models for random walk process (Hodder, Orton 1976);
– Diffusion models of farming in Europe (Ammerman, Cavalli-Sforza
1973);
– Cultural change models by the catastrophe theory of R. Thom: the collapse
of Maya civilization (Renfrew, Cooke 1979);
– Multi-agent systems and the Maya collapse (Doran 1981).
14. The 1980s: success
During the 1980s, the ability of multidimensional data analysis techniques to solve many archaeological methods was at the origin of its progressive
success. Among the numerous classic or prototypal techniques of data analysis, Correspondence Analysis and Principal Component Analysis, associated
with an appropriate Cluster Analysis, appeared to be robust and easy to use
techniques, even to non-mathematician researchers.
Since then, Archaeology has played a major role among all the Human
and Social Sciences, in showing how to integrate statistics into archaeological methods. Quanti�cation, statistics, data analysis were then embedded in
archaeological methods as they were embedded in computer packages:
– Survey (artefact surface collecting studies);
– Stratigraphy analysis (Harris matrix);
69
F. Djindjian
– Artefact analysis;
– Stylistic analysis;
– Taxonomy (Anthropology, Paleontology, Genetics);
– Identi�cation of cultural systems;
– Seriation/Toposeriation;
– Intrasite spatial analysis (dwellings and funerary structures);
– Paleoenvironmental studies;
– Raw material procurement and craft manufacturing sources;
– Intersite spatial analysis and landscape studies;
– Any intrinsic and extrinsic structuring (general case).
15. The criticism against Quantitative Archaeology
At the end of the 1980s, Quantitative Archaeology and Statistics no
longer seemed to be widely used. Many reasons have contributed to explain
this situation:
– Quantitative Archaeology was passing from the �eld of research to the �eld
of current use, corresponding to the publication of synthetic summary books
(see bibliography).
– The available archaeological data were exhausted by the quantitative movement and it was necessary to come back to a new data acquisition phase.
– The ambitious objectives of the New Archaeology, often applied with a
naïve approach and without enough mathematical and methodological knowhow, were increasingly considered a paradigm rather than an epistemology
of Archaeology.
– The development of microcomputers allowed the real development of
Computing Archaeology and consequently the �eld of research shifted from
mathematics and statistics to computing applications (data banks, GIS, Archaeological Information System, CRM, etc.) as occurred also in the other
�elds.
But general criticism concerning the quantitative movement in the Human and Social Sciences was also emerging, particularly concerning Structuralism, with the success in the USA of the French deconstructivism movement
(Derrida, Foucault, etc.). The fashion of post-Processual Archaeology was
then replacing Processual Archaeology.
Some of the main criticisms of the movement suggest that we should
focus on the following:
– A measure is not knowledge (S.J. Gould, The Mismeasure of Man,
1981).
– A structure is not a system (deconstruction of the concept of archaeological
culture).
70
The golden years for mathematics and computers in archaeology (1965-1985)
– All the archaeological models �t well (poor quality of models, complexity
of civilizations, data failure).
– The bias of the archaeological record does not allow any reliable quantitative
or statistical process (Behavioral Archaeology).
16. 1990/2000: standardization, embedding and theorization
Since 1990, the popularization of computers in Archaeology had involved
not only a few enthusiastic archaeologists but, progressively, all of them. In the
beginning, Computing Archaeology was mainly limited to Word, Excel, PowerPoint, Illustrator, Photoshop and a statistical package; but very quickly, the use of
a DBMS, a huge interest for GIS and multimedia data banks, and the discovery
of Virtual Reality were developed. Computing Archaeology has become not
only the strategic weapon of the most dynamic researchers but also the professional tool for CRM (Culture Resource Management) and Rescue Archaeology.
Internet may be considered as a revolution of productivity in Archaeology, for
communication, on-line libraries, Google assisted retrieval systems, etc.
The decline of the scienti�c in�uence (Physics, Mathematics, etc.) in
Social and Human Sciences becomes more and more evident, relayed by the
Environmental Sciences (which have replaced the “old” Natural Sciences),
boosted by the fear of the change of the earth climate and environment.
Statistical techniques are always present but they are increasingly embedded into computerized applications (Statistical packages, GIS, VR, etc.)
and Archaeological methods (typometry, spatial analysis, raw material procurement, seriation, Harris matrix management, archaeological surveys, etc.):
“Techniques are changing, methods are going on” (Djindjian 1991).
A further step has been the attempt to integrate Quantitative Archaeology in every Archaeological construct, with the objective of edifying a general
theory of archaeological knowledge or Epistemology (Djindjian 2002).
It is also the end of a factice opposition between the methods of Mathematics (for example Djindjian) and the methods of Semiotics (for example
Gardin):
– Quantitative
Acquisition
Qualitative
– Statistics
Object identi�cation
Semiotics
– Structures
Structuring
Logic
– System
Modeling
Discourse
The two approaches may converge in a three step cognitive model as
inspired by Peirce:
– Acquisition
Qualitative and quantitative acquisition
– Structuring
Data Analysis
– Reconstitution
Logic discourse and models
71
F. Djindjian
17. 2010?
Archaeology is changing!
The regional importance of cultural resource management, the rapid
development of Rescue Archaeology as the prime budget and the �rst recruiter for young archaeologists, along with the specialization of archaeological
research are all professionalizing Archaeology.
This context is promoting the elaboration of state of the art archaeological techniques and methods and the availability of computerized tools,
which allows the emergence of standards (recording, reporting, thesaurus,
etc.), good practices and productivity.
Quantitative Archaeology exists, embedded into application software,
statistical packages and archaeological methods, but also through the conceptualization and the formalization of the archaeological projects.
Quantitative Archaeology has come back, because Archaeology is more
and more a multidisciplinary Science, integrating Exact Sciences, Natural
Sciences, Social and Human Sciences, Engineering, where the quantitative
approaches are natural.
François Djindjian
Université de Paris 1 Panthéon-Sorbonne
CNRS – UMR 7041 ArScAn
REFERENCES*
Borillo M. 1977, Raisonnement et méthodes mathématiques en archéologie, Paris, CNRS.
Borillo M. 1978, Archéologie et calcul: textes recueillis, Paris, Collection 10/18.
Clarke D.L. (ed.) 1972, Models in Archaeology, London, Methuen.
Clarke D.L. 1977, Spatial Archaeology, London, Methuen.
Djindjian F. 1991, Méthodes pour l’Archéologie, Paris, Armand Colin.
Djindjian F., Ducasse H. (eds.) 1987, Data Processing and Mathematics Applied to Archaeology, Ecole d’été Valbonne-Montpellier, Mathématiques et Informatique appliquées à
l’Archéologie, «Pact», 16.
Djindjian F., Moscati P. (eds.) 2002, Proceedings of the Commission 4 Symposia, XIV UISPP
Congress (Liège 2001), «Archeologia e Calcolatori», 13.
Doran J.E., Hodson F.R. 1975, Mathematics and Computers in Archaeology, Edinburgh,
Edinburgh University Press.
Earle T.K., Ericson J.E. (eds.) 1977, Exchange Systems in Prehistory, New York, Academic
Press.
Gardin J.-Cl. (ed.) 1970, Archéologie et calculateurs: problèmes sémiologiques et mathématiques, Paris, CNRS.
Hassan F.A. 1981, Demographic Archaeology, New York, Academic Press.
* A selection of major publications between 1970 and 1991, in chronological order. To avoid
giving a list of references which is too long, the papers cited in the text will not be listed here. It is
possible to read the references in the bibliography of Djindjian 1991.
72
The golden years for mathematics and computers in archaeology (1965-1985)
Hietala H. (ed.) 1984, Intrasite Spatial Analysis in Archaeology, Cambridge, Cambridge
University Press.
Higgs E.S. 1975, Palaeoeconomy, Cambridge, Cambridge University Press.
Hodder I. (ed.) 1978, Simulation Studies in Archaeology, Cambridge, Cambridge University
Press.
Hodder I., Orton C. 1976, Spatial Analysis in Archaeology, Cambridge, Cambridge University Press.
Hodson F.R., Kendall D.G., Tautu P. (eds.) 1971, Mathematics in the Archaeological and
Historical Sciences. Proceedings of the Anglo-Romanian Conference (Mamaia 1970),
Edinburgh, Edinburgh University Press.
Ihm P. 1978, Statistik in der Archäologie, Archaeophysica 9.
Jochim M.A. 1976, Hunter-Gatherer Subsistence: A Predictive Model, New York, Academic
Press.
Les Dossiers de l’Archéologie, 42, 1980.
Moscati P. 1987, Archeologia e Calcolatori, Firenze, Giunti.
Mueller J.W. (ed.) 1975, Sampling in Archaeology, Tucson, The University of Arizona
Press.
Orton C. 1980, Mathematics in Archaeology, Cambridge, Cambridge University Press.
Renfrew C., Cooke K.L. (eds.) 1979, Transformations: Mathematical Approaches to Culture
Change, New York, Academic Press.
Sabloff J.A. (ed.) 1981, Simulations in Archaeology, Albuquerque, University of New Mexico
Press.
Shennan S. 1988, Quantifying Archaeology, Edinburgh, Edinburgh University Press.
Voorrips A. (ed.) 1990, Mathematics and Information Science in Archaeology: A Flexible
Framework, Studies in Modern Archaeology, 3, Bonn.
Voorrips A., Loving S.H. (eds.) 1986, To Pattern the Past, «Pact », 11.
World Archaeology 1982, Quantitative Methods in Archaeology.
ABSTRACT
A major quantitative movement in all of the Social and Human Sciences known as
Operational Research, started after the last world war with the application of mathematics
developed for the optimization of war logistics. Since the 1960s, the fascinating progress of
computer technology in the �eld of scienti�c research has ampli�ed the movement which saw
the �rst applications to Archaeology around 1966. At the time, the success of a Quantitative
Archaeology was associated with the revolution in multidimensional data analysis, which occurred with computerisation and improvements in the algorithms, mainly Multidimensional
scaling, Factor Analysis, Principal Component Analysis, Correspondence Analysis and various
Cluster Analyses. The Conference of Mamaia (Romania) in 1970, which may be considered
as the �rst and most spectacular scienti�c event of this period of foundation, found expression in the book Mathematics and Computers in Archaeology by Doran and Hodson (1975).
From 1975 to 1985, the quantitative movement experienced its �nest period with the transition from the research �eld to the application �eld, both for algorithms and software, and the
diffusion of Correspondence Analysis, Principal Component Analysis associated with Cluster
Analysis and their use by archaeologists. Numerous papers and books were published during
that period. After 1985, the quantitative movement fell into disfavour, probably due to the
“deconstruction” paradigm and the passing fashion of expert systems. Nevertheless, it is also
possible to state that Quantitative Archaeology had now de�nitively entered into the standard
methods of Archaeology.
73
Archeologia e Calcolatori
20, 2009, 75-84
ARCHAEOLOGICAL COMPUTING THEN AND NOW:
THEORY AND PRACTICE, INTENTIONS AND TENSIONS
1. Introduction
In line with the theme of this Conference, my aim here is to outline the
historical development of archaeological computing although my particular
focus is the relationship of this development with the role of theory in archaeology. To understand this relationship it is important to consider how
understandings of theory in archaeology have changed, particularly since the
1960s. These changes in thinking have been fundamental to much of archaeological practice and have changing implications for how we do archaeology,
how we think about life in the past and how we collect, structure and interpret
data and draw conclusions.
Embedded within this evolving matrix is the use of computers. Of
course this is immediately problematic as the word “computers” includes a
wide variety of philosophical understandings, uses and approaches, even so
here I will attempt to consider how using computers interacts with theory.
For example, can we unpick the complexities in both the development of
computing and theory to identify similarities and in�uences, can we identify
how, or if, computers restrict and/or enable certain understandings of theory
and its application, what are the intentions behind any particular computerbased analysis?
Since the early 1990s one area of computer usage in archaeology, the
use of Geographic Information Systems (GIS), has grown exponentially re�ecting the importance of working with spatial data and spatial analyses of
various kinds. Although this post-dates much of the theoretical debate taking
place during the decades from the 1960s to 1980s, the use of GIS rekindled
aspects of those debates albeit within a spatial context and will be used here
to illustrate some of the tensions that still exist between archaeological computing and theory.
Inherent within this discussion are sub-texts that will become clearer
as I move through the paper. First of all the tension between quantitative
and qualitative – using quantitative and qualitative data but perhaps more
importantly attempting qualitative understandings and interpretations of the
past. Computers are good with quantitative data and at one level all data
are quantitative but much archaeological interest is in the qualitative aspects
of life, material culture and landscapes. This tension can be seen as a part of
the post-modern “crisis of representation” and I will attempt to demonstrate
it through the use of GIS in archaeology: is it possible to represent within
75
G. Lock
computer programs the more subjective and qualitative understandings of
what it means to be human?
Fundamental to much of what we do as archaeologists is scale, implicit
in all archaeological work although rarely explicitly discussed or theorised,
this is the second important sub-theme. We routinely move from pot sherds
to questions of social and economic relationships, but to what extent is such
multi-scalarity enabled or hindered by computer technology? Again, I will
try to address this through GIS and the relationship with different theoretical approaches.
2. Historical development
In the spirit of the Conference from which it derives, this contribution
is intended to be an overview, and as such inevitably parts of the discussion
have already been assigned to print elsewhere and in more detail, not least
in Lock (2003). Even so, I am attempting to raise issues and move archaeological computing beyond its everyday practical applications which are not
contexts isolated from theoretical issues but an integrated part of a holistic
whole – theory and practice cannot and should not be separated (although,
of course, explicit theory can be ignored, and often is). Indeed, it is frequently
the tensions that are raised which are as important for the development of the
discipline as addressing the original intentions of the analyses themselves.
The traditional sequence in the development of archaeological theory
is from Culture History to Processualism in the early 1960s, to Post-Processualism in the late 1970s/early 1980s, the latter two being a reaction to what
went before (Trigger 1989). Fundamental to these changing views are the
differences in the relationship between data and theory and interpretation
(Hodder, Hutson 2003). Of course implicit within this are implications for
methodology, for, if we have data on the one hand and interpretation on the
other, then it is methodology which provides the framework for getting from
one to the other. Not surprisingly then, methodology has changed considerably through these three approaches.
Culture History was deeply empirical with people like Gordon Childe
spending large amounts of time collecting data about artifacts and sites.
Through inductive reasoning it was felt that interpretation would emerge
from all of this data, and, with enough data and enough thinking, patterns of
explanation would become clear (Childe 1925). This employed a one-way
relationship, from data to theory/interpretation.
Unhappy with the intrinsic subjectivity of Culture History, people like
Lewis Binford in the 1960s argued for a more scienti�c “New Archaeology”
largely based on inductive reasoning and the process of hypothesis testing
(Binford 1964), subsequently to be called Processualism. This methodology
76
Archaeological computing then and now: theory and practice, intentions and tensions
of setting up a hypothesis, accepting or rejecting it and then moving on to
formulate another creates a two way relationship between data and theory.
As we will see later, central to this approach was the use of quanti�cation,
statistics and inevitably computers.
By the late 1970s/early 1980s there was an increasingly strong reaction to quanti�cation by people who were more interested in the qualitative
aspects of life in the past and the social and cultural context of archaeology
in the present. Post-Processualism is a generic term for a whole range of approaches, sometimes called “interpretative archaeologies” (Thomas 2000),
but in essence their relationship between data, interpretation and the individual in the present is much more �uid and non-deterministic. The so-called
hermeneutic spiral creates a web of analytical relationships without a �xed
or �nal result but rather an historical narrative which is explicitly situated
within the cultural web of the author.
Obviously the changes from Processualism to Post-Processualism had
implications for the use of computers and the relationship between computers and theory. I suggest that this move can be characterized as one towards
contextuality and speci�cally towards data-rich contextuality (Lock 1995).
The 1960s saw an emphasis on the “scienti�c approach”, on positivism, i.e.
moving towards “an answer”, and overall a reductionist archaeology. Through
the 1980s we see a softening of positivism and an acceptance that there can
be equally valid multiple interpretations of the same evidence, that archaeology is a humanist discipline rather than a science and as such requires rich
contextualized data environments capable of producing a two-way narrative
between data and author.
This changing relationship is not a simple one and was partly driven
by theoretical developments but was also mirrored by changes in technology, in many respects creating a re�exive environment suitable for theory to
�ourish. While early technologies such as mainframe computers and multivariate statistics were data minimal and reductionist they did match some of
the main theoretical concerns of the time which were also data minimal in
requirements. Classi�cation and typology, popular in the 1960s and systems
modelling in the 1970s, for example, only needed alpha-numeric input in the
form of values for a series of variables (Doran, Hodson 1975). With the
advent and rapid development of micro-computing and associated software
through the 1980s, a data rich and data enriching environment became the
norm. Exploratory, non-linear approaches were encouraged through the
integration of a range of data types including text, images, spatial data and
video enabling a non-con�rmatory dialogue with the data.
A �nal point to be made within this historical overview is the importance of
models, a term which has many de�nitions but here is taken at a general level to
mean some form of simpli�cation of a complex reality to enable understanding.
77
G. Lock
The importance of models has been recognized for a long time in archaeology
by both Processualists and Post-Processualists. Clarke (1972) developed a classi�cation of models into heuristic, visualizing, comparative and organizational
devices arguing that they were not “true” but part of the hypothesis generation
and testing procedure which resulted in interpretation. Subsequently, Shanks
and Tilley (1987) have acknowledge the central role that models play in the
process of understanding describing them as heuristic �ctions.
Of course the use of models and modelling was a fundamental part of
archaeological reasoning before the use of computers. Interaction between
the data model (variables recorded and the structure of data) and the theoretical model (methodologies to be employed) providing the link between an
unknowable past and statements made about the past in the present. What is
crucial about using a computer is the introduction of a third link in this chain,
the digital model. It is within this that both the data and theoretical models
have to be represented; if they cannot, then obviously a computer cannot be
used. It is the complex web of interpretative links that are created between
these three models that enable data richness to be developed and enabled
within today’s technology, just as they were responsible for restricting them
in the 1960s and 1970s.
3. The importance of scale: from landscape to the individual
Scale is fundamental to much of this argument and while we all deal
with scale in almost everything we do as archaeologists it is usually implicit
rather than explicitly presented and discussed. Part of the problem with scale
is that it can mean different things – being a concept, an analytical framework
and a lived experience (Lock, Molyneaux 2006).
The arguments in this paper focus on one important difference, that
between analytical scale and phenomenological scale. Take, for example, the
ditch of an Iron Age hillfort; this could be represented by an analytical scale
of 1:20 in the drawing of its section showing the shape of its cut and the
stratigraphy of its �ll. As archaeologists we all understand this convention
and how to interpret the representation in terms of its construction, dating, �ll
history and abandonment. Phenomenological or lived scale, however, is something completely different, as argued through Ingold’s idea of the “dwelling
perspective” (Ingold 1993, 2000). These were monumental structures built
to impress with the distance from the bottom of the ditch to the top of the
rampart often being several times the height of a person – how would this size
affect people who engaged with it either through its construction or through
other encounters such as �rst seeing it? The sociality involved in building
such a structure and the physicality of moving around it are the qualitative
understandings based on the lived experience of scale (Lock 2007).
78
Archaeological computing then and now: theory and practice, intentions and tensions
Scale also plays a central role in the changing methodologies and modelling of quantitative and qualitative approaches. Through the 1960s and
1970s there was a strong focus on the high-level economic modelling based
on methodologies such as Central Place Theory (CPT) and Site Catchment
Analysis (SCA). CPT, and its associated Thiessen Polygons, established site
“territories”, site hierarchies and whole networks of social relationships based
on economic interaction (Grant 1986). The economic potential of a site was
claimed through its catchment and SCA similarly building into networks of
social relationships (Ellison, Harriss 1972). The ultimate of these high-level
analyses at the scale of social “systems” was Systems Theory itself, where the
different elements of a “society” were often worked out through a computer
simulation of interacting subsystems and feedback loops (Doran 1970).
It is normal for the early adopters of a new technology to initially use it
to carry on doing the things that they are used to doing, and so it happened
to a large extent with GIS in archaeology. Economic in�uences were modeled through buffering, for example salt and �int resources around Beaker
sites in Spain (Baena et al. 1995), and Thiessen Polygons around hillforts
(Lock, Harris 1996). As this took place more than ten years after the �rst
Post-Processualist writings, it is not surprising that GIS and its applications
were criticized as being theoretically poor and substantially environmentally
deterministic (Wheatley 1993; Gaffney, van Leusen 1995). The issues raised
centred on the people: where are the individuals in these sorts of analysis?
Even if prehistoric people could think spatially in terms of maps viewed from
above, where everything is visible from a position of nowhere as in these
analyses, they still spent most of their time experiencing their physical world
from an individual embodied perspective.
One emphasis of Post-Processualism is on this very human scale that
is missing from the above, the phenomenology of landscape (Tilley 1994),
experiencing the world through the human body and senses, often described
as humanizing the landscape. In the early 1990s GIS-using archaeologists
were quick to realize that the technology offered some potential for these
approaches, �rstly through visibility studies, either line-of-site, binary viewsheds or the more sophisticated and subtle cumulative viewsheds, visibility
indices and banded or Higuchi viewsheds (Wheatley, Gillings 2000). Similarly movement is very much at the human scale, through least cost paths,
least cost surfaces and accessibility indices (Llobera 2000). Both visibility
and movement techniques locate the analyst within the landscape thus immediately changing the scale from landscape to the individual while at the
same time attempting qualitative understandings rather than quantitative
analyses. Since the earliest applications, visibility and movement studies have
become commonplace, in fact almost routine, within many GIS applications.
A force within this “routinisation”, and perhaps a major force, is an element
79
G. Lock
of technological determinism – both visibility analysis and movement studies are an integral part of many commercial GIS software packages, almost
push-button solutions. But such ease of use can become a part of the problem
rather than the solution, it can emphasise the existing tensions despite the
good intentions of the analysis, and it can accentuate the gulf between the
practice and theory of computer applications (Lock 2001). Ways of closing
this gap and reducing these tensions are explored below through examples
of GIS applications.
My �rst example is based on the work of the Hillforts of the Ridgeway
Project where we excavated three of the many Iron Age hillforts associated
with the prehistoric trackway known as the Ridgeway (Gosden, Lock 2007).
The Ridgeway runs east-west along the top of the scarp slope at the northern
edge of the chalk downlands of central England. The Uf�ngton White Horse,
the only prehistoric chalk cut �gure in England is associated with one of the
hillforts, Uf�ngton Castle.
One tension within viewshed analyses is that they are static whereas
vision is often associated with movement thus producing visibility patterns
that can change in both subtle and dramatic ways over short distances. This
combination of visibility and movement we explored through attempting to
assess the location of the hillforts, initially by generating a simulated Ridgeway
through an east-west biased least cost path which matched very well with the
modern Ridgeway (Bell, Lock 2000). At various locations along the modern
Ridgeway, although not directly on it, are hillforts and it was remarkable that
for each of these the simulated Ridgeway deviated from the modern path to
go through the hillfort. This is particularly interesting because, when �rst
constructed in the 7th/6th centuries BC, these sites had opposing east-west
aligned entrances suggesting that the Ridgeway is older than the hillforts
and they were located on the trackway to incorporate it running through the
middle of each hillfort.
By generating a series of near view viewsheds, one every 250 metres
restricted to a maximum of 2 kilometres visibility range, along the Ridgeway
and then accumulating them to produce a visibility index we attempted to
simulate “walking along the Ridgeway”. Our interest here was to see whether
the hillforts were located to be visible to people walking along the track,
the logic predicted that if they were, their position would correlate with the
high visibility areas of the index. There is no such correlation, so local, short
range, visibility does not seem to have been important within the choices that
determined the positioning of the hillforts.
Visibility, of course, is more complex than as suggested by a simple
binary viewshed, not least because it works differently at different scales
and is often, though not always, reciprocal (Wheatley, Gillings 2000).
Shifting scale to explore the long range visibility to and from the hillforts,
80
Archaeological computing then and now: theory and practice, intentions and tensions
the results are interestingly different with Uf�ngton Castle having the largest
panoramic view, and being very visible within its landscape, whereas others
are not and have much more restricted views. As mentioned, the Uf�ngton
White Horse is next to the hillfort, perhaps a tribal icon meant to be seen
and, as suggested by excavation, was a central religious place perhaps serving
a wide area (Miles et al. 2003).
While visibility and movement move the application of computers and
GIS beyond the high-level socio-economic modelling typi�ed by CPT and
SCA, they still fall short in representing recent theoretical developments.
These are initial moves towards a human scale and the representation of
qualitative understandings although, of course, there is much more to being
human than just seeing and moving. Another focus of Post-Processual interest is the archaeology of practice and the idea that it is through doing things
and engaging with the material world that we construct understandings of it.
This is interesting here because it chimes with the often claimed multi-scalar
potential of GIS. For example, practice can be identi�ed at the individual
level, perhaps breaking a pot and discarding the sherds in a pit, at the group
level if it happens often in a similar way across a site, and at a regional level
if it happens at many sites. The connections between recognising practices
and GIS functionality have been explored using one of the hillforts on the
Ridgeway as an example (Daly, Lock 2004). At Segsbury Camp, within a
single excavation trench containing a roundhouse and pits, a single pit is
linked to the �ll layers within it and pottery and other artifact counts within
those individual layers. The idea here is to try and identify repeated practice,
in this case the deposition of various sorts of artifacts in pits. If this is repeated in pits across Segsbury, and in pits within other hillforts, these scales
of behaviour could constitute group practices, in this case ritual behaviour
in the form of votive offerings.
As mentioned above, attempts to go beyond visibility and movement in
any sort of theorised way are rare and my second example of how this may be
approached is the work of Vuk Trifković and his case-study of the Mesolithic
and Neolithic sites in the Iron Gates Gorge on the River Danube in Serbia
(Trifković 2005, 2006). Here the focus is very much on humanizing the
landscape: how can GIS be used to link people, landscapes and archaeological
theory, how can GIS become central within constructing the narratives of past
life that are expected within archaeological interpretations today?
One important aspect of this work is the use of banded, or Higuchi,
viewsheds which give a much more subtle understanding of visibility than a
basic binary viewshed where something is either in view or not. Landscape
features have different visibility characteristics at long, mid and short ranges
of viewing. Using Ingold’s ideas of taskscape (Ingold 1993, 2000), that is
landscapes becoming meaningful through activities, daily routine and practice,
81
G. Lock
it is possible to link people’s activities with different qualities of visibility.
Resources such as lithics, wild boars and deer can be mapped through their
distributions and territories and then peoples’ movements to reach those
resources can be modelled. Integral to this modelling are changing visual
characteristics, so, for example, the areas where boars could be hunted as
seen from near and far distances.
Another important aspect of this work in terms of assimilating theory
into practice, is linking the scales of the individual, the household and the
landscape through the GIS-based integration of excavated data and landscape
reconstruction. For example, at the site of Vlasac the details of individual burials and the plans of houses were used to connect people with their surrounding
landscape, both in terms of resources and the tasks involved in exploiting those
and in terms of prominent visual characteristics. The orientations of some
houses and graves were found to align on very visually dominant cliffs at mid
and far distances established through banded viewsheds. Similarly, the “view”
from certain graves was interesting in being focussed on the river, perhaps
continuing connections established in life through �shing and the importance
of the river. Aspects of an individual’s biography can be constructed through
skeletal evidence, grave goods and domestic architecture, connected through
the multi-scalar functionality of GIS with the landscape around to try and
model a richer understanding of past life and death.
4. Conclusion
My conclusion is really one of reiterating various points made above.
Firstly I would like to emphasize that theory, whether explicit or implicit,
is central to archaeological computing. It is through the construction of a
thoughtful relationship between theory and the technology that the boundaries
of that technology are pushed and extended. The intentions of an analysis
should not be determined by what the technology will do but by the archaeological questions being asked and the form of the resulting narrative being
sought. This will inevitably produce tensions as the match between GIS and
other computer technologies with much recent archaeological theory is not
an easy one. These tensions should be made explicit, however, they should
be discussed and published, for it is addressing the tensions which will move
GIS applications beyond the routine push-button analyses that will dominate
if not. Within this general argument I have tried to show that the two subthemes of scale, and incorporating qualitative understandings, are not only
central but are beginning to be approached.
Gary Lock
University of Oxford
82
Archaeological computing then and now: theory and practice, intentions and tensions
REFERENCES
Baena J., Blasco C., Recuero V. 1995, The spatial analysis of Bell Beaker sites in the Madrid
region of Spain, in Lock, Stančič 1995, 101-116.
Bell T., Lock G. 2000, Topographic and cultural in�uences on walking the Ridgeway in later
prehistoric times, in Lock 2000, 85-100.
Binford L. 1964, A consideration of archaeological research design, «American Antiquity»,
29, 425-41.
Childe V.G. 1925, The Dawn of European Civilization, London, Kegan Paul.
Clarke D.L. (ed.) 1972, Models in Archaeology, London, Methuen.
Daly P., Lock G. 2004, Time, space and archaeological landscapes: establishing connections in
the First Millennium BC, in M.F. Goodchild, D.G. Janelle (eds.), Spatially Integrated
Social Science, Oxford, Oxford University Press, 349-365.
Doran J.E. 1970, Systems theory, computer simulations and archaeology, «World Archaeology», 1, 289-298.
Doran J.E., Hodson F.R. 1975, Mathematics and Computers in Archaeology, Edinburgh,
Edinburgh University Press.
Ellison A., Harriss J. 1972, Settlement and land use in the prehistory and early history of
southern England: a study based on locational models, in Clarke 1972, 911-962.
Gaffney V., van Leusen P.M. 1995, GIS, environmental determinism and archaeology, in
Lock, Stančič 1995, 367-382.
Gosden C., Lock G. 2007, The aesthetics of landscape on the Berkshire Downs, in C. Haselgrove, R. Pope (eds.), The Earlier Iron Age in Britain and the Near Continent, Oxford,
Oxbow Books, 279-292.
Grant E. (ed.) 1986, Central Places, Archaeology and History, Shef�eld, Department of Archaeology and Prehistory, University of Shef�eld.
Hodder I., Hutson S. 2003, Reading the Past. Current Approaches to Interpretation in
Archaeology, Cambridge, Cambridge University Press (3rd edition).
Ingold T. 1993, The temporality of landscape, «World Archaeology», 25, 152-171.
Ingold T. 2000, The Perception of the Environment: Essays on Livelihood, Dwelling and
Skill, London, Routledge.
Llobera M. 2000, Understanding movement: a pilot model towards the sociology of movement, in Lock 2000, 65-84.
Lock G. 1995, Archaeological computing, archaeological theory and moves towards contextualism, in J. Huggett, N. Ryan (eds.), Computer Applications and Quantitative Methods
in Archaeology 1994, BAR International Series 600, Oxford, 13-18.
Lock G. (ed.) 2000, Beyond the Map: Archaeology and Spatial Technologies, Amsterdam,
IOS Press.
Lock G. 2001, Theorising the practice or practicing the theory: archaeology and GIS, «Archaeologia Polona», 39, 153-164.
Lock G. 2003, Using Computers in Archaeology. Towards Virtual Pasts, London,
Routledge.
Lock G. 2007, Wessex hillforts after Danebury: exploring boundaries, in C. Gosden, H.
Hamerow, P. De Jersey, G. Lock (eds.), Communities and Connections. Essays in
Honour of Barry Cunliffe, Oxford, Oxford University Press, 341-356.
Lock G., Harris T.M. 1996, Danebury revisited: an English Iron age hillfort in a digital
landscape, in M. Aldenderfer, H.D.G. Maschner (eds.), Anthropology, Space and
Geographic Information Systems, New York, Oxford University Press, 214-240.
Lock G., Molyneaux B. (eds.) 2006, Confronting Scale in Archaeology: Issues of Theory and
Practice, New York, Springer.
83
G. Lock
Lock G., Stančič Z. (eds.) 1995, Archaeology and Geographic Information Systems: A European Perspective, London, Taylor & Francis.
Miles D., Palmer S., Lock G., Gosden C., Cromarty A.M. 2003, Uf�ngton White Horse Hill
and its landscape: Investigations at White Horse Hill, Uf�ngton, 1989-95 and Tower
Hill, Ashbury, 1993-4, Oxfordshire, Oxford Archaeology, Thames Valley Landscapes
Monograph 18, Oxford.
Shanks M., Tilley C. 1987, Re-Constructing Archaeology. Theory and Practice, Cambridge,
Cambridge University Press.
Thomas J. (ed.) 2000, Interpretive Archaeology. A Reader, London, Leicester University
Press.
Tilley C. 1994, A Phenomenology of Landscape. Places, Paths and Monuments, Oxford,
Berg.
Trifković V. 2005, The Construction of Space in Early Holocene Iron Gates, Oxford, Unpublished DPhil Thesis, University of Oxford.
Trifković V. 2006, Persons and landscapes: shifting scales of landscape archaeology, in Lock,
Molyneaux 2006, 257-271.
Trigger B. 1989, A History of Archaeological Thought, Cambridge, Cambridge University
Press.
Wheatley D.W. 1993, Going over old ground: GIS, archaeological theory and the act of
perception, in J. Andresen, T. Madsen, I. Scollar (eds.), Computing the Past. Computer Applications and Quantitative Methods in Archaeology 1992, Aarhus, Aarhus
University Press, 133-138.
Wheatley D.W., Gillings M. 2000, Vision, perception and GIS: developing enriched approaches to the study of archaeological visibility, in Lock 2000, 1-27.
ABSTRACT
This paper is a brief and personal historical overview of the development of archaeological computing and its relationship with changing archaeological theory. I outline the changes
in theoretical approaches through the 1960s to 1980s and how these relate to archaeological
data, methodologies, the use of models and interpretation. Two sub-themes within the paper
are the importance of scale and the representation of qualitative, as well as quantitative, data
and interpretations. Through the use of Geographic Information Systems (GIS) applications
in archaeology, I discuss various aspects of recent theoretical approaches and how they have
been represented through archaeological computing. Because this is not an easy relationship,
I suggest that the intentions of an analysis will inevitably produce tensions between practice
and theory. It is by confronting these tensions that the discipline of archaeological computing
will move forward beyond technologically determined push-button solutions.
84
Archeologia e Calcolatori
20, 2009, 85-94
STRUMENTI “TRADIZIONALI” E NUOVE TECNOLOGIE PER LA
COMUNICAZIONE IN ARCHEOLOGIA
1. Introduzione
Il tema al centro di questo Convegno è un’occasione preziosa per ri�ettere sulla storia di una disciplina che, pur essendo relativamente recente, ha
contribuito in modo fondamentale agli sviluppi dell’archeologia moderna, a
partire dalle profonde interazioni con il dibattito sviluppatosi nel corso della
“rivoluzione processuale” per arrivare agli esiti più recenti, segnati dal complesso rapporto con le tecnologie della realtà virtuale e della comunicazione.
In questo intervento desidero fare riferimento in particolare all’interazione
tra tradizione e innovazione nella comunicazione dei risultati della ricerca
archeologica, ripercorrendo le esperienze svolte nell’ambito del Laboratorio
di Informatica per l’Archeologia (LIA) dell’Università del Salento1.
Può essere utile partire dalla presentazione dei risultati di un progetto
recente, il progetto LandLab, che ci ha permesso di sviluppare varie esperienze
nell’ambito delle tecnologie informatiche per la comunicazione, ma anche di
ri�ettere sulle varie accezioni che la comunicazione, questo termine così di
moda oggi, può assumere in archeologia2. Il nome del progetto fa riferimento,
sintetizzandoli, ai concetti chiave su cui si è basato il lavoro dell’ampio gruppo
di lavoro coinvolto: Laboratorio per la ricerca, formazione e comunicazione
dei paesaggi archeologici.
Un ruolo importante è stato assegnato agli strumenti per comunicare,
a vari livelli di approfondimento e con diverse modalità, i contenuti della
ricerca. In particolare, le due applicazioni webGIS realizzate nell’ambito del
LandLab rappresentano un esempio di come gli strumenti di studio e ricerca
tradizionali per l’archeologia, vale a dire la raccolta di dati e catalogazione,
si siano evoluti verso modalità di diffusione dei risultati che sfruttano la rete
Internet come canale di divulgazione.
http://lia.unile.it/.
Progetto co�nanziato da Ministero Istruzione Università e Ricerca, Dipartimento
per la Programmazione, il Coordinamento e gli Affari Economici, Servizio per lo Sviluppo ed
il Potenziamento dell’Attività di Ricerca, Uf�cio IV, nell’ambito del Programma Operativo
Nazionale 2000-2006, “Ricerca Scienti�ca, Sviluppo Tecnologico, Alta Formazione”, Misura
II, “Società dell’Informazione per il Sistema Scienti�co Meridionale”, Azione b. Soggetto
attuatore: Università degli Studi di Lecce (Dipartimento di Beni Culturali, Dipartimento di
Ingegneria dell’Innovazione, Coordinamento SIBA), in collaborazione con CNR/IBAM e Museo Archeologico Regionale “Antonino Salinas” di Palermo, sotto la direzione scienti�ca del
prof. Francesco D’Andria. Sito web: http://landlab.unile.it/. Cfr. presentazione in D’Andria,
Semeraro 2006.
1
2
85
G. Semeraro
2. Gestione dei dati di scavo
Il progetto LandLab ci ha permesso di affrontare in modo nuovo l’antico problema della gestione dei dati di scavo. Si tratta di un tema legato alla
nascita dell’informatica archeologica, poiché le banche dati per la gestione
dei dati di scavo si collocano fra le prime applicazioni, avviate già negli anni
Settanta (Djindjian 1984; Moscati 1987).
Nell’Università di Lecce (ora del Salento) tale tema è stato affrontato agli
inizi degli anni Ottanta attraverso l’implementazione di un progetto (BDAr),
sviluppato grazie alle risorse hardware e software allora disponibili presso il
Centro di Calcolo dell’Università di Lecce (CECUS): un Database Management System gerarchico (il DL1) e una piattaforma hardware costituita da
un mainframe IBM 4331 (Semeraro, Mangia 1987).
La fase in cui BDAr viene realizzato coincide, in Italia, con un periodo
che vede più in generale una grande attenzione verso i problemi dell’analisi
descrittiva dello scavo e della prospezione, come ri�esso della più matura
sensibilità verso le problematiche metodologiche legate all’approfondimento stratigra�co (Parise Badoni, Ruggeri Giove 1984). Come dominare e
af�nare la tecnica dello scavo, come documentare sono in quel periodo temi
forti, molto presenti all’attenzione degli studiosi, come chiaramente documentato da una serie di iniziative editoriali che arricchiscono il quadro della
manualistica disponibile in lingua italiana relativa alle tecniche di scavo.
Faccio riferimento a questo clima, per richiamare lo stretto legame che univa
in quelle fasi la metodologia della ricerca archeologica e la nascente disciplina
dell’informatica archeologica.
BDAr, uno dei primi sistemi elaborati in Italia, è il risultato di un’attenzione molto spinta verso un tipo di strutturazione dei dati fortemente
orientato verso l’archeologia quantitativa. Al pari dei progetti nati in quel
periodo, esso si confronta, inoltre, con il grande, e ancora irrisolto, problema
della “comunicazione interna” alla comunità degli archeologi, quello del linguaggio da utilizzare nel trasferimento dell’informazione, a cominciare dalla
terminologia tecnica, dai lessici.
Molta parte del lavoro svolto negli anni successivi si è concentrato sui
temi della strutturazione dei dati, del linguaggio descrittivo, con l’obiettivo
di af�nare sempre più, grazie alle tecnologie informatiche, gli strumenti della
catalogazione. Il Progetto Strategico CNR 251100, attivato a Lecce nel 1991
(presentazione dei risultati in D’Andria 1997), e i successivi progetti CNR
(Progetto Finalizzato Beni Culturali, Progetto Mezzogiorno) hanno rappresentato strumenti fondamentali per lo sviluppo di tali metodologie.
La comunicazione, intesa anche come condivisione dei dati, passa attraverso la costruzione di un lessico comune. Su questo aspetto si è lavorato intensamente negli anni Novanta, curando in particolare i lessici dei materiali più
86
Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia
frequentemente rinvenuti negli scavi, come la ceramica (Caggia, Melissano
1997; Semeraro 1997). È importante accennare qui, anche se non è possibile
sviluppare più ampiamente la discussione, al rapporto molto stretto esistente
fra la stesura dei lessici e gli sviluppi metodologici che hanno coinvolto l’archeologia, sempre più orientati verso il metodo contestuale (Semeraro 2004).
Non più solo codici atti a garantire una buona trasmissione delle informazioni
(funzione preminente della codi�ca informatizzata), i lessici del sistema che si
andava implementando erano, soprattutto, strumenti di supporto all’analisi
dei contesti, in un’ottica attenta alla funzione, pratica e simbolica, che gli
“oggetti”, come la ceramica, rivestono nei contesti archeologici.
L’integrazione con i sistemi di cartogra�a numerica prima e con il GIS poi
(dal 1995) ha permesso in�ne di mettere a punto uno strumento completo e
complesso, per la documentazione, l’analisi e l’interpretazione dello scavo.
L’ultima tappa su cui desidero soffermarmi – quella realizzata grazie al
progetto LandLab – ha permesso di implementare la versione on-line WODOS3,
che simula, limitatamente alla visualizzazione, tutte le funzioni dei GIS di scavo,
permettendo di consultare in modo contestuale rilievi gra�ci e documentazione
descrittiva (D’Andria, Semeraro 2006; Semeraro 2007, 2008).
Lasciando da parte gli aspetti tecnici e la descrizione dell’architettura
del sistema, è opportuno, invece, sottolineare l’utilità dell’applicazione web
ai �ni della comunicazione “interna” alla comunità degli archeologi.
Mi riferisco non solo alla possibilità di condividere i dati della ricerca
all’interno di gruppi di ricerca vasti, articolati e dislocati in aree geogra�che
diverse. Molto attraente appare, infatti, la possibilità di utilizzare lo strumento della comunicazione on-line, accanto alla pubblicazione tradizionale,
per rendere pubblici i dati analitici dello scavo, quali le liste dei materiali, le
quanti�cazioni, gli elenchi di US, le descrizioni: tutti i dati di base che pur
essendo fondamentali per la ricostruzione delle sequenze stratigra�che possono
essere omessi in una pubblicazione, dati anche i costi rilevanti che l’editoria
specialistica presuppone.
La rete è oggi forse il supporto più “durevole”: probabilmente è quello
che può fornire maggiori garanzie di conservazione dei dati a fronte di supporti
digitali (materiali) come CD e DVD, che possono nel tempo subire danni materiali, con relativa perdita dei dati registrati. In questo senso risponde all’esigenza
– sempre più diffusa oggi in Europa e avvertita negli ultimi anni anche in Italia
– di utilizzare il web come “repository” per i dati digitali inerenti il territorio.
La versione on-line ha consentito inoltre di ripensare le modalità di
accesso ai dati, fornendo nuove e più agili funzioni di ricerca dei contenuti.
Anche in questo va indicato un notevole avanzamento rispetto al database e
alle sue rigidità (cfr. osservazioni in Semeraro 2008).
3
http://gis.lia.unile.it/wodos/.
87
G. Semeraro
3. GIS e dinamiche insediative
Ad esigenze di comunicazione verso la comunità scienti�ca risponde
anche l’altro applicativo web realizzato grazie al LandLab, il webGIS degli
insediamenti4. Anche questa applicazione si con�gura come la “reingegnerizzazione” di una più tradizionale banca dati collegata ad un GIS e �nalizzata al
censimento dei dati relativi agli insediamenti preromani in Italia meridionale
(D’Andria 1999).
L’applicazione informatizzata (Semeraro 2002) si collegava ad una
delle linee di ricerca più signi�cative del settore archeologico dell’Università
del Salento (prima Università di Lecce), rivolta all’analisi delle dinamiche
insediative nei territori dell’Italia meridionale. Studiare gli insediamenti
appariva la strategia d’indagine che più ef�cacemente poteva reagire alla
stagnazione della ricerca sul mondo indigeno, troppo spesso risolta nello
studio dei fenomeni funerari.
Spostare l’attenzione sugli insediamenti ha comportato una serie di
scelte inerenti le modalità di organizzazione dei dati. Allo scopo di acquisire
elementi di valutazione circa il ruolo delle singole realtà insediative all’interno
del complesso sistema inerente l’Italia meridionale, si è affrontato un lavoro
�nalizzato a valutare le estensioni – reali o stimate – di ogni sito archeologico, attraverso una lunga e non sempre agevole opera di collazione di tutti
i dati noti, provenienti da varie fonti di documentazione (scavi, ricognizioni
di super�cie, segnalazioni occasionali, etc.). Su questa base è stato possibile
elaborare una serie di carte tematiche tese a descrivere la varietà dei rapporti
dimensionali all’interno delle diverse aree geogra�che e in relazione ai vari
periodi cronologici, come base per valutare la presenza e l’articolazione di
fenomeni di “gerarchizzazione” delle realtà insediative. Nell’impianto generale
del lavoro si è inoltre dato spazio all’inquadramento geogra�co-territoriale,
attraverso il collegamento ad una banca dati cartogra�ca, completa dei dati
relativi alla geomorfologia del territorio.
Questo strumento ha consentito di formulare una serie di osservazioni
su larga scala (D’Andria 1999, 2002; D’Andria, Semeraro 2003), ma
soprattutto si è rivelato un utile serbatoio di dati sull’Italia meridionale nelle
fasi preromane.
Il passaggio alla versione web è stato possibile grazie alle risorse messe a
disposizione dal progetto LandLab5. L’impianto concettuale ha subito alcune
modi�che, funzionali ad arricchire i contenuti della banca dati e ad ottenere
una maggiore �essibilità delle operazioni di ricerca. Mentre il progetto iniziale era limitato alla schedatura degli insediamenti complessi, nella versione
4
5
88
http://landlab.unile.it/html/preromano.html.
http://gis.lia.unile.it/insediamenti/.
Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia
on-line si è esteso il censimento a tutte le “evidenze” archeologiche (compresi
i rinvenimenti isolati di strutture e aree di frammenti) note da bibliogra�a.
L’obiettivo, perseguito all’interno di una revisione generale delle strutture
di catalogazione e di formalizzazione dei dati, è quello di svincolare il più
possibile il modello dei dati dalla tipologia speci�ca dei contenuti, in modo
da renderlo adattabile anche ad altri contesti storico-culturali. Si è inoltre
sviluppato un modello di archiviazione e consultazione dei dati contenuti
nelle fonti letterarie e dei dati epigra�ci6.
Per quanto riguarda l’analisi dei dati territoriali, si è arricchita notevolmente la base di dati cartogra�ci attraverso la rielaborazione degli strumenti
disponibili per l’analisi dei dati geologici e geomorfologici. Tali scelte hanno
comportato un aumento quantitativo dei dati da gestire; di conseguenza si
è ride�nita l’area geogra�ca di applicazione, con la decisione di concentrare
sull’analisi dei dati relativi alle tre province di Lecce, Brindisi e Taranto, la
nuova versione della banca dati.
Il sistema on-line è diventato un utile strumento di consultazione di
una messe notevole di dati, dotato di modalità di accesso e di ricerca che
permettono di sfruttare pienamente i contenuti. Oltre che per il pubblico
degli specialisti, l’applicativo rappresenta una risorsa importante anche per
gli enti locali, per gli amministratori, le istituzioni addette alla piani�cazione
territoriale e alla valorizzazione dei beni culturali.
4. Comunicazione multimediale
Vorrei concludere facendo in�ne riferimento alla comunicazione verso il
pubblico dei non addetti ai lavori7, la sempre più ampia comunità di persone
attente ai fenomeni culturali, verso la quale è necessario rivolgere maggiore
attenzione nello sforzo di raccontare l’archeologia attraverso linguaggi e
modalità di comunicazione idonee.
Tecnologie avanzate sono state sperimentate negli applicativi �nalizzati
alla didattica museale attraverso la progettazione di totem interattivi8, caratterizzati dalla presenza di uno schermo per la proiezione e di una “tastiera”
dove scorre l’apparato didattico di approfondimento (schede e immagini)
(Figg. 1-2). I �lmati vertono sulla ricostruzione dei paesaggi archeologici, a
partire dalla ricerca sul terreno (Il mestiere dell’archeologo), �no alle ricostruzioni tridimensionali animate (Fig. 3)9. Per la fruizione di questa tipologia di
6
Questa parte del progetto è stata curata dal gruppo di ricerca guidato dal prof. Mario
Lombardo (Università del Salento).
7
http://landlab.unile.it/html/comunicazione_multimediale.html.
8
http://landlab.unile.it/html/didattica_museale.html: sezione a cura di D. Borra, No
Real, Torino.
9
Cfr. trailer sulla home page del sito LandLab (http://landlab.unile.it/).
89
G. Semeraro
�lmati è stato realizzato un tipo di “totem” autostereoscopico che permette
di percepire una visione tridimensionale senza far ricorso agli occhiali stereoscopici (Fig. 1a).
I paesaggi archeologici ricostruiti sono stati identi�cati fra quelli oggetto
di studio da parte del gruppo di ricerca interdisciplinare. Alcune applicazioni hanno riguardato una serie di contesti particolarmente signi�cativi per
ricostruire le dinamiche insediative e la dimensione cultuale delle società che
occupavano la Puglia meridionale durante le fasi preromane (�lmati 3D su
insediamenti messapici)10.
Il tempio C di Selinunte è stato oggetto di uno studio approfondito,
partito dall’analisi di tutti gli elementi della copertura11 e da un aggiornato
rilievo analitico12 realizzato con le tecniche tradizionali. Le raf�nate ricostruzioni elaborate presso l’Istituto dei Beni Archeologici e Monumentali del CNR
(IBAM), a cura di F. Gabellone, restituiscono ora una visione del monumento
basata per la prima volta su uno studio puntuale dell’architettura di questo
capolavoro13 (Fig. 4). Un applicativo realizzato per uno dei totem interattivi,
il “periscopio”, permette di apprezzare la ricostruzione del tempio all’interno
di un ambiente virtuale in cui lo spettatore si immerge.
Oltre al risultato �nale, va segnalata l’attenzione riservata al problema
“�lologico” del rapporto fra ricostruzione virtuale e dati di partenza. Apparati destinati a rendere edotto il fruitore del “livello di af�dabilità” della
ricostruzione corredano gli applicativi (Fig. 5). Abbiamo voluto con questi
affrontare la s�da della comunicazione verso il pubblico dei non specialisti,
un tema di grande attualità, con il quale bisognerà confrontarsi sempre più
nel futuro. Gli archeologi non possono sottrarsi a questa s�da, demandando
agli esperti della comunicazione, in nome della superiorità della tecnologia,
l’intero processo che porta alla realizzazione di un prodotto multimediale,
perché il rischio è quello, già evidente in alcune realizzazioni diffuse attraverso
la grande distribuzione, di permettere la circolazione di informazioni non
corrette o dai contenuti travisati.
Anche qui si ripropone un tema, e un problema, già affrontato agli albori dell’informatica archeologica, quello della creazione di pro�li scienti�ci
adeguati, di professionalità capaci di funzionare come “interfaccia” tra due
discipline lontane. Nel caso della comunicazione multimediale il problema è
ancora più ampio, anche perché è complicato dagli aspetti commerciali di un
Cfr. trailer Vaste, Cavallino sulla home page del sito LandLab (http://landlab.unile.it/).
Ricerca a cura di C. Marconi e R. Pumo, svolta in collaborazione con il Museo
“Salinas” di Palermo.
12
A cura di C.M. Amici (Università del Salento): http://landlab.unile.it/html/pannelli/001_amici.jpg/.
13
http://landlab.unile.it/html/pannelli/017_gabellone.jpg.
10
11
90
Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia
Fig. 1 – Totem con schermo 100’’ (a) e con video autostereoscopico (b) realizzati per il progetto
LandLab, con schermo dedicato ad approfondimenti informativi.
Fig. 2 – Esempio di scheda di approfondimento (dal �lmato Il mestiere dell’archeologo).
91
G. Semeraro
Fig. 3 – Gli attori “virtuali” del �lmato 3D sull’insediamento ellenistico di Acquarica di Lecce.
Fig. 4 – Ricostruzione tridimensionale del tempio C di Selinunte.
92
Strumenti “tradizionali” e nuove tecnologie per la comunicazione in archeologia
Fig. 5 – Classi�cazione del grado di af�dabilità di una ricostruzione 3D: esempio tratto dal �lmato
relativo al luogo di culto ellenistico di Vaste (Le).
settore che appare piuttosto attraente per il mercato. Sarà pertanto necessario
attrezzarsi investendo nella formazione, anche a livello universitario. Per gli
archeologi si tratterà di trovare ancora una volta una risposta al bisogno di
nuove tecnologie.
Grazia Semeraro
Dipartimento di Beni Culturali
Università del Salento
BIBLIOGRAFIA
Caggia P., Melissano V. 1997, Il sistema per la gestione dei dati di scavo. Normalizzazione
dei dati e vocabolari, in D’Andria 1997, 97-116.
93
G. Semeraro
D’Andria F. (ed.) 1997, Metodologie di catalogazione per i Beni Culturali, «BACT», 1.1,
Lecce Bari, CNR - Università di Lecce.
D’Andria F. 1999, Ricerche recenti sugli insediamenti indigeni in Puglia e Basilicata, in S.
Quilici Gigli (ed.), La forma della città e del territorio. Atti dell’Incontro di Studio
(S. Maria Capua Vetere 1998), Roma, L’Erma di Bretschneider, 103-118.
D’Andria F. 2002, Greek colonization and romanization from a native perspective, in P.
Attema, G.-J. Burgers, E. van Joolen, M. van Leusen, B. Mater (eds.), New Developments in Italian Landscape Archaeology. Proceedings of a three-day Conference
(Groningen 2000), BAR International Series 1091, Oxford, Archaeopress, 52-59.
D’Andria F., Semeraro G. 2003, Applicazioni GIS alla ricerca archeologica. Modelli di
formalizzazione dei dati, in I modelli nella ricerca archeologica. Il ruolo dell’informatica. Atti del Convegno (Roma 2000), Contributi del Centro Linceo Interdisciplinare
Beniamino Segre, 107, Roma, 77-105.
D’Andria F., Semeraro G. 2006, The LandLab Project. Multimedia laboratory for research,
education and communication regarding archaeological landscapes, «Archaeological
Computing Newsletter», 64, June, 19-22.
Djindjian F. 1984, Informatique et archéologie: une introduction, «Rivista di Archeologia»,
8, 131-136.
Moscati P. 1987, Archeologia e Calcolatori, Firenze, Giunti.
Parise Badoni F., Ruggeri Giove M. 1984, Norme per la redazione della scheda di saggio
stratigra�co, Roma, ICCD.
Semeraro G. 1997, Il sistema per la gestione dei dati archeologici. Aspetti metodologici, in
D’Andria 1997, 33-56.
Semeraro G. 2002, GIS and archaeology of the indigenous world in southern Italy, in P.
Attema, G.-J. Burgers, E. van Joolen, M. van Leusen, B. Mater (eds.), New Developments in Italian Landscape Archaeology. Proceedings of a three-day Conference
(Groningen 2000), BAR International Series 1091, Oxford, 107-110.
Semeraro G. 2004, Forma e funzione: osservazioni sul rapporto fra nuovi sviluppi
dell’archeologia e il linguaggio descrittivo, in P. Moscati (ed.), New Frontiers of
Archaeological Research. Languages, Communication, Information Technology, «Archeologia e Calcolatori», 15, 161-183.
Semeraro G. 2007, LANDLAB Project and archaeology on line. Web-based systems for the
study of settlement patterns and excavations data in classical archaeology, «Archeologia
e Calcolatori», 18, 243-254.
Semeraro G. 2008, “Accedere” allo scavo archeologico. Sistemi (e problemi) di elaborazione
dei dati, in G. De Felice, M.G. Sibilano, G. Volpe (eds.), Digitalizzare la pesantezza.
L’informatica e il metodo della stratigra�a (Foggia 2008), Bari, Edipuglia, 39-54.
Semeraro G., Mangia C. 1987, Progetto BDAR: Gestione di dati archeologici ed elaborazioni
statistiche. L’esperienza di Otranto, in F. D’Andria (ed.), Informatica ed Archeologia
Classica. Atti del Convegno internazionale (Lecce 1986), Galatina, 239-261.
ABSTRACT
This paper illustrates the main research projects implemented by the LIA (Laboratory of Archaeological Computing) at the University of Salento (Lecce, Italy) in the �eld of
computer application to archaeology. This activity started in 1983 with the �rst excavation
data management system. Further developments are linked with the use of GIS in the �eld of
settlement studies and, more recently, with the implementation of two web-based applications,
which represent the on-line versions of the older systems. The paper also presents the results
of a research project, LandLab Project, in the �eld of multimedia communication.
94
Archeologia e Calcolatori
20, 2009, 95-109
THE BIRTH AND HISTORICAL DEVELOPMENT OF
COMPUTATIONAL INTELLIGENCE APPLICATIONS
IN ARCHAEOLOGY
1. Introduction
Is it possible to build a machine to do archaeology? Will this machine
be capable of acting like a scientist? Will this machine be capable of understanding how humans act, or how humans think they acted in the Past? These
questions are rather original in Archaeology. They are even provocative, given
the current fashion of post-modern and hermeneutic approaches. Nevertheless,
the dream of an automated archaeology has existed latently in some hidden
places of the archaeology.
The so called “intelligent” machines incite instinctive fear and anger by
resembling ancestral threats – a rival for our social position as more or less
respected specialists. But robots are here, around us. So, why should we fear
a machine classifying a prehistoric tool and deciding “intelligently” its origin,
function and/or chronology?
The debate is between what is considered an arti�cial way of reasoning
(computer programs) and a natural way of reasoning (verbal narrative). Critics
of computationalism insist that we should not confound scienti�c statements
with predicate logic operations, since discursive practices or argumentations
observed in a scienti�c text are not “formal”. By that reason, they are tributary,
to a certain extent, from the Natural Language and the narrative structure
(literary) of which scienti�c texts derive. Personally, I take the opposite approach: scienti�c problem solving stems from the acquisition of knowledge
from a speci�c environment, the manipulation of such knowledge, and the
intervention in the real world with the manipulated knowledge. The more
exhaustive and better structured the knowledge base, the more it emulates
a Scienti�c Theory and therefore the easier the solution is to the scienti�c
problem, the more adequate the interpretations we will get.
As its history proves, computational intelligence is not just about robots.
It is also about understanding the nature of intelligent thought and action using
computers as experimental devices. In the following pages I will consider whether
this is also a possible “metaphor” to understand the way archaeologists think.
2. Machines who think
The dream of an “intelligent” machine is very old in the history of
Philosophy, and it is related to the progressive discovery that nature and hu95
J.A. Barceló
man acts are not divine secrets, but could be broken down and understood
systematically. Since Socrates, philosophers have often anthropomorphized
a problem by imagining a demon accomplishing a task that was dif�cult to
understand but seemed to be possible. In some cases, such a demon had a kind
of mechanical nature. Maybe the most relevant “precedent” of computational
intelligence was the logic imagined by Ramon Lull, a medieval mystic (13th.
century), and one of Catalonia’s greatest poets. More than three centuries
after the Ars Magna this book in�uenced Thomas Hobbes (1588-1679), who
stated «by ratiocination, I mean computation. Now to compute is either to
collect the sum of many things that are added, or to know what remains
when one thing is taken out of another. Ratiocination, therefore, is the same
with addition and subtraction». Hobbes wanted to account for all cognitive
activities of the mind in terms of computation, and computation is calculated
in terms of manipulation (transformation) of computable entities.
Gottfried Wilhelm von Leibniz (1765) envisioned a universal calculus
of reasoning by which arguments could be decided mechanically. «Everything
proceeds mathematically...if someone could have a suf�cient insight into the
inner parts of things, and in addition had remembrance and intelligence enough
to consider all the circumstances and take them into account, he would be a
prophet and see the future in the present as in a mirror». He seemed to see
the possibility of mechanical reasoning devices using rules of logic to settle
disputes.
Many of the natural philosophers of the Enlightenment took similar
views. Julien Offray de La Mettrie (1709-1751) was perhaps the �rst to
suggest that “man is a machine”, more as a metaphor than as a mechanical
possibility. We had to wait until 20th century for a new turn of the screw. In
1914, Bertrand Russell imagined recording instruments that could perceive the
world in place of a human observer. Russell’s virtual observer eliminates the
subjectivity of perception of what things really are. «There is no theoretical
limit to what can be done to make mechanical records analogous to what a
person would perceive if he were similarly situated» (Russell 1959).
With early twentieth century inventions in electronics and the post–
World War II rise of modern computers, possibilities gave over to demonstrations. As a result of their awesome calculating power, computers in the 1940s
were frequently referred to as “giant brains”. As a consequence, in the middle
of the 20th century, a handful of scientists began to explore a new approach
to thinking machines based on their discoveries in neurology, a new mathematical theory of information, the engineering approach to control and
stability mechanisms, and the availability of machines based on the abstract
essence of mathematical reasoning.
The �rst computer systems displaying cognitive capacities considered
“intelligent” (language understanding, learning, reasoning, problem solving)
96
The birth and historical development of computational intelligence applications
were presented in 1956, at the Dartmouth Conference. At the same time, John
McCarthy coined the term Arti�cial Intelligence. McCarthy’s main assumptions were that if a machine can do a job, then an automatic calculator can be
programmed to simulate the machine. Knowledge was viewed as something
that could be stored, coded, matched, and displayed. An arti�cial brain could
be built simply by telling it what it needs to know. It was hoped that if we
could represent the knowledge necessary to describe the world and the possible actions in a suitable formalism, then by coupling this world description
with a powerful inference machine one could construct an arti�cial agent
capable of planning and problem solving.
The turning point came with the development of knowledge-based
systems in the 1960s and early 1970s. It has been explained as a “paradigm
shift” in computational intelligence toward knowledge-based systems. The
thousands of knowledge-based mechanisms or “expert systems” following it
became visible demonstrations of the power of small amounts of knowledge
to enable intelligent decision-making programs in numerous areas of importance. Although limited in scope, in part because of the effort to accumulate
the requisite knowledge, their success in providing expert-level assistance
reinforces the old adage that knowledge is power. But it was this advantage
which at the end acted as their main handicap. Arti�cial Intelligence began to
lose its holistic character towards a general theory of intelligence, acquiring a
more “application” orientation. Knowledge-based systems were useful tools,
although they do not simulate how humans think.
About the same time, computer specialists began to realize that scienti�c
reasoning can be described in terms of problem solving search (Langley et
al. 1987; Thagard 1988; Wagman 2000). According to that view, scienti�c
theories may be considered as complex data structures in a computational
system; they consist of highly organized packages of rules, concepts, and
problem solutions. The idea is that scienti�c knowledge directs problem solving search through a space of theoretical concepts. This speci�c knowledge
matches against different possible regularities in the data and take different
actions depending on the kind of regularity the system has perceived among
external data. Some of this knowledge proposes laws or hypotheses, others
de�ne a new theoretical term, and yet others alter the proposed scope of a law.
Different data led to the application of alternative sequences of knowledge
operators, and thus to different conclusions.
Generating a scienti�c explanation would be then a type of problem
solving search, in which the initial state consists of some knowledge about a
domain, and the goal state is a hypothesis that can account for some or all
of that knowledge in a more concise form. A space of instances and a space
of hypotheses should then be used, with the search in one space guided by
information available in the other. That is to say, the use of instances constrains
97
J.A. Barceló
the search for hypothetical statements of the causal relationship. Hypotheses
are evaluated through known instances of the causal relationship. In looking
for appropriate instances of examples, scientists are faced with a problem
solving task paralleling their search for hypotheses. They must be able to plan
by making predictions about which observational (or experimental) results
could support or reject various hypotheses.
If a computer program could be developed to do what we usually call
“science”, then an intelligent robot able to substitute us in the tedious task of
studying ourselves should also be possible. In 1965, Herbert Simon predicted
that machines would be capable of doing any work a man could do by 1985.
When that date arrived, and the promised intelligent machines were still not
available, a critical approach to the very idea of thinking machines began. This
failure precipitated the separation and rivalry of the two founding disciplines:
Cybernetics and Arti�cial Intelligence. Cybernetics fundamental ambition was
to produce a physically touchable theory of that most unphysical entity: the
mind itself. The cybernetics researchers began their investigation of nervous
systems by creating automata creatures reproducing what we (animals) can
do. The arti�cial intelligence community ignored this approach in their early
work and instead set the sights directly on the “intellectual” side of human
thought, in experiments running on large stationary computers dedicated to
the mechanizing of pure reasoning.
3. Archaeological reasoning as computation
The �rst requisite for an automated archaeology should be based on
the dream of Hobbes, “rationalization as computation”. Formal logics, mathematics and computers have been used in archaeology, but the vast majority
of their archaeological applications pertain to the domain of methodology or,
even worse, to the design of data collections. In many cases, such efforts were
not directed to the examination of the structures of archaeological reasoning
and argumentation.
Although computers and statistics began to be used in archaeology in the
1950s, we had to wait until the end of the 1960s, when “new archaeologists”
began to explore Hobbes argument. In so doing they emphasized the need to
make disciplinary assumptions formal and explicit. Such authors considered
that computer methodology provided an expanding armory of analog and
digital techniques for computation, experimentation, simulation, visual display and graphic analysis. In that sense, it ful�lled a second requirement for
automated archaeology: Russell’s challenge for eliminating the subjectivity
of perception and explanation in terms of some kind of externalized demon.
Mathematical techniques, as sense-extending machine tools could either be
used like the microscope to examine the �ne structure of low-level entities and
98
The birth and historical development of computational intelligence applications
processes in minute detail, or like the telescope to scrutinize massive ensembles
over vast scales. They also seemed to provide powerful hammer-and-anvil
procedures to beat out archaeological theory from intransigent data; thus, on
one hand these methods can be used to construct models and simulate their
consequences over a range of states, identifying test-conditions; on the other
hand, the computer may be used to analyze and test real data and measure
their expectations under the model against the reality.
Doran and Hodson (1975, 74, see also Doran 1970) already suggested
that the question “Can a computer do this?” is almost always rephrased as
“Can this procedure exactly be speci�ed?”. In his book, Analytical Archaeology (Clarke 1968, 512-513) David Clarke noted three ways to explore
rationalization as computation in archaeology:
1. using descriptive statistics for concept de�nition and quanti�cation;
2. using analytical inductive statistics to handle relationship concepts;
3. using isomorphic systems of symbols arranged in axiomatic schemes, models
or calculi to handle the regularities in complex data.
The main problem in those years was that many scholars regarded
mathematics and statistics as an analytical tool to be “used”, and not as a way
to transform rationalization into computation. Only some limited aspects of
archaeological reasoning were computationally formalized, like classi�cation
and seriation. Some emphasis was placed on statistical hypothesis testing, but
there was very poor application of mathematical formalism to the theoretical issues of archaeology, despite recognition of the value of axiomatically
or formally expressed theory (Read 1990). The naive use of Hempelian hypothetico-deductive reasoning mechanism as a “method” to test hypotheses
is a good example. Statistics was placed at some part of the reasoning cycle,
leaving the rest of the explanatory process in traditional narrative terms. A
cautious note by Doran and Hodson (1975), the founding fathers of quantitative archaeology, is very interesting in this regard. They found the claims
for a “formalized” approach to archaeology greatly exaggerated and therefore
dangerous. While they share some of the dissatisfaction with subjectivities in
archaeological explanation at that time, the proposed solution – the hypothetical-deductive method – was considered as a bizarre mixture of naivety and
dogmatism. Formalization was still regarded as an “alien” conception.
A similar theme was iterated by Cowgill (1986, 369) in a review article
titled Archaeological Applications of Mathematical and Formal Methods.
There he referred to three broad categories comprised of «archaeological
observations, analytical methods, and sociocultural theory», but then observed that although some anthropological reasoning was expressed directly
in computational (mathematical) terms, most of it was still expressed in a
subjective narrative way.
99
J.A. Barceló
The �rst synthetic models of archaeological inference were proposed
by D. Clarke (1972), M.B. Schiffer (1976), M. Borillo (1977), among
others. They argued for the formalization of the acquisition of archaeological knowledge in terms of sets of laws, correlates and cultural and natural
transformation processes. The cybernetic theory of the 50s and 60s provided
the language necessary for that formalization. Instead of considering “archaeology” as a machine, “new archaeologists” regarded human society, and even
the human individual (but not the archaeologist!) as a machine, forming a
complex whole or “system”. Here, “machines”, “automata”, and “societies”
were synonymous. Archaeologists were convinced that they should study the
relationships between “components” to discover how the system worked in
the past. The links between elements or subsystems were examined in terms
of correlational structure (Clarke 1968).
Only in the mid-1980s, a step forward towards a full formalization was
made, when archaeologists realized the need to impose a concordance between
the language of the model, the assumptions of the model and its interpretability (Carr 1985; Read 1985). The problem arising with axiomatization
was not whether archaeologists have developed a theory that can be recast in
axiomatic fashion but whether there are principles or relationships suitable
for restatement as axioms for an axiomatic construction. The real fact is that
archaeologists do not know exactly what archaeology is.
4. Simulating archaeologists
Jean-Claude Gardin became a professional archaeologist by chance at
the end of the 1950s, and consequently he always had an outsider’s view of
what archaeologists do. Instead of a normativist approach to archaeology,
suggesting the best way of constructing the archaeology we need, he took an
analytic point of view, looking for ways of deconstructing what archaeologists
believe they do. His purpose was to expose the logical �aws in argumentation
and so to improve the logical execution of reasoning. This would allow the
study of archaeological logic itself.
According to Gardin, the concrete expression of reasoning in any
dominion of science is the text where the author has expressed the mental
operations that have led him/her from the observation of certain empirical
facts, to the af�rmation of certain explanatory proposals. This methodology
looks for the necessary bridges between facts and theses and the links between
explanations. It has been called logicist analysis (Gardin et al. 1981). Its goal
is to reduce the content of the text in its main components, studying their
fundamental connections. The schematization of an archaeological paper is
not an abstract or a summary of the paper, but a reformulation of its content
in a condensed form. Gardin uses the word “condensation” as in physics: a
100
The birth and historical development of computational intelligence applications
rearrangement of something into a more compact volume, without loss of
substance. He and his colleagues “have deconstructed” numerous scienti�c
works (mainly archaeological) in this way. This approach is precisely a framework for analyzing and modeling the questions and answers that bracket a
scienti�c text, and there is an obvious intuitive link between meaning, questions, and answers.
Gardin assumed that our theoretical constructs can be expressed in terms
of a “calculus”. Archaeological theories can be formulated as computational
structures with two components. The �rst one is a facts base, here understood as a set of declarative propositions that include not only descriptions
of archaeological materials and their context, with associated archaeometric
data, but also a large number of referential statements. Those statements are
not usually regarded as “data”; they include primarily vast sets of analogies,
“common sense”, shared belief, ideologies, etc. The second component is an
inferential tree made up of rewrite operations, which reproduce the chain of
inferences from the archaeological record (“facts”, represented as Po) to different explanatory statements (Pn). Between the extremes of the argumentation, there are intermediate theses (Pi). Scienti�c reasoning builds chains of
oriented propositions Po, P1, P2…, Pn in terms of successive operations Pi -->
Pi + 1. (Gardin 1980, 1991, 1993, 1994, 1998, 2003).
“Rules” are the key; not laws, which are inviolate, but rules that can
be changed and indeed are always changing in a re�exive relationship allowing the expert (human or machine) to accommodate new information. Given
some empirical data (observations) about a particular archaeological case,
and some bit of associative knowledge (If…Then) (hypotheses and interpretations considered valid in a Social, Anthropological or Historical Theory), the
archaeological problem can be explained in terms of the knowledge stored
in a series of rules. In other words, given some visual input and a candidate
explanatory causal model, a correspondence can be established between
them. This means that a small number of features are identi�ed as matching
features in the input and the model. Based on the corresponding features, a
decision rule linking visual features with their causal process (social activity)
is uniquely determined. The recovered decision rule is then applied to the
model. Based on the degree of match, the candidate causal event is selected
or rejected. To be accepted, the match must be suf�ciently close, and better
than that of competing solutions.
The rules discovered by logicist analysis may be subjective, but they are
explicit. Anyone can produce the same results, so that although the system
is subjective, it will be consistent when different subjectivities (i.e. different
individuals) use it. The acceptance of the assumptions on which the problem
solution is based leads to consistency, and direct comparability between results
produced by different people; this ful�lls the basic requirements of objective
101
J.A. Barceló
data within the consensus reality of mutual users of the program. Therefore,
logicist analysis can extract objective-like knowledge, but the complexity of
the dynamic process is retained and the data is produced in the form of probabilities that can be compared as if they are objective data within a de�ned
consensus reality.
Analogies between logicist analysis and some aspects of arti�cial intelligence are patent, although both representation schemas evolved in parallel
without further implications (Gardin 1980, 123-125, 1991; Gardin et al.
1987). Formal characteristics of Expert Systems technology appear to be
very similar to the general structure of logicist analysis rewrite rules. The
“deconstruction” of a scienti�c text in terms of rewriting operations agrees
with the “extraction” of the expert knowledge in terms of production rules.
In the same way that the knowledge engineer tries to �nd out how a human
expert thinks before introducing “prior knowledge” into the computer program, the logicist analyst tries to study what is hidden inside a scienti�c text
written in natural language.
Gardin accepted that the way archaeologists make decisions can be
mechanized. Although he never tried to build an automated archaeologist,
his suggestions moved some archaeologists to create what at �rst look seem
to be “automated archaeologists”. The most obvious application of this “automatization” of archaeological reasoning is the domain of archaeological
typologies. In the same way, the function and chronology of ancient buildings
can be correctly explained from their observed architectural features, and the
visual characteristics of human and animal bones can be used to recognize
them as instances of well de�ned explanatory categories. It is also possible to
mechanize the process of microscope samples classi�cation for ancient wood
taxonomy determination. Some other systems help scientist to decode decorative patterns in pottery or rock-art. Other archaeological applications have
explored the possibilities of whole artifact identi�cation from the perception
of sherds. Applications of automated problem solving methods do not �nish
here. An expert system can be programmed to help archaeologists to interpret
the results of archaeometric analyses, within the framework of provenance
studies. Such a system would produce one (or several) “diagnoses” according
to the geographic origin of raw material, from a database of analyzed samples
of known origin provided by the user (see a review of such applications in
Barceló 2008).
5. What computers could not do years ago
and what they can do now
Herbert Simon’s prediction that machines would be capable of doing any
work a human can do by 1985 was soon considered over-optimistic by some
102
The birth and historical development of computational intelligence applications
authors, exaggerated for others, or even wrong for many computer scientists
and philosophers. Some years before that landmark date, it became clear that
intelligent machines could not be produced. In fact, even today, 25 years after
the deadline, we still have not arrived at a true computational intelligence. In
the same way, and around the same years Gibbon (1984, 383), though espousing the value of formal and axiomatically expressed theory in archaeological
reasoning, bluntly commented that «no theory within archaeology has ever
been formalized». The impossibilities of machine intelligence and automated
archaeology seem to have been detected simultaneously: there is no easy way
to translate rationalization into computation.
In any case, we have to accept that the very idea of “rationalization as
computation” never found the place in archaeology (nor in any other social
science) it merited. The most promising computational techniques in those
early days were accused of excessive simpli�cation, of forcing knowledge, or
distorting it, and of failing to exploit fully the knowledge of the expert (Hugget, Baker 1986; Wilcock 1986; Doran 1988; Gallay 1989; Lagrange
1989; Shennan, Stutt 1989; Francfort 1990; Puyol-Gruart 1999).
However, there is nothing suspicious in the approach. The success of
expert systems in parallel disciplines is very evident if we consider the thousands of references, and it is due to their working within a world in which
the range of meaning for terms is circumscribed within a carefully selected
micro-world. Yes, they may not be a model of human reasoning, as considered
by Gardin, but this technology really works! The problem is that archaeology
has not yet arrived at a relevant degree of formalization, given absurd prejudices and the weight of individual authority. Robots are not the guilty ones,
but the humans that have not learned how to program them!
In archaeology, the so called “radical critique” of the 1980s distorted
the debate when it regarded archaeology as literature. There are still scholars considering that any archaeological analysis is a mere text product of
an individual writer. Consequently the explanation of past behavior has the
same value as a literary product. Even the practice of archaeology can itself
be reduced to “theatre”. Given that robots can not act, there are no automated archaeologists! Given that rationalization is seen as art (literature), it
is believed that it cannot be rendered computable, because the act of literary
creation is intrinsically incomputable.
The question never arrived at this extreme in the Arti�cial Intelligence
debate. Although by 1985, computer scientist and cognitive psychologists
were well aware that no general theory of rationalization could be rendered
computable, and no “arti�cial human brain” has ever been programmed, they
had already proved that intelligence could be mechanized in very restricted
domains. Within the last two decades, the view of computational intelligence
based on pre-set plans and searching in restricted knowledge-bases using
103
J.A. Barceló
well-de�ned operators for activating already existing sequences of explanations (i.e. expert systems) has come under scrutiny from both philosophers
and computer scientists.
The main consequence of this profound criticism was the revival of the
cybernetic approach in the late 1980s, and its integration with new paradigms
of cognitive science, philosophy and a so called “new” arti�cial intelligent paradigm. A shift in perspective from knowledge as stored artifact to knowledge as
constructed capability-in-action inspired a new generation of cyberneticists in
the �elds of situated robotics (Brooks 1999; Franklin 1995; Clancey 1997;
Pfeiffer, Scheier 1999; Iyida et al. 2004). To be intelligent, an intelligent
machine should focus on the outside world, how this world constrains and
guides its explanatory behavior. The automated system we would like to build
is the agent-in-the-right-context, an agent constructing descriptions by adapting old ways of perceiving, by putting models out into the world as artifacts
to manipulate and rearrange, and by perceiving generated descriptions over
time, relating them to past experiences or future consequences.
Machine Learning appears then as the key word in the New Cybernetics. That is to say, we do not simply ask: “What knowledge structures should
be placed on the head of a robot able to do archaeology?”. Instead of storing
declarative sentences in the computer’s memory, we should build a machine
able to learn from its own explanations and mistakes. If we want to go beyond the traditional expert-system approach, we should make emphasis not
on database consultation, analogy, and simple statistical decision-making,
but on learning and categorizing, and on how meaning can be generalized
from known examples of a given concept. Fortunately, learning is not an
impossible task for computers. New generation adaptive algorithms (neural
networks, support vector machines, genetic algorithms) appear to be formally
true universal inductive algorithms, and they can be used to solve many archaeological problems (Barceló 2008).
Programming computers to be able to solve most learning problems
is a cross between statistics and computer science. The idea is to program a
system able to look for common features between positive examples of an
observed or simulated causal relationship to be predicted, and common differences between its negative examples. In contrast with discrete Aristotelian
logics, machine learning models provide more graded answers to archaeological problems. Such programs integrate information from a large number
of different input sources, producing a continuous, real valued number that
represents something like the relative strength of these inputs. These graded
signals can convey something like the probability of the answer or explanation in some speci�cally constrained circumstances.
Computer scientists are intensively exploring this subject and there are
many new mechanisms and technologies for knowledge expansion through it104
The birth and historical development of computational intelligence applications
erative and recursive revision. Arti�cial Intelligence offers us powerful methods
and techniques to bring about this new task. Fuzzy logic, rough sets, genetic
algorithms, neural networks, Bayesian models and agent-based systems are
among the directions we have to explore. These paradigms differ from usual
methods in that they are (in comparison at least) robust in the presence of
noise, �exible as to the statistical types that can be combined, able to work
with feature (attribute) spaces of very high dimensionality, they can be based
on non-linear and non monotonic assumptions, they require less training
data, and make fewer prior assumptions about data distributions and model
parameters. The huge number of learning algorithms and data mining tools
make it impossible to review the entire �eld in a single paper (Jones 2007;
Luger 2008; Munakata 2008; Hassanien et al. 2009; Bar-Cohen et al.
2009).
No aspect of this discussion has entered into the archaeological debates
of our time. Critics of the “rationalization as computation” view of archaeological discipline are ignorant of this revival of the cybernetic paradigm, and
its integration with new paradigms of cognitive science, philosophy and new
programming approaches. What at the beginning seemed correct criticisms
of the view of human society as a simple machine, soon became an hysterical
rejection of formalization and any possible surrogates: computers, statistics
and formal logics. The idea of “art” or “humanities” has been violently vindicated favoring explanation via “common sense”, ignoring the fact that arti�cial
intelligence is technologically achievable provided we change the classical
approach of its early days: if we want to reproduce human intelligence in a
machine, we should make emphasis on three central aspects: development,
interaction, and integration. Development forms the framework by which
machines should imitate the way humans successfully acquire increasingly
more complex skills and competencies. Interaction should allow robots to use
the world itself as a tool for organizing and manipulating knowledge, it allows
them to exploit humans for assistance, teaching, and knowledge. Integration
should permit an automated archaeologist to maximize the ef�cacy and accuracy of complementary mechanisms for perceiving and acting.
Therefore, what would give a more “intelligent” character to automata
applications in the archaeological domain will not be a passive storing of
individual rules, but an enhanced ability to learn and to react in a certain
way to a certain stimulus. If we want to go beyond the usual archaeological
explanations based on template matching, we should place emphasis not on
database consultation, analogy, and decision-making, but on learning and
categorizing, and on how meaning can be generalized from known examples
of a given concept. That is, the automated archaeologist should develop its
own cognitive machinery (what it knows) as opposed to construct a data
structure on which a preexisting machinery operates.
105
J.A. Barceló
6. Conclusions
The failure of the early prospect of Arti�cial Intelligence was attributed
to a view of intelligence as an abstract machine. In the same way, the failure
of the New Archaeology of the 60s was its insistence on simple universal
theories of human behavior. The reaction should be based on a move towards
a view of knowledge as something created from transformations of previous
knowledge. Information does not exist in the world waiting to be extracted
by a robot, but, rather, it should be situated in meaningful contexts. Perceiving a world implies distinguishing “possibilities for action” and not naming
or identifying per se. Explanation cannot be properly understood, if considered independently of the context in which it occurs. The historical, cultural,
and social context of the interactions of an intelligent machine is crucial to
the understanding of the ongoing process. That is to say, the archaeological
record is here de�ned in terms of the recognition of the circumstances to act
with or upon (explanation). Being a perceiver, an intelligent machine should
literally create a phenomenal world, because the process of perception �rst
de�nes relevant distinctions in the sensory environment.
The approach exposed here challenges the received picture of an archaeological explanation as an invariant structure. Solving archaeological
problems is an activity. We have to change the way we understand explanatory
concepts. They are not verbal labels we attach to some percepts by means of
a previously existing rule but a cognitive action, or a requisite for the next
action. Explanations should be based on purposeful, goal-directed mechanisms
emerging from a dynamical system that has been calibrated by learning (trial
and error, experimentation, analogy) to make the right choices in the proper
circumstances.
What I am suggesting is that when explaining, our automated archaeologist conceptually navigates in a potential �eld of explanations looking
for attractors (goals) and repulsions (constraints). Upon detecting the goal,
the explanation moves toward it, executes it and then follows until another
goal or constraint is found. It repeats this sequence of actions until it has returned all attractors in the potential �eld. Since the robot does not manipulate
propositions, any account of automated explanation that would draw on connectionist principles would not be able to limit itself to principles of logical
inference in describing how some belief was arrived at. On the contrary, it is
necessary to rely on something like the notion of maximal satisfaction of soft
constraints to describe how the machine behaves cognitively, and in evaluating its performance we would presumably consider whether the constraints
it satis�ed in arriving at its output state were the appropriate constraints.
This would lead us to an evaluation of how an automated archaeologist has
learnt, speci�cally, whether its training had resulted in ways that enabled it
106
The birth and historical development of computational intelligence applications
to respond to inputs in a manner that was most likely to meet its needs in the
environment. This would constitute a major change, since epistemology has
generally been pursued through conceptual analysis, not empirical inquiry.
Juan A. Barceló
Departament de Prehistòria
Universitat Autònoma de Barcelona
REFERENCES
Barceló J.A. 2008, Computational Intelligence in Archaeology, Henshey (NY), Information
Reference Source, IGI Group Inc.
Bar-Cohen Y., Hanson D., Marom A. 2009, The Coming Robot Revolution: Expectations
and Fears about Emerging Intelligent, Humanlike Machines, Berlin, Springer.
Borillo M. 1977, Raisonner, calculer, in M. Borillo (ed.), Raisonnement et méthodes mathématiques en Archéologie, Paris, CNRS, 1-31.
Brooks R. 1999, Cambrian Intelligence: The Early History of the New AI, Cambridge (MA),
The MIT Press.
Carr C. (ed.) 1985, For Concordance in Archaeological Analysis: Bridging Data Structure
Quantitative Technique and Theory, Boulder, Westview Press.
Clancey W.J. 1997, Situated Cognition: On Human Knowledge and Computer Representations, Cambridge, Cambridge University Press.
Clark A. 1993, Associative Engines. Connectionism, Concepts and Representational Change,
Cambridge (MA), The Mit Press.
Clarke D.L. 1968, Analytic Archaeology, London, Methuen.
Clarke D.L. (ed.) 1972, Models in Archaeology, London, Duckworth.
Cowgill G.L. 1986, Archaeological applications of mathematical and formal methods, in D.J.
Meltzer, D.D. Fowler, J.A. Sabloff (eds.), American Archaeology, Past and Future:
A Celebration of the Society for American Archaeology, Washington, Smithsonian
Institution Press.
Doran J.E. 1970, Archaeological reasoning and machine reasoning, in J.-C. Gardin (ed.),
Archaeologie et Calculateurs, Paris, CNRS, 57-67.
Doran J.R. 1988, Expert Systems and archaeology: what lies ahead?, in C.L.N. Ruggles,
S.P.Q. Rahtz (ed.), Computer and Quantitative Methods in Archaeology 1987, BAR
International Series 393, 237-241.
Doran J.R., Hodson F. 1975, Mathematics and Computers in Archaeology, Edinburgh,
Edinburgh University Press.
Francfort H.P. 1990, Modélisation de raisonnements interprétatifs en archéologie à l’aide
de Systèmes Experts: conséquences d’une critique des fondements des inférences, in
J.-C. Gardin, R. Ennals (eds.), Interpretation in the Humanities: Perspectives from
Arti�cial Intelligence, London, The British Library.
Franklin S. 1995, Arti�cial Minds, Cambridge (MA), The MIT Press.
Gallay A. 1989, Logicism: a French view of archaeological theory founded in computational
perspective, «Antiquity», 63, 27-39.
Gardin J.-C. 1980, Archaeological Constructs, Cambridge, Cambridge University Press.
Gardin J.-C. 1991, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris,
Editions de L’Ecole des Hautes Etudes en Sciences Sociales.
Gardin J.-C. 1993, Les embarrass du naturel, «Archives Européennes de Sociologie», 34,
152-165.
107
J.A. Barceló
Gardin J.-C. 1994, Informatique et progrès dans les sciences de l’homme, «Revue Informatique
et Statistique dans les Sciences Humaines», 30 (1-4), 11-35.
Gardin J.-C. 1998, Cognitive issues and problems of publication in archaeology, in W.
Hensel, S. Tabaczynski, P. Urbanczyk (eds.), Theory and Practice of Archaeological Research, Warszawa, Institute of Archaeology and Ethnology, Polish Academy
of Sciences.
Gardin J.-C. 2003, Archaeological discourse, conceptual modelling and digitalisation: An
interim report of the logicist program, in M. Doerr, A. Sarris (eds.), The Digital
Heritage of Archaeology, CAA2002, Heraklion, Crete, Archive of Monuments and
Publications-Hellenic Ministry of Culture.
Gardin J.-C., Lagrange M.S., Martin J.M., Molino J., Natali-Smit J. 1981, La logique
du plausible. Essais d’épistemologie pratique en sciences humaines, Paris, Editions de
la Maison des Sciences de l’homme.
Gardin J.-C., Guillaume O., Herman P.O., Hesnard A., Lagrange M.S., Renaud M.,
Zadora-Rio, E. 1987, Systèmes Experts et sciences humaines. Le cas de l’archéologie,
Paris, Eyrolles.
Gibbon G. 1984, Anthorpological Archaeology, New York, Columbia University Press.
Hassanien A.E., Abraham A., Vasilakos A.V., Pedrycz W. (eds.) 2009, Foundations of
Computational Intelligence, 5 vols., Studies in Computational Intelligence, Berlin,
Springer.
Hugget J., Baker K. 1986, The computerized archaeologist: the development of Expert Systems, «Science and Archaeology», 27, 3-12.
Iyida F., Pfeiffer R., Steels L., Kuniyoshi Y. (eds.) 2004, Embodied Arti�cial Intelligence,
Berlin, Springer.
Jones T. 2007, Arti�cial Intelligence: A Systems Approach, Hingham (MA), In�nity Press.
Lagrange M.S. 1989, Les systèmes experts et la recherche en archéologie et sciences humaines.
Un point de vue pragmatique, «Documentaliste», 26, 1, 11-15.
Langley P., Simon H.A., Bradshaw G.L., Zytkov J.M., 1987, Scienti�c Discovery. Computational Explorations of the Creative Process, Cambridge (MA), The MIT Press.
Luger G.F. 2008, Arti�cial Intelligence: Structures and Strategies for Complex Problem Solving, (6th ed.), Addison-Wesley.
Munakata T. 2008, Fundamentals of the New Arti�cial Intelligence: Neural, Evolutionary,
Fuzzy and More, Berlin, Springer.
Pfeiffer R., Scheier C. 1999, Understanding Intelligence, Cambridge (MA), The MIT
Press.
Puyol-Gruart J. 1999, Computer Science, Arti�cial Intelligence and Archaeology, in J.A.
Barceló, I. Briz, A. Vila (eds.), New Techniques for Old Times, CAA98, Proceedings
of the 26th Conference (Barcelona 1998), BAR International Series 757, Oxford,
Archaeopress, 19-27.
Read D.W. 1985, The substance of archaeological analysis and the mold of statistical method:
enlightenment out of discordance, in C. Carr (ed.), For Concordance in Archaeological Analysis: Bridging Data Structure Quantitative Technique and Theory, Boulder,
Westview Press, 45-86.
Read D.W. 1990, The utility of mathematical constructs in building archaeological theory, in
A. Voorrips (ed.), Mathematics and Information Science in Archaeology. A Flexible
Framework, Studies in Modern Archaeology 3, Bonn, Holos Verlag, 29-60.
Russell B. 1959, My Philosophical Development, London, Allen & Unwin.
Schiffer M.B. 1976, Behavioral Archaeology, Orlando (FL), Academic Press.
Shennan S.J., Stutt A. 1989, The nature of archaeological arguments, «Antiquity», 64 (245),
766-777.
Thagard P. 1988, Computational Philosophy of Science, Cambridge (MA), The MIT Press.
108
The birth and historical development of computational intelligence applications
Wagman M. 2000, Scienti�c Discovery Process in Humans and Computers, Westport (CN),
Praeger Publishers
Wilcock J. 1986, A review of expert systems: their shortcomings and possible applications in
archaeology, in E. Webb (ed.), Computer Applications in Archaeology 1985, London,
139-144.
ABSTRACT
Twenty years after the consolidation of a true professional archaeology in search of
a “scienti�c” dream, mathematics and computers made their appearance in the discipline. In
the same way, the �rst essays dealing with “automatic archaeology” appeared in the 1950s,
looking for standardization of archaeological description and statistical reasoning, but we
had to wait for another 30 years until the appropriate technology was available. At the end of
the 70s and beginning of the 80s, Expert Systems were considered as a true promise towards
the independence of archaeological reasoning from subjectivity. Nevertheless, the rise of postmodernism and the radical critique, with its emphasis on subjectivity and situational context
of the research effort generated considerable turmoil that, in appearance, buried the dream
of an automatic archaeology. Research efforts in these domains of computational intelligence
continued, however, especially in the domains of remote sensing and archaeometry. Modern
technological developments like 3D scanning are responsible for a revival of interest in computational intelligence methods. Today, we are still far from the early dream of an automatic
archaeology, but it is no longer a “nightmare”. It is a technological reality that will contribute
to a more professional and scienti�c-based archaeology.
109
Archeologia e Calcolatori
20, 2009, 111-128
REPRESENTING KNOWLEDGE IN ARCHAEOLOGY:
FROM CATALOGUING CARDS TO SEMANTIC WEB
1. Introduction
Representing knowledge is the basis of any catalogue. The Italian Catalogue was based on very valuable ideas, developed in the late 1880s, with
the basic concept of putting objects in their context. Initially cataloguing
was done manually, with typewritten cards. The advent of computers led to
some early experimentations, and subsequently to the de�nition of a more
formalized representation schema. The web produced a cultural revolution,
and made the need for technological and semantic interoperability more evident. The Semantic Web scenario promises to allow a sharing of knowledge,
which will make the knowledge that remained unexpressed in the traditional
environments available to any user, and allow objects to be placed in their
cultural context.
In this paper we will brie�y recall the principles of cataloguing and
lessons learned by early computer experiences. Subsequently we will describe the object model for archaeological items, discussing its strong and weak
points. In section 5 we present the web scenario and approaches to represent
knowledge.
2. Cataloguing: history and principles
The Italian Catalogue of cultural heritage has its roots in the experiences
and concepts, developed in the late 1880s and early 1900s, by the famous
art historian Adolfo Venturi, who was probably one of the �rst scholars to
think explicitly in terms of having a frame of reference to describe works of
art, emphasizing as the main issue the context in which the work had been
produced. In 1964, the famous art historian Giulio Carlo Argan promoted a
study group (under the Ministry of Education and CNR - National Research
Council) and proposed the establishment of a speci�c body in charge of
cataloguing. The Italian Cataloguing Institute (ICCD) was of�cially born in
1975, under the direction of prof. Oreste Ferrari.
The key principle guiding the cataloguing process is knowledge, about
the speci�c object but also about all the other issues that can help in understanding the complex semantic relationships the object has with issues pertaining
to other disciplines. The full knowledge of the historical, political, religious
context is in many cases the only way to fully understand the value and the
111
O. Signore
message of an object. However, such knowledge is almost invariably the property of the scholars and experts, and rarely is made explicit to the others.
As a result, many of us can only perceive a minimal part of what is the real
value and meaning of works of art. Anyone who has had the experience of
visiting a museum accompanied by an expert who can describe details about
the cultural context in which an object was made, can easily understand the
difference between this kind of visit and a conventional one.
3. Early experiences and cataloguing cards
Computer applications in the area of management of cultural heritage
date back to the 1960s. In many cases, the approach taken to storing catalogue information was very similar to the one used by librarians. The basic
idea was to describe objects with “cataloguing cards” where information was
organized in several semantically consistent sections, describing, for example
author, period, excavation data, subject, historical and critical notes. The �rst
organisation of the Italian Catalogue was based on a manual approach, where
each object was described by a typewritten card. The basic ideas were very
valid and all subsequent work has been greatly in�uenced by the intellectual
efforts that led to the de�nition of the fundamental principles of the cataloguing rules. The most important issues were:
– identi�cation of a reduced set of different cards, corresponding to different
types of objects (art objects, archaeological objects, drawings, architecture,
gardens, historical centres, etc.);
– grouping of the information in several very general categories, like author,
location, material, historical info, etc.;
– topological arrangement of the catalogue cards.
On the other hand, it should be pointed out that the cards were conceived for human usage, and therefore the various �elds were to be �lled in by
scholars, on the basis of their speci�c competence in the particular subject,
following some general rules. As a matter of fact, it was expected that the
cards would be used by another scholar, who would be able to understand
the semantics of the content of the �elds, and identify any inconsistencies, or
interpret them correctly.
This approach would, in principle, �t all the needs, but there were some
important points missing. First of all, cultural heritage is far more complex
than a library, as it is intrinsically highly interdisciplinary. Secondly, cards are
compiled by humans and intended for humans, who can read, understand,
infer, connect, and reason about their content. In this light, the fact that information is not highly formalized is not a problem: free text is widely used
and concepts can be easily expressed. Third, the guiding principle was “one
112
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
card for each object”, regardless of its complexity, even if some objects can be
seen and described as single items, while others have more complex structures
and relationships with other objects.
The library approach of free text cards, with some more formalized items,
was proven to be somehow semantically ambiguous with free text information
potentially inconsistent. This fact became evident when, in the early 1970s, some
more broad range experiments were conducted on the use of computers to store
catalogue data. The �rst and quite natural approach was just to transform the
paper cataloguing card into an electronic document, relying on the features and
effectiveness of the Information Retrieval Systems (IRS). The assumption was
that it would be easy, for scholars as well for casual users, to enter some words
the system could �nd in documents and return appropriate records. In spite of
the initial enthusiasm and the claims of the vendors, some of the initial results
were both unexpected and very disappointing; as the quantity of data increased,
it became evident that both precision and recall were not achieving the expected
optimum1. In fact, when indexing documents, IRSs use a list of non signi�cant
terms (stopwords) to avoid indexing of useless or non selective words. In some
systems the stopwords were system-wide, while in others they could be linked
to speci�c parts of the document. In any case, the problem of homographs produced disappointing results. Just as an example, in Italian the capital “i” (“I”) is
used both as article as well as the Roman number denoting the ordinal number
one, as in the expression “I secolo” to denote the �rst century. Depending on
the characteristics of the system and the list of stopwords, a search for objects
dated to the �rst century returned either zero documents or almost all objects.
Another disappointing effect was caused by the adoption of a �at model, where
a single document was describing the object, irrespectively of its complexity.
This made it impossible, for example, to �nd objects made of several different
materials, or having components with a different style or date.
It is worthwhile to note that while the �rst effect was related to the
software features, the second one depended on the rule of having “a card
for each object”. In general, lack of precision was caused by the poor, �at
structure of the cataloguing card, while the absence of a controlled language
was the origin of poor recall.
4. The object model and the RA card
The automation of the Italian Catalogue started in the mid 1970s,
and during the �rst experiences only the IRS approach was used, mapping
1
It should be noted that the effectiveness of IRS is basically measured in terms of Precision
and Recall, where Precision is the ratio between the number of returned signi�cant documents and
the total number of returned documents, and Recall is the ratio between the number of returned
signi�cant documents and the number of signi�cant documents in the whole document collection.
113
O. Signore
paper cards to electronic documents. In addition, many experiments were
conducted in order to determine how to map the different cataloguing cards
(for example, the art objects and the archaeological artefacts) to different
electronic document structures. Even if these attempts paid more attention to
the structuring of documents, they were still tied to the software selected as
IRS, and results were mostly disappointing. It soon became evident that the
unsatisfactory results could not be ascribed to the particular systems (every
product exhibits some strong and some weak points), but that a rethinking of
the entire cataloguing schema was necessary, keeping in mind the constraints
imposed by the automated treatment of the information. Around 1984 it was
decided to take a different approach2, which had the following guidelines:
– higher degree of formalization;
– independence from software and hardware platforms;
– uni�ed model for the different kinds of objects, and therefore, as far as
possible, a “unique schema”.
The �at model which was the basis of the cataloguing card was reconsidered. The main issue was therefore the de�nition of a model for the
objects, trying to abstract from the differences which distinguish the different
objects, as they are seen according to the various disciplines to which they are
related. For example, a vase or a brooch are seen and described differently
depending on whether they are an archaeological artefact or an art object.
Another relevant issue considered was the distinction among different types
of objects, taking into account their intrinsic properties. The de�nition of the
data structure started from the identi�cation of the central role played by the
object. Initially, a wide variety of object types was identi�ed: single object,
series, fragment, part of, etc. After a while, it was realized that this kind of
specialization was too complex, and would in fact constitute a barrier between
the cataloguer and the user. Finally, it was agreed to de�ne a classi�cation
schema based on three different types of objects:
– simple object: is an object such that all its attributes are pertinent to the
whole object, and cannot be separated into smaller components, exhibiting
different relevant properties (different materials, different epoch, different
authors, etc.) which may themselves be considered cataloguing objects;
– complex object: may be either a simple object whose parts are physically
or conceptually separable and exhibit some interesting peculiarities as cataloguing objects, or a set of objects which may be referred to by a speci�c
name;
2
These were the years when database conceptual modelling was mature, the huge and heavy
hierarchical DBMSs were being replaced by the more theoretically sound relational databases, and
the object oriented approach was getting attention from researchers. The web, where technical
interoperability is a familiar feature, was not yet invented.
114
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
– aggregation of objects: occurs when a set of objects can be considered as a whole on the basis of some conceptual perspective, and this set has properties which
are useful to express, but no name exists which identi�es the aggregate.
Components of a complex object may be either simple or complex objects,
and so may the aggregate objects. It is worthwhile noting that a speci�c object
belongs to the different categories only on the basis of the quantity and the
type of information: no list exists that speci�es if a particular kind of object
must be considered simple or complex or aggregate. The proposed model only
established a classi�cation model, that is, the type of relationships that must
be speci�ed between the objects (a component of a complex object is an object
itself), and the criteria inherent to the properties. The model implicitly assumed
the existence of relationships between objects (as will be discussed below).
The approach used was essentially based on the standard conceptual
database design methodologies. As it is well known, the conceptual model is
independent from software and hardware environments, and the most popular
approach at the time was based on the Entity-Relationship model. The �rst step
was the identi�cation of the “basic” entities, like object, author, location, and
so on. The identi�cation of the relationships between these entities was taken
as the second step. This process lead to a simple, consistent model, where the
object was playing a central role. In addition to the “fundamental” entities
and relationships, which are intrinsic to the representation of the real world,
there were some “minor” relationships and entities, as those accounting for
the name variants. The analysis of these last and similar problems pushed us
to the de�nition of some “authority �les” as the only means to normalize the
vocabulary, and to keep the data consistent.
Even though the Entity-Relationship model proved very effective in
modelling and representing knowledge, cultural traditions and mental attitude
forced them to switch to the conventional “cataloguing card” format. From
this point of view, the following choices were made:
– the information has been subdivided into small, semantically well de�ned,
chunks;
– these chunks may be either a �eld, or a sub�eld of a structured �eld;
– each �eld may be de�ned as simple or structured;
– each �eld may be de�ned as repeating or non-repeating;
– each sub�eld may be a repeating or non repeating sub�eld;
– �elds, either structured or unstructured, may be grouped into “paragraphs”
in order to allow multiple occurrences of a set of �elds3. An example of a
cataloguing card follows:
3
As a curiosity, we may recall that �elds are identi�ed by three letter codes, sub�elds by four
letters codes, and paragraphs by two letters codes. The length of codes was a legacy of the IRS used in
the �rst experiences, which allowed for �eld labels of a maximum length of four letters.
115
O. Signore
CD:
TSK: RA
[…]
OG:
OGT:
OGTD: parete affrescata
LC:
PVC:
PVCP: NA
PVCC: ERCOLANO
LDC:
LDCT: casa
LDCN: V 15 (DEL BICENTENARIO)
LDCS: 13 (tablino); parete N
[…]
DA:
DES:
DESS: Zona mediana rossa con tre pannelli riquadrati da bordi
di tappeto: centrale (giallo in orig.) con quadro (Pasifae e
Dedalo), laterali con medaglioni (Bacco a s.; baccante a d.)
separati da fasce nere con grottesche, cornice a ovoli. Fregio
nero: tre pannelli con scene di amorini in caccia con scudo e
sfondo naturalistico a s., con cervo e cane in lotta al centro, con amorino su cavallo alato a d., separati da riquadri
con maschere tragiche. Zona superiore rossa con architetture
(quasi illeggibile).
[…]
At �rst glance, the proposed model may appear just another “�at �le”
schema, with a large number of �elds, but anyone familiar with database
design methodologies will easily recognize that, generally speaking, entities
have been mapped on to paragraphs, (multivalued) attributes on to (repeating)
�elds, aggregate attributes on to structured �elds. It is also evident that the
identi�cation of a sequence of �elds, with the characteristics of being repeatable and/or groupable, and references to “authority �les”, may be seen as the
“linearization” of a non linear text. Last, but not least, an effort was made
to maintain consistency between different cultural areas, so that semantically
equivalent �elds are identi�ed by the same tag.
The proposed model was a trade-off between the very speci�c requirements posed by the academic and research communities, asking for exhaustive information, and requirements posed by the administrative needs of
having a model which could be adapted to a large variety of objects, despite
their differences. The object model could also be seen as a way to represent
knowledge, considering that, at the time it was de�ned, thesauri, authority
�les and dictionaries were not available for all the �elds, and we were forced
to use structured �elds to represent knowledge that could be otherwise coded
116
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
in an appropriate faceted thesaurus. The object model could also be seen as
an interoperable model to collect information.
The object model put a great emphasis on the de�nition of the different
types of relationships between objects, leading to the de�nition of the different types of objects: simple, complex, aggregate. It has to be noted that a
component of a complex object is seen as an object itself, and inherits some
properties from the “father object”. The aggregation of objects leads to the
compilation of a cataloguing card that accounts for the general properties
of the aggregate. In conclusion, we may envisage two different types of relationships between objects: a “vertical” relationship (complex objects) and
a “horizontal” relationship (aggregates). As a consequence of experiences
conducted in the following years, it was agreed to add the possibility of explicitly coding some semantically richer relationships. This deep and articulated
fragmentation of information had the positive effect that information can
be more accurately controlled, and errors are less probable, while fragments
can be recombined to return more aggregated info. The guidelines followed
in the de�nition of the standards are reported in Papaldo et al. 1986 and in
Signore 1986. A complete de�nition of these standards may be found in the
publications of the ICCD: D’Amadio, Simeoni 1989; Massari et al. 1988;
Papaldo et al. 1988; Parise Badoni, Ruggeri 1988.
4.1 Strong and weak points
The de�nition of the object model and the corresponding cataloguing
card exhibited several strong points. First of all, it made it possible to overcome
the dif�culties arising from the adoption of an approach tied to the technology
to be used for storage and retrieval, while it was usual, in the mid 1980s, to
implement models based on the software selected for the application management, with additional costs to face when the operating environment changed.
Instead, everyone had total freedom in implementing data entry applications
and sharing or exchanging data on the basis of the well de�ned model, thus
safeguarding investments4 (Signore 1993, 1994). Secondly, it was a big step
forward, since it put the Italian Catalogue at least at the same level as other
4
In 1986, the Italian government funded a Lit. 600.000.000.000 (approximately € 310 million) initiative, whose principal aim was the application of new technologies in the �eld of cultural
heritage management. The initiative took the name of “giacimenti culturali”, as it was assimilating
the cultural heritage to other types of resources to exploit, like oil or coal. After a call for proposal,
some 39 projects were approved and �nanced. Among them, 31 were concerned in some way with
the cataloguing of works of art. No guidelines were imposed as far as the technological (hardware
and software) environment was concerned, the only constraint was that the results of the projects
should be made available to the central administration. The object model de�ned by the ICCD
played a driving role as a standard at the conceptual level, and was included as a constraint in the
contracts signed by the �rms which were conducting the projects. The exchange format was easily
de�ned in a couple of hours!
117
O. Signore
more advanced initiatives in other countries. Third, and perhaps most important, the model has been proven to be long lasting. The present schema in
XML is not very different from the original one, and only a few adjustments
have been made to the original structure, on the basis of experience.
However, we must recall some of the weak points, namely:
– the perception of a rigid schema with an excessive fragmentation of information;
– appropriate instruments to �ll in the �elds were missing;
– updating of controlled dictionaries, authority �les and thesauri was slow
and complex.
As a matter of fact, however, the number of �elds was not so high, compared with the complexity of information to be represented, and the schema
was thought of as an “extensible schema”, as we were well aware that new
needs could lead to its improvement. Lacking appropriate software to �ll in
the data was instead an obstacle for the immediate adoption of the model.
Dif�culties arising from the updating of controlled dictionaries and thesauri
must be considered not a limit of the approach itself, but a consequence of
the intrinsic complexity of organizing knowledge, emphasized by the lack of
the cooperative tools we use today.
We must, however, mention some limitations of the approach itself.
First, the approach remained centred on the traditional view of “one card
for a single object”, even if the object was modelled in a more elaborate
way than usual. This “object centred vision” is the origin of redundant (and
potentially inconsistent) information, like author or excavation data, and
does not permit the representation of semantically complex associations.
We must stress that these limitations were not in the original design, which
had its roots in the database conceptual modelling, but is a consequence of
the representation as a “cataloguing card”, which puts too much emphasis
on the object and imposes a linearization of the schema, that can exploit the
(binary) associations between the object and other entities, but cannot express
the existing interdisciplinary associations. As a consequence, the knowledge
of the expert is not formally expressed and remains unavailable to the user.
Even worse, linking with other disciplines was substantially impossible, and
could be done only by expert users.
After the de�nition of the model, between 1985 and 1990 many experiments were conducted for the purpose of checking the correctness of the schema. At the same time, thesauri were created; of these, it’s worth remembering
the thesaurus of ecclesiastic furniture and the historical/geographical data bank,
the pilot project from which the TGN was born (Papaldo, Signore 1989).
Unfortunately, in 1990, when Oreste Ferrari retired, the activity was stopped,
and the full project was never completed. As a consequence, the data entry and
118
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
exchange format was de�nitively taken as return format, and less effort was
dedicated to the creation of thesauri and knowledge representation.
5. Towards Semantic Web
5.1 The “web revolution”
The web exploded in the mid 1990s, and was the origin of a true
revolution of the traditional means of accessing information. Among the
many characteristics of the web, we must recall a complete transformation
of traditional methods of accessing information (Coyle 2007). In the past,
users were accessing information starting from the “of�cial repositories”, like
libraries, museum catalogues, and so on, while now they almost invariably
start from a generic query on the web, and then follow the links, looking for
the relevant information. As a consequence, the role of central repositories is
much less important, as the web architecture is fully decentralized, and two
issues emerge: the technical interoperability, which is granted by the web protocols, and the semantic interoperability, which could enable us to combine
knowledge available from different sources. The latter is the most relevant
issue, as it requires the representing, exporting and sharing of knowledge.
5.2 Levels of knowledge representation
The degree of formalization of concepts and their relations varies
considerably among different domains of knowledge. At the lower end one
�nds lexicons and simple taxonomies, at the middle level one might place
thesauri, at the high end of formalization of knowledge there are axiomatized
logic theories. Such theories include rules to ensure the correct formulation
and logical validity of statements expressed in the language of the scienti�c
discipline (Digicult 2003).
According to Sheth and Ramakrishnan (2003) semi-formal ontologies5, de�ned as ontologies that do not claim formal semantics and/or are
populated with partial or incomplete knowledge, can be signi�cantly smaller,
especially for the ontology population effort, compared to that required for
developing formal ontologies or ontologies with more expressive representations. Semi-formal ontologies have provided good examples of both value and
5
The term ontology was taken from philosophy, where it denotes a speci�c sub�eld, namely
the study of the nature of existence. It is the branch of metaphysics concerned with identifying,
in the most general terms, the kinds of things that actually exist, and how to describe them. The
observation that the world is made up of speci�c objects that can be grouped into abstract classes
based on shared properties is a typical ontological commitment. More recently the term ontology has
become relevant in the Knowledge Engineering community, acquiring a speci�c technical meaning,
rather different from the original one. In fact, instead of “Ontology” we speak of “an ontology”.
Several different de�nitions of ontology exist, highlighting different aspects.
119
O. Signore
utility in meeting several challenges; especially that of information integration.
One key reason is that of the need to accommodate partial (incomplete) and
possibly inconsistent information, especially in the assertions of an ontology.
Real world applications often can be developed with very little semantics
or with compromises with completeness and consistency required by more
formal representations and inferencing techniques (“a little semantics goes
a long way”).
Hierarchical classi�cation systems and structured vocabularies do not
lend themselves easily to rich inter-linking of conceptual “trees”. A major step
further in this direction is the “CIDOC object-oriented Conceptual Reference
Model” (CRM). This provides an ontology of 81 classes and 132 unique properties, which describes in a formal language concepts and relations relevant
to the documentation of cultural heritage6. CIDOC CRM is a formal ontology
for cultural heritage information speci�cally intended to cover contextual
information. It can be used to perform reasoning (e.g. spatial, temporal).
5.3 The Dublin Core standard
As clearly explained by Baker 2000, Dublin Core is often presented
as a modern form of catalogue card, a set of elements (and now quali�ers)
that describe resources in a complete package. Sometimes it is proposed as an
exchange format for sharing records among multiple collections. A founding
principle is that “every element is optional and repeatable”. Strictly speaking,
a Dublin Core element or quali�er is a unique identi�er formed by a name
(e.g., creator) pre�xed by the URI of the namespace in which it is de�ned, as
in http://dublincore.org/documents/dces/#creator/. In this context, a namespace is a vocabulary that has been formally published, usually on the web;
it describes elements and quali�ers with natural-language labels, de�nitions,
and other relevant documentation. The �fteen elements of the Dublin Core
element set are the de�ning feature of Dublin Core as a language. In their
short form, the elements are dc:title, dc:creator, dc:subject, dc:description, dc:
publisher, dc:contributor, dc:date, dc:type, dc:format, dc:identi�er, dc:source,
dc:language, dc:relation, dc:coverage, and dc:rights. These correspond to
�fteen broadly de�ned properties of resources that are generally useful for
searching across repositories in multiple domains. Dublin Core is, in effect, a
class of statements of the pattern Resource has property X, where “resource”
is the implied subject; followed by an implied verb (“has”); followed by one
of �fteen properties from the Dublin Core element set; followed by a property
value, an appropriate literal such as a person’s name, a date, some words, or
6
The CIDOC CRM has been accepted as working draft by ISO/TC46/SC4/WG9 in
September 2000. Since 9/12/2006 it is of�cial standard ISO 21127:2006. See http://cidoc.ics.forth.
gr/ for details.
120
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
a URI. For example: Resource has dc:creator “Oreste Signore”, and Resource
has dc:date “2009-04-01”. Optional quali�ers may make the meaning of a
property more de�nite.
5.4 The Semantic Web
To understand the Semantic Web framework it should be recalled that
the web must be seen as a Universal Information Space, navigable, with a
mapping from URI (Uniform Resource Identi�er) to resources. For the Semantic Web to function, computers must have access to a structured collection of
information and a set of inference rules that they can use to conduct automated reasoning. The challenge of the Semantic Web is therefore to provide
a language that expresses both data and rules for reasoning about data and
that allows rules from any existing knowledge-representation system to be
exported onto the web.
The foundation of Semantic Web is the Resource Description Framework
(RDF7) based upon a model for representing named properties and property
values. The RDF model draws on well-established principles from various data
representation communities. RDF properties may be thought of as attributes
of resources and in this sense correspond to traditional attribute-value pairs.
RDF properties also represent relationships between resources and an RDF
model can therefore resemble an entity-relationship diagram. The RDF data
model is a syntax-neutral way of representing RDF expressions. The basic
data model consists of three object types:
– Resources. All things being described by RDF expressions are called resources. Resources are always named by URIs plus optional anchor ids. Anything
can have a URI; the extensibility of URIs allows the introduction of identi�ers
for any entity imaginable.
– Properties. A property is a speci�c aspect, characteristic, attribute, or relation
used to describe a resource. Each property has a speci�c meaning, de�nes its
permitted values, the types of resources it can describe, and its relationship
with other properties. Each property is identi�ed by a name, and takes some
values.
– Statements. A speci�c resource together with a named property plus the value
of that property for that resource is an RDF statement. These three individual
parts of a statement are called, respectively, the subject, the predicate, and
the object. The object of a statement (i.e., the property value) can be another
resource or it can be a literal; i.e., a resource (speci�ed by a URI) or a simple
string or other primitive datatype de�ned by XML. A set of properties referring to the same resource is called description.
7
ments.
See http://www.w3.org/TR/rdf-primer/ for an introduction and reference to other docu-
121
O. Signore
We can diagram an RDF statement pictorially using directed labelled
graphs (also called “nodes and arcs diagrams”). In these diagrams, the nodes
(drawn as ovals) represent resources and arcs represent named properties.
Nodes that represent string literals will be drawn as rectangles. The power of
RDF is that everything but the literals is identi�ed by URI, and statements can
predicate anything on anything, regardless of where they are located in the
web. Therefore, the knowledge base is universal and worldwide. It is important to stress that the Semantic Web does not require that all the knowledge
be migrated into RDF, it is suf�cient that the existing knowledge, stored in
databases, spreadsheets, documents, be mapped onto RDF graphs, so that it
can be shared and queried by Semantic Web applications.
Semantic Web is a hot research topic, and many applications are emerging, both in academia and at the industrial level. A more complete description
of the Semantic Web and its technologies is beyond the scope of this paper,
and we will not go into details. The interested reader can �nd details in the
vast literature which exists on this topic.
5.5 Why an ontological approach
The importance of semantic interoperability has been widely recognized
by scholars, and many international projects agreed to use common metadata
vocabularies (mainly based on Dublin Core metadata schema). This is a step
forward towards the emphasis put in the last few years on XML data structuring. Scholars realized that XML is semantically poor, while the Semantic Web
stack higher level technologies (RDF, OWL, etc.) can supply the appropriate
technical environment to represent, export and share the knowledge needed
to implement intelligent retrieval and browsing systems, and reason upon
data. In the peer-to-peer web architecture, Semantic Web technologies permit
fully decentralized semantic markup of content (for example, using classes
and properties de�ned in CIDOC-CRM), and intelligent software agents can
then use knowledge expressed by the markup.
In fact, looking back to the history of data cataloguing and sharing of
cultural heritage information, we can see how we progressed from initial stages,
where info was entered in an informal way, to more structured organization
of information, and now we have many projects referring to a common metadata set (mainly Dublin Core, sometimes Quali�ed Dublin Core). Some more
advanced projects (Hyvönen et al. 2004) rely on ontologies, mainly as a set
of related terms to use for more precise queries. The question now, looking
at the common agreement upon the metadata set, is why should we consider
an ontological approach? First of all, as pointed out by Doerr (2003), even
if both a core ontology and core metadata, such as Dublin Core, are intended
for information integration, they differ in the relative importance of human
understandability. Metadata is, in general, thought for human processing,
122
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
while a core ontology is a formal model for automated tools that integrate
source data and perform a variety of functions. Vocabularies based on ontologies that organize the terms in a form that has clear and explicit semantics
can be reasoned over, which is a fundamental process in enriching knowledge,
inferring new information about resources. Secondly, there is a drawback in
the implicit assumption made with the metadata approach. In short, it should
become evident how adding metadata to the description of an artefact implicitly
means that we assume a one-to-many (or possibly many-to-many) relationship
between the object and the items identi�ed by the metadata. Taking an example
from art history, when specifying8 some DC metadata like:
or
dc:title=Pietà
dc:creator=Michelangelo
dc:date=1499
dc:subject=Madonna
dc:subject=Christ
dc:title=Madonna del cardellino
dc:creator=Raffaello
dc:date=1505
dc:subject=Madonna
dc:subject=Child
we intend to say that a particular artefact (the Pietà, for example) was made by
Michelangelo, is dated 1499, and has as its subject “Madonna” and “Christ”,
while the second one (the painting) was made by Raffaello, is dated 1505,
and has as its subject “Madonna” and “Child”. We can add controlled vocabularies to be sure that we specify correct terms for “creator” or “subject”,
but only humans can:
– check the consistency between dc:creator and dc:date as no artefact can be
made by an artist after her/his death, or before her/his birth date (plus, let
us say, 10 years?);
– having found an artefact, search for artefacts made in the same period, or
by artists who were living and active in the same period;
– �nd the historical or political context (what was happening around these
years?);
– �nd artefacts (for example portraits) which are “imaginary” portraits,
because the scene is imaginary, or subjects never existed because they are
mythological, or subjects did not exist at the time the artist was living or at
the same time themselves.
8
In the following examples, for the sake of simplicity we are not conforming to an actual
syntax, which would require expressions like:
<meta name=“dc.creator” content=“Michelangelo” /> or
<dc:creator>Michelangelo</dc:creator>
123
O. Signore
It’s worthwhile to recall how available thesauri are supposed to support
some knowledge representation needs, but cannot be automatically translated
into ontologies, as they sometimes model a class-subclass relationship (like
“statues” and “korai (statues)”), sometimes model just different instances (for
example, “Renaissance” is often modelled as a BT of “15th century”, while
both are periods in time, having some duration). Multiple inheritance and
time dependent relationships are also an issue.
5.6 Novelties and legacy
The (Semantic) Web is opening new, fascinating scenarios, as an immense knowledge repository. Much information is conveyed by the links
connecting different pieces of information. Web searching and browsing can
take advantage of the interoperable knowledge representation to appropriately link information following the user’s preferred interaction metaphors
(spatial, temporal, classi�cation af�nity), thus greatly improving the access
to information and knowledge stored in cultural web sites. In the Semantic
Web environment intelligent user agents can rely on a core ontology to understand the mental model expressing the user’s interests, implementing suitable
navigation mechanisms (Signore 1995).
We can imagine (Signore 2004, 2005, 2006) an architecture where
intelligent user agents can have access to the mental model expressing the interests of the user. The content can be tagged and semantically annotated using
classes and properties de�ned in CIDOC-CRM. The agent can then perform
reasoning, following the relevant associations and linking the information the
user is interested in. The user’s mental model can be expressed in terms of preferred interaction metaphors. Making reference to the ontology used as a basis
for semantic annotation, this means specifying the set of classes and properties
the user might be interested in navigating. Making reference to CIDOC-CRM
classes, a user interested in the temporal context will be interested in classes
like: E2.Temporal_Entity, E52.Time-span and their subclasses, at various levels,
like E3 Condition State, E4.Period, E5.Event. The context can be expressed in a
more precise way stating the properties the user is interested in (e.g. P117.occurs
during, P118.overlaps in time with, etc.) to build up the temporal interaction
metaphor. Identifying such properties can guide the agent to select the appropriate associations and perform the reasoning. The user agent (the browser) can
be enhanced by two components: a reasoner and a �nder, which accomplish
the tasks of getting the semantic annotation of the current resource, looking
to the user model, �nding correspondences between user model and resource
metadata, initiating a search following the properties the user is interested in.
We must stress, however, that the Semantic Web is just supplying the
environment and technologies: ontologies, that play a central role in the
architecture, must be �lled in, otherwise the Semantic Web will never be
124
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
alive. Fortunately, there are decades, if not centuries, of studies that have
built up knowledge. The problem is just to represent this knowledge in a
more structured way, and make it sharable among different areas and usable
by humans and machines. Therefore, all the past work is a precious legacy:
scholars’ knowledge must be formalized and made explicit as ontology, and
very probably we will soon have to agree about a different model to represent
objects, in a distributed and multicultural environment.
6. Conclusion
Cataloguing is an activity where knowledge plays a fundamental role.
In the era of manual, paper based cataloguing, information was easily written
down, but cataloguing cards were written by human experts, mainly for use
by human experts, and the scholars’ knowledge, which is the basis for putting
objects into their cultural context, was essentially tacit, and unavailable. When
computers started being used, it was necessary to store information in a more
formalized way, and language normalization, data structuring, representation
schemas came on to the scene. Cultural traditions lead to a description card
approach, very similar to the one used in libraries. However, the intrinsic
complexity of art and archaeological objects and their complex relationships
required a thorough rethinking of the approach. In Italy we applied database
conceptual design methodologies, ending in an object model that was a good
trade-off between research and administrative needs, where information was
fragmented in many small, semantically well de�ned, chunks. However, the
main drawback remained the central role played by the object itself, with
many attributes “predicating” its properties. As a consequence, the model
was unable to represent the large variety of different semantic relationships
among objects and, more important, with other pieces of knowledge pertaining to different disciplines.
The explosion of the web changed the traditional means of accessing
information and focused attention on the interoperability issues. When they
dealt with the problem of interoperability among different data sources,
scholars realized that it was necessary to agree at least on a metadata based
approach, such the Dublin Core common metadata set. However, the Dublin
Core approach remains centred on objects, and information from different
objects or disciplines can be merged only by a manual, human intervention,
getting different records and �ltering them appropriately.
An ontology based approach allows us to represent and share knowledge, and intelligent agents can infer new knowledge by automated reasoning
on data. This is the Semantic Web scenario, where knowledge is available on
multiple sources distributed over the entire world. The challenge is to represent,
export and share expert knowledge which is the result of decades of studies.
125
O. Signore
It is not an easy task, but it is the way to achieve the goal of making expert
knowledge available to any user, who would in this way be «able to search
the online universe seamlessly as if the images and text about culture were
available in one vast library of information» (Fink 1997).
Oreste Signore
Istituto di Scienza e Tecnologie
dell’Informazione “A. Faedo”
CNR – Pisa
Acknowledgements
First of all, an emotional memory of Roberto Gagliardi, a colleague of mine who was
one of the most active and effective in the de�nition of the object model, and of Oreste Ferrari.
He was both a scholar and ICCD Director, and his broad vision of the catalogue and of the
mission of ICCD was essential to de�ne objectives of high cultural level. I will never forget
him as a gentleman with a subtle sense of humour. I wish to acknowledge people from ICCD,
mainly Serenita Papaldo and Maria Ruggeri, remembering many years of joint work, when
we developed and re�ned the object model, for their challenging requirements. Finally I wish
to thank Irene Buonazia, who gave me some more details about the birth of cataloguing and
mainly the ideas of Venturi and Argan.
REFERENCES
Baker T. 2000, A grammar of Dublin Core, «D-Lib Magazine», 6, 10 (http://www.dlib.org/
dlib/october00/baker/10baker.html, accessed 9 June 2009).
Coyle K. 2007, Managing Technology. The Library Catalog in a 2.0 World, «The Journal
of Academic Librarianship», 33, 2, 289-291 (preprint at: http://www.kcoyle.net/
jal_33_2.html).
D’Amadio M., Simeoni P.E. (eds.) 1989, Strutturazione dei dati delle schede di Catalogo.
Oggetti di interesse demo-antropologico, Roma, ICCD-Museo Nazionale delle Arti e
Tradizioni Popolari.
Digicult 2003, Towards a Semantic Web for Heritage Resources, Thematic Issue 3 (http://www.
digicult.info/downloads/ti3_high.pdf).
Doerr M., Hunter J., Lagoze C. 2003, Towards a core ontology for information integration,
«Journal of Digital Information», 4, 1, n. 169 (http://jodi.ecs.soton.ac.uk/Articles/v04/
i01/Doerr/).
Fink E. 1997, Sharing cultural entitlements in the digital age: are we building a garden of Eden
or a patch of weeds?, in Museums and the Web: An International Conference (Los
Angeles, CA, 1997) (http://www.archimuse.com/mw97/speak/�nk.htm).
Hyvönen E., Junnila M., Kettula S., Mäkelä E., Saarela S., Salminen M., Syreeni A.,
Valo A., Viljanen K. 2004, Finnish Museums on the Semantic Web. User’s Perspective
on MuseumFinland, in Proceedings of Museums and the Web 2004 (Arlington, Virginia/
Washington DC) (http://www.archimuse.com/mw2004/papers/hyvonen/hyvonen.html).
Massari S., Prosperi Valenti Rodinò S., Papaldo S., Signore O. (eds.) 1988, Strutturazione
dei dati delle schede di catalogo - Beni mobili storico-artistici: Stampe, Roma-Pisa,
ICCD-CNUCE.
Papaldo S., Ruggeri Giove M., Gagliardi R., Matteucci D.R., Romano G.A., Signore O.
1986, Strutturazione dei dati delle schede di catalogo: Beni mobili, in S. Papaldo, G.
Zuretti Angle (eds.), Atti del Convegno sull'Automazione dei dati del Catalogo dei
Beni Culturali (Roma 1985), Roma, MiBAC-ICCD, 39-42.
126
Representing knowledge in archaeology: from cataloguing cards to Semantic Web
Papaldo S., Ruggeri Giove M., Gagliardi R., Matteucci D.R., Romano G.A., Signore O.
(eds.) 1988, Proposta di strutturazione dei dati del catalogo: Beni mobili archeologici e
storico-artistici (Edizione riveduta e aggiornata), Roma-Pisa, ICCD-CNUCE.
Papaldo S., Signore O. 1989 (eds.), Un approccio metodologico per la realizzazione di una
banca dati storico-geogra�ca (A methodological approach to producing a historical/
geographical databank), Roma, Multigra�ca Editrice.
Parise Badoni F., Ruggeri M. (eds.) 1988, Strutturazione dei dati delle schede di catalogo:
Beni archeologici immobili e territoriali, Roma-Pisa, ICCD-CNUCE.
Sheth A., Ramakrishnan C. 2003, Semantic (Web) technology in action: ontology driven
information systems for search, integration and analysis, in U. Dayal, H. Kuno, K.
Wilkinson (eds.), Special Issue on Making the Semantic Web Real, «IEEE Data Engineering Bulletin», 26, 40-48.
Signore O. 1986, Architettura di sistemi per la gestione dei dati catalogra�ci, in S. Papaldo,
G. Zuretti Angle (eds.), Atti del Convegno sull’Automazione dei dati del Catalogo
dei Beni Culturali (Roma 1985), Roma, MiBAC-ICCD, 51-58.
Signore O. 1993, Cataloguing art objects: a comparison between French and Italian standards,
in D.A. Roberts (ed.), European Museum Documentation Strategies and Standards.
Proceedings of an International Conference (Canterbury 1991), Cambridge, MDA,
138-143.
Signore O. 1994, From data structuring to data exchange: a simple path, in H.J. Marker, K.
Pagh (eds.), Yesterday. Proceedings from the 6th International Conference Art History
and Computing (Odense 1991), Odense, Odense University Press, 48-54.
Signore O. 1995, Issues on hypertext design, in DEXA ’95. Database and Expert Systems
Application. Proceedings of the International Conference (London 1995), Lecture Notes
in Computer Science n. 978, Springer Verlag, 283-292.
Signore O. 2004, Representing knowledge in semantic cultural web, in EVA 2004 Jerusalem
Conference on the Digitisation of Cultural Heritage (Jerusalem 2004) (http://www.
w3c.it/talks/eva2004Jerusalem/).
Signore O. 2005, Ontology driven access to Museum Information, in CIDOC 2005
Documentation & Users. Proceedings of the CIDOC Annual Conference (Zagreb
2005) (document: http://www.w3c.it/papers/cidoc2005.pdf; slides: http://www.w3c.
it/talks/2005/cidoc2005/).
Signore O. 2006, The Semantic Web and cultural heritage: ontologies and technologies help
in accessing Museum information, in Information Technology for the Virtual Museum
(Sønderborg 2006) (http://www.weblab.isti.cnr.it/talks/2006/ITVM2006/).
ABSTRACT
Knowledge has been the driving force behind the Italian National Catalogue of Cultural
Heritage. In the �rst stage, when the catalogue was mainly based on hand written paper cards
describing objects regardless of their complexity, and intended for manual access by humans,
the expert’s tacit knowledge remained unexpressed, and the card had a simple structure.
Computer based applications initially relied on the features of Information Retrieval
Systems, and simply converted typewritten cards into electronic documents. As results were
quite disappointing, it became evident that a more formal representation of information was
needed. The Italian experience led to the de�nition of a model for objects (simple, complex,
aggregation of objects) with quite a large number of �elds. Even if the schema was often perceived as too rigid, it proved to be effective for data exchange, and long lasting (the present
XML model is almost the same, just with a different syntax). However, its main drawback
was the “object centred” approach, and the impossibility of representing signi�cant semantic
associations with other disciplines. In this sense, a major objective, the contextualization of
objects, remained unattained.
127
O. Signore
The web has been a “cultural revolution”, because information is available everywhere,
and users feel the need to combine different sources of knowledge. This semantic interoperability issue is often dealt with by adopting a metadata based approach (Dublin Core is the
most popular). However, the metadata approach has the intrinsic limit that metadata are
properties we “predicate” about items they refer to, and it is dif�cult, if not impossible, to
derive new knowledge from the old. The Semantic Web perspective is much more ambitious,
as the aim is to represent, export and share knowledge in a “machine understandable” way,
and to allow intelligent agents to reason about it. In this light, scholars’ knowledge must be
formalized and made explicit as ontology, and very probably we will have to agree on a different model to represent objects, in a distributed and multicultural environment. This is not
the end of the traditional scholars’ knowledge, but a more effective environment for making
this knowledge available to all users.
128
Archeologia e Calcolatori
20, 2009, 129-144
MUSEO VIRTUALE DELL’INFORMATICA:
UN ESEMPIO EMBLEMATICO
1. Introduzione
Il progetto “Museo Virtuale dell’Informatica Italiana” è (stato) un
progetto di archeologia industriale virtuale, nato nel 1996, e mai terminato
(Garzotto et al. 1999). L’idea era di costituire un ricordo permanente degli
albori dell’informatica nel nostro Paese. Le idee iniziali erano grandiose,
includendo elementi classici di archeologia (indagini, “scavi”, archiviazione
sistematica...) con elementi moderni di comunicazione verso il grande pubblico. L’inizio del progetto fu brillante e pieno di entusiasmo: diversi gruppi
al lavoro, piani strategici, piani operativi a breve, azioni concrete.
Il progetto contava su un piccolo �nanziamento iniziale (direttamente
dal CNR), che doveva servire a fare il piano operativo e creare i primi prototipi. Come spesso succede in Italia, il �nanziamento iniziale rimase anche
l’unico �nanziamento, per cui il museo virtuale restò incompiuto (e in qualche
modo esso stesso oggetto di archeologia industriale). Naturalmente questo
“percorso” può far venire alla mente molti altri percorsi simili di progetti
tecnologici in Italia.
Il progetto era �nanziato dal CNR (come “progetto strategico”) ed era
condotto dal Politecnico di Milano e da due Istituti del CNR (IEI e CNUCE,
oggi con�uiti nell’ISTI: Istituto di Scienza e Tecnologie dell’Informazione “A.
Faedo”). Gli obbiettivi da raggiungere erano i seguenti:
– Raccogliere e preservare i materiali e le informazioni concernenti il “patrimonio culturale” della nascita dell’informatica in Italia.
– Favorire la comunicazione e la diffusione dei contenuti presso un pubblico
più generalizzato.
– Utilizzare quanto era successo, tra agli anni ’50 e ’60, come lezione e ammaestramento per i giovani ricercatori.
Per il conseguimento delle �nalità di cui sopra, il gruppo di lavoro si è
dato questi obbiettivi concreti:
– Creazione di un “archivio” materiale che raccogliesse la documentazione
rilevante relativa alla nascita dell’informatica in Italia.
– Creazione di un archivio virtuale, per “addetti ai lavori” e giovani ricercatori,
che presentasse in modo scienti�co e sistematico i materiali raccolti.
– Creazione di un sito web (questo era il massimo della comunicazione multimediale nel 1996!) per la divulgazione del materiale più interessante ad un
ampio pubblico.
129
P. Paolini
Fig. 2 – Il prof. Gerace incontra le autorità alla
�ne degli anni ’50.
Fig. 1 – Il prof. Gerace, tra i protagonisti che costituirono il primo “calcolatore italiano” a Pisa.
Fig. 3 – Due dei protagonisti dell’informatica al
Politecnico di Milano: il prof. Dadda e il prof.
Biondi (foto della �ne degli anni ’90).
2. Il materiale raccolto
Il gruppo di lavoro de�nì il seguente elenco per i materiali e la documentazione da raccogliere:
– Le persone, cioè i protagonisti del nascere dell’informatica, nel periodo tra
gli anni ’50 e ’60.
– Le istituzioni maggiormente coinvolte nello sviluppo iniziale dell’informatica in Italia.
– Gli eventi scienti�ci (accademici), industriali e “sociali” più rilevanti.
– L’hardware, inteso sia come interi computer sia come componenti di vario
genere.
– I programmi principali (software) realizzati in quel periodo.
– Altri risultati tecnico-scienti�ci rilevanti di quel periodo.
Per costruire il nucleo iniziale dell’archivio sono stati raccolti i seguenti
materiali:
130
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 4 – Un esempio di codi�ca.
Fig. 5 – Un esempio di “design”.
– Documenti di vario genere, disponibili in varie sedi, e principalmente presso
il CNR, l’Università di Pisa e il Politecnico di Milano.
– Articoli e libri scienti�ci del periodo.
– Immagini, fotogra�e, disegni, diagrammi, etc.
– Componenti hardware di vario genere, disponibili presso le sedi interessate.
– Foto storiche (cioè dell’epoca) di personaggi, materiale, eventi, etc.
Le Figg. 1, 2 e 3 mostrano alcuni esempi di foto di personaggi. Il prof.
Gerace fu il propulsore dello sviluppo di un calcolatore italiano a Pisa. Il
prof. Dadda, del Politecnico di Milano, portò dagli USA, nel 1954, il primo
calcolatore funzionante in Italia. Il prof. Biondi fu tra i suoi primi utilizzatori
(per calcoli scienti�ci).
Tra i documenti scienti�ci ci sono numerosi “fogli di lavoro”. Due
esempi sono illustrati con le Figg. 4 e 5. La Fig. 4 mostra la codi�ca di caratteri in notazione “ottale” e la corrispondenza con i tasti. La Fig. 5 mostra la
“complessità” del design di un calcolatore dell’epoca pioneristica. Entrambe
le immagini provengono dal progetto di Pisa.
131
P. Paolini
Fig. 6 – Un componente “miniaturizzato”
(per gli anni ’50).
Fig. 7 – Una stampante (costruita a Pisa) degli anni
’50.
Fig. 8 – Una “calcolatrice elettronica” in funzione (a Pisa).
Per quanto riguarda l’hardware vero e proprio, purtroppo la maggior
parte delle testimonianze materiali è andata perduta, negli anni ’70 e ’80,
perché il materiale “obsoleto” è stato spesso gettato via. Alcuni pezzi notevoli si sono tuttavia conservati (spesso come ricordo personale di allievi dei
protagonisti di allora).
La Fig. 6 mostra una componente elettronica (non sappiamo esattamente
cosa sia): viene tenuta nel palmo di una mano per dimostrare la “stupefacente
132
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 9 – Il primo calcolatore funzionante in Italia, portato dagli Usa dal prof. Dadda al Politecnico
di Milano nel 1954.
miniaturizzazione”. La Fig. 7 mostra una delle prime stampanti costruite a Pisa
negli anni ’50. Le Figg. 8 e 9 mostrano, rispettivamente, il primo calcolatore
italiano realizzato a Pisa e il primo calcolatore funzionante in Italia (1954)
di costruzione USA, istallato al Politecnico di Milano.
Si può notare, anche a “vista”, la differenza tra le due macchine: di
ricerca la prima e industriale la seconda. Mentre a Pisa prevaleva lo spirito di
ricerca di base (“impariamo a costruire i computer”), al Politecnico di Milano
prevalse lo spirito industriale-applicativo (“capiamo a che servono i computer
e usiamoli a scopi di ricerca e per l’industria”). È interessante rilevare come
la differenza di impostazione tra le due scuole sia ancora percepibile tra gli
atteggiamenti attuali di ricerca delle due sedi.
Le Figg. 10 e 11 mostrano le dimensioni della “unità di memoria” e
della “unità aritmetica dell’epoca”.
Tra i materiali raccolti ci sono diversi documenti interni che ci aiutano
a capire quali fossero le modalità di lavoro dell’epoca. La Fig. 12, per esem133
P. Paolini
Figg. 10-11 – Componenti degli anni ’50 (la unità di memoria e la unità aritmetica).
pio, mostra quante fossero le persone coinvolte in un progetto; si può anche
notare come, anche a quell’epoca, il lavoro di ricerca fosse caratterizzato da
una certa “precarietà”, desumibile dalla brevità di diversi periodi di lavoro.
Le Figg. 13 e 14 pongono l’accento sull’attenzione per i risultati di questi
pionieri e anche uno “stile dei rapporti” sempre molto cortese e rispettoso. Le
Figg. 15 e 16 sono una testimonianza molto importante: nella prima Enrico
Fermi sottolinea l’importanza da lui attribuita allo sviluppo dell’informatica
italiana; nella seconda, che è la risposta, si può notare un tentativo di fare
una (rispettosa) lobby. Tutte queste lettere ci fanno poi pensare come la diffusione della “email” abbia un poco imbarbarito lo stile della corrispondenza
tra ricercatori e docenti: quello stile “elegante” e quasi cerimonioso ci sembra
senz’altro “da archivio”.
Per raccogliere testimonianze dirette (di personaggi ancora vivi a �ne
anni ’90) sono state realizzate interviste ad alcuni dei protagonisti. Queste
interviste, disponibili in video, hanno consentito di rendere viva la storia
di quei momenti. Il prof. Dadda, per esempio, ha raccontato l’incredibile
134
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 12 – Un esempio di “controllo di gestione”. Alcuni degli addetti ai lavori della
Unità di Pisa.
avventura del primo calcolatore arrivato in Italia nel 1954: il prof. Cassinis,
rettore del Politecnico di Milano e sindaco della città, “forzando” un po’ le
regole propone di utilizzare una notevole parte dei fondi del piano Marshall
(stanziato dagli USA per la ricostruzione dell’Europa occidentale) per l’acquisto di un calcolatore; il giovane Dadda (circa 25 anni) viene incaricato
135
P. Paolini
Fig. 13 – Una lettera di due tra i maggiori protagonisti della informatica italiana.
(incredibilmente) di gestire questa somma considerevole con notevole autonomia, e con responsabilità dei risultati. Dadda passa 6 mesi in California (i
calcolatori si costruivano su richiesta all’epoca!) per seguire i lavori; al ritorno,
non sapendo come trasportare l’enorme artefatto, trova una nave Liberty (le
136
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 14 – Lettera che testimonia un primo risultato concreto della Unità di Pisa, la “Calcolatrice
Elettronica Ridotta”.
navi da trasporto della Seconda guerra mondiale) che trasportava balle di
cotone in Italia e tra le balle fa caricare il suo calcolatore; all’arrivo in Italia la
dogana pretende di appiccicare su ciascuna delle centinaia di diodi la “marca
da bollo” di legge (perché i diodi erano equiparati alle valvole delle radio;
137
P. Paolini
Fig. 15 – L’interesse di Fermi per l’informatica italiana.
valvole abbastanza grandi per consentire l’apposizione di marche da bollo);
con un compromesso (molto italiano) Dadda compra le marche da bollo e
promette di appiccicarle a Milano (e ovviamente non lo fa).
Il prof. Biondi (del Politecnico di Milano), invece, racconta come la
prima applicazione “pratica” delle capacità di calcolo servì al suo team (per
conto della Pirelli) per ridurre le dimensioni degli “isolanti” che, in cima ai
pali, servivano per tenere i cavi elettrici ad alta tensione.
138
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 16 – Un esempio di “lobbying”. Il destinatario è Enrico Fermi.
Questi racconti, come molti altri simili, fanno capire lo spirito di ricostruzione dell’Italia dell’epoca e come i protagonisti dell’informatica di allora
sapessero prendere decisioni coraggiose e ottenere risultati concreti pur con
mezzi estremamente limitati. Ogni paragone con il modo di prendere decisioni nel mondo della ricerca di oggi e con il relativo coraggio è lasciato alla
interpretazione del lettore.
3. L’utilizzo dei materiali per il Museo Virtuale
Il materiale raccolto è stato analizzato, classi�cato e organizzato in funzione della costruzione dell’archivio. Tre erano le costruzioni virtuali previste:
– Un archivio pubblico virtuale, accessibile via web, per specialisti e “addetti
ai lavori”.
– Un CD-ROM (all’epoca ancora si usava) per una comunicazione multimediale ad un pubblico più vasto.
139
P. Paolini
Fig. 17 – Una pagina dell’archivio virtuale: il prof. Andronico intervista il prof. Faedo, uno dei
protagonisti.
– Un sito web (all’epoca ancora non così diffuso) per un accesso ad un largo
pubblico.
Le differenze tra la versione “archivio” e quella “comunicazione” concernevano la scelta dei contenuti, l’organizzazione degli stessi, i meccanismi
di accesso e l’interfaccia.
La Fig. 17 mostra una pagina dell’archivio: molto testo e una classi�cazione piuttosto “archivistica” dei contenuti. Le Figg. 18, 19 e 20 mostrano
esempi di pagine del sito web per il pubblico “generalista”. Si può rilevare la
notevole ingenuità dell’interfaccia (che a metà degli anni ’90 appariva molto
moderna) e il tentativo di “snellire” la parte testuale. Anche l’organizzazione
dei contenuti era meno “archivistica” e più orientata ad un largo pubblico. Le
interviste erano la parte principale di questo sito, per “incuriosire il pubblico
e avvicinarlo all’altro materiale”.
Oltre all’archivio e al sito per il grande pubblico erano previste applicazioni speci�che, in qualche modo tematiche: parti di contenuto sarebbero
140
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 18 – Una pagina del sito web per il pubblico “generalista”.
state selezionate (con eventuali integrazioni) per raccontare storie speci�che,
di carattere scienti�co e/o di interesse generale. Queste applicazioni non furono mai realizzate.
4. Conclusioni
Possiamo senz’altro notare diverse analogie tra il progetto del Museo
Virtuale dell’informatica e il classico “ciclo di vita” di un progetto di archeologia: si “scava”, si trovano dei materiali “grezzi” da interpretare, si classi�ca
e si studiano i materiali, si organizza un archivio.
In aggiunta, il progetto illustrato è caratterizzato da alcuni aspetti piuttosto moderni (per la metà degli anni ’90):
– Si organizza anche un accesso per i non specialisti e ci si preoccupa dei
pro�li utenti non specialisti (ristrutturando i materiali per loro).
– Si usa la tecnologia web (e anche CD-ROM, naturalmente).
141
P. Paolini
Fig. 19 – Un elenco dei personaggi per il pubblico “generalista”.
– Si usa una diversa organizzazione dei materiali e un diverso stile di accesso
per il pubblico generale.
– Si usano molto la navigazione e i link (rispetto a interrogazioni e ricerche).
Per alcuni aspetti il progetto anticipò scelte che poi divennero comuni
(e neppure sempre) in seguito:
– Dare per “scontate” le informazioni “oggettive”, da mettere (ben catalogate)
in archivio.
– Enfasi, per il grande pubblico, sulle informazioni “soggettive”.
– Valorizzazione quindi dei personaggi, delle storie, delle passioni, delle rivalità.
Forse, possiamo dire oggi, c’era già lo spirito del web 2.0, molto in
anticipo rispetto alla tecnologia disponibile.
La lezione generale potrebbe riguardare l’archeologia in senso lato:
af�ancare al (quasi) “feticismo” per gli oggetti e i documenti, le informazio142
Museo Virtuale dell’Informatica: un esempio emblematico
Fig. 20 – La biogra�a del prof. Gerace per il pubblico “generalista”.
ni soggettive ed emozionanti: le persone, la società, le abitudini, la cultura
insomma.
HOC-LAB, del Politecnico di Milano, è oggi impegnato in diversi progetti
per i beni culturali secondo questa direttrice. Alcuni di questi progetti riguardano
musei (incluso il Museo Archeologico di Milano) e la Direzione Generale per i
Beni Archeologici del Ministero per i Beni e le Attività Culturali (MIBAC).
Paolo Paolini
HOC-LAB
Politecnico di Milano
BIBLIOGRAFIA
Garzotto F., Paolini P., Mainetto G., Pisani S., Savino P. 1999, Using & re-using archive
information for multimedia applications: the virtual museum of Italian computer science
history, in ICHIM’99. International Cultural Heritage Informatics Meeting (Washington
D.C. 1999) (http://www.archimuse.com/publishing/ichim_99.html).
143
P. Paolini
ABSTRACT
The Virtual Museum of the History of Italian Computer Science is a project which was
started in 1996 and, due to lack of funding, was never completed (and therefore is not available
to the general public). The project, which presented a complete and, for that time, innovative
“design”, was carried out by the Politecnico di Milano and two CNR Institutes (now uni�ed in
the ISTI - Istituto di Scienza e Tecnologie dell’Informazione “A. Faedo”). It includes an archive,
where all basic information is stored, and two different interfaces: a direct search access to the
archive, for specialised and expert users, and a navigation access via web, for extended public
users. Information available includes documents and photographs, biographies, descriptions
of achievements and innovations, etc. One special characteristic is the use of interviews to key
persons, that recreates the heroic, pioneering atmosphere, typical of Computer Science in the
1950s. This use of �rst person narration as reported by the protagonists can be considered a
precursor of solutions that became very common many years later (e.g. Web 2.0) and could
be a model for archaeology in general.
144
Archeologia e Calcolatori
20, 2009, 145-154
«ARCHEOLOGIA E CALCOLATORI»: LE RAGIONI DI UNA SCELTA
1. Introduzione
Correva l’anno 1989 quando Mauro Cristofani mi chiese di accompagnarlo a Siena per incontrare Riccardo Francovich, al �ne di valutare la
possibilità di dar vita a un nuovo progetto editoriale: la pubblicazione di una
rivista dedicata all’applicazione dell’informatica all’archeologia. Considerata
la natura e la personalità dei due interlocutori, nel giro di un paio d’ore il
progetto era già approvato e delineato nei caratteri essenziali, editore compreso. Le scelte ulteriori mi furono demandate.
Anzitutto il titolo della rivista: «Archeologia e Calcolatori». Il motivo
di questa scelta non risiede, come si potrebbe pensare, nella volontà di evidenziare il ruolo sussidiario dello strumento rispetto alla disciplina, quanto in
questioni di carattere metodologico. Infatti, a parte una reminiscenza del titolo
del Convegno internazionale organizzato da Jean-Claude Gardin a Marsiglia
nel 1969 (Archéologie et calculateurs: problèmes sémiologiques et mathématiques, Gardin 1970), negli anni Ottanta si avvertiva ancora fortemente
la distinzione tra l’applicazione dei metodi matematici e statistici, supporto
dell’archeologia quantitativa, e il ricorso alle tecnologie informatiche.
Il termine calcolatori, dunque, nella sua accezione più ampia di macchina
elettronica per l’acquisizione, la memorizzazione, l’elaborazione e l’emissione
programmata di dati, indicava la volontà di offrire una panoramica generale
delle esperienze realizzate nell’ambito sia del trattamento automatico dei
dati archeologici, sia dell’analisi quantitativa delle informazioni: “l’analyse
documentaire” da un lato e “le calcul” dall’altro, come li aveva incisivamente
de�niti Jean-Claude Gardin e con cui, agli inizi degli anni Settanta, venne
denominata la nuova Unité de Recherche Analyse Documentaire et Calcul en
Archéologie (URADCA) del CNRS, diretta da Mario Borillo (Gardin 1991,
in particolare cap. 2).
A venti anni di distanza, potremmo oggi a buon diritto modi�care tale
titolo in «Rivista di informatica archeologica», con un’espressione motivata
dalla volontà di riconoscere il consolidarsi di una nuova disciplina, intesa a
promuovere lo sviluppo di procedure e metodologie d’indagine formalizzate
per acquisire, rappresentare, elaborare, comunicare i dati, producendo al
contempo nuovi strumenti per la ricerca che superano le forme tradizionali e
recano un contributo al progresso degli studi e della pratica dell’archeologia
(Moscati 2009).
Restare, però, ancorati al passato può consentire a una disciplina di con�ne
e di recente formazione di mantenere vivi i passaggi che l’hanno caratterizzata. E,
145
P. Moscati
nel ripercorrere oggi le tappe della nascita dell’informatica archeologica, questo
appare tanto più necessario. La rilettura in chiave attuale di alcuni passi degli
studiosi che con spirito pionieristico hanno introdotto calcolo e automazione
nella ricerca archeologica ne rivaluta infatti la modernità, che supera ogni più
�duciosa aspettativa nell’alto grado di perfezione tecnologica.
Lo scopo perseguito nella fondazione della nuova rivista è chiaramente
enunciato nell’editoriale del primo numero, a cura di Mauro Cristofani e
Riccardo Francovich: «L’attuale assenza di coordinamento e la frammentarietà delle esperienze è alla base della nascita di questa Rivista, che intende
raccogliere e presentare quanto oggi viene realizzato preminentemente nel
campo dell’archeologia classica e postclassica mediante l’uso dei calcolatori»,
per offrire un quadro sempre aggiornato dei progetti in corso sia in Italia sia
all’estero, grazie anche all’autorevolezza dei membri del Comitato Scienti�co
internazionale e all’entusiasmo di una redazione costituita da giovani studiosi
(Cristofani, Francovich 1990).
L’indirizzo seguito nella formulazione del progetto editoriale e nel suo
coordinamento rispondeva dunque a criteri di speci�cità sia della materia
trattata sia della delimitazione del periodo cronologico, senza intendere con
questo escludere il settore più specializzato dell’archeologia preistorica – come
d’altronde ben si evince dalle pagine della rivista – cercando di svolgere una
funzione catalizzatrice intesa a favorire, anche a livello internazionale, l’approfondimento delle esigenze e delle applicazioni realizzate per il periodo storico. L’archeologo “classico”, infatti, stentava ancora ad aprirsi alle possibilità
offerte dal trattamento automatico dei dati e «Archeologia e Calcolatori»
si inseriva così nel panorama internazionale come una rivista specializzata
dedicata all’applicazione dell’informatica e dei metodi di analisi dei dati,
caratterizzandosi per il suo peculiare spettro cronologico (Moscati 1990).
2. Il panorama internazionale alla fine degli anni Ottanta
La rivista veniva anzitutto a colmare una lacuna di carattere informativo. In quegli anni, infatti, era dif�cile, anche per gli addetti ai lavori, reperire
informazioni in materia. In Europa circolavano due “lettere di informazione”,
con una preziosa funzione di notiziario su progetti, manifestazioni e pubblicazioni: «Archaeological Computing Newsletter»1, fondata nel 1985 e pubblicata dall’Institute of Archaeology dell’Oxford University, e «Archéologues
et Ordinateurs», fondata agli inizi degli anni Ottanta e pubblicata dal Centre
de Recherches Archéologiques del CNRS di Sophia Antipolis (Valbonne). Vi
era poi la rivista «Archéo-Log. Revue d’archéologie informatique», pubblicata dal 1986 ad opera del Groupe DIAPRE (Diffusion de l’Informatique en
1
146
http://soi.cnr.it/archcalc/acn/.
«Archeologia e Calcolatori»: le ragioni di una scelta
Archéologie et Préhistoire) in collaborazione con il Centre Informatique de
Philosophie et Lettres dell’Università di Liegi2.
Punto di riferimento nel panorama europeo erano già allora i Convegni
Computer Applications in Archaeology3 che a partire dal 1973 si svolgevano
annualmente a Birmingham, grazie in particolare all’iniziativa e all’impegno
di Susan La�in, e che dal 1987 trovarono nella serie internazionale dei British
Archaeological Reports una sede stabile per la pubblicazione degli Atti. Tali
volumi, benché non rispecchino nella �sionomia l’aspetto di una rivista, hanno
assunto nel tempo una funzione di riferimento per l’informazione e l’aggiornamento sui progetti realizzati e sulle soluzioni applicative utilizzate.
In America, patria del movimento della New Archaeology, oltre allo
spazio dedicato alle applicazioni dei computer nell’ambito di numerose riviste,
fu fondato, proprio nel 1989, il «Journal of Quantitative Anthropology»4, per
iniziativa del Department of Anthropology dell’Arizona State University, con
una sezione riservata in modo speci�co all’archeologia. L’intento della rivista,
come evidenziato da Jeffrey C. Johnson nell’Editoriale al primo numero, era
quello di promuovere un approccio interdisciplinare che consentisse di superare le singole specializzazioni della ricerca antropologica e di incrementare
l’applicazione di modelli matematici e statistici (Johnson 1989).
V’erano poi delle pubblicazioni periodiche, caratterizzate da sezioni
non �sse indirizzate alle applicazioni informatiche: da un lato riviste dedicate
in modo più generale alle discipline umanistiche e ai beni culturali, come è il
caso di «Computers and the Humanities» (tra i primi articoli dedicati all’archeologia, cfr. in particolare Cowgill 1967 e Whallon 1972), di «Histoire
et Mesure» (Djindjian 1990), del «Bollettino d’Informazioni» della Scuola
Normale Superiore di Pisa o di «Science and Technology for Cultural Heritage»; dall’altro lato riviste archeologiche caratterizzate da alcune sezioni
più propriamente tecniche, in cui era possibile reperire elementi di aggiornamento bibliogra�co. Per citarne solo alcune: «American Antiquity», «Journal
of Field Archaeology», «Science and Archaeology», e in Italia la «Rivista di
Archeologia» e «Archeologia Medievale».
Nel corso degli anni alcune delle iniziative editoriali sopra citate si
sono trasformate, come è il caso di «Archaeological Computing Newsletter»,
pubblicata dal 2004 al 2008 come Supplemento semestrale di «Archeologia
e Calcolatori»5, altre invece – e sono la maggior parte – si sono interrotte,
2
Il gruppo di ricerca e la rivista nascono con l’obiettivo dichiarato di «favoriser les contacts
et les échanges entre les chercheurs intéressés et regrouper, dans le domaine francophone, les textes
qui concernent l’utilisation de l’informatique en archéologie...» (Gob 1984, 233). Dal 1983 al 2003
il Centre ha anche pubblicato la «Revue Informatique et Statistique dans les Sciences Humaines»
(http://www.cipl.ulg.ac.be/rissh/rissh.htm).
3
http://caa.leidenuniv.nl/proceedings/proceedings_contents.htm.
4
http://www.quantitativeanthropology.org/.
5
http://soi.cnr.it/archcalc/ArcheologicalComputingNewsletter.htm.
147
P. Moscati
spesso perché legate a lodevoli iniziative di singoli studiosi o di istituzioni
che hanno modi�cato nel corso del tempo la loro politica editoriale. Degna
di nota, anche se comparsa più tardi nel panorama internazionale – il primo
numero risale al 1996 – è la rivista «Internet Archaeology», orientata per
politica editoriale verso la pubblicazione on-line, che ha dedicato numerosi
inserti speciali all’informatica archeologica6.
3. Lo spostamento dell’asse verso i Paesi del Mediterraneo
Negli eventi che caratterizzano il panorama internazionale degli anni
Ottanta, degno di nota è un episodio speci�co che ha profondamente in�uenzato la nascita di «Archeologia e Calcolatori»: l’organizzazione nel 1983 di
un corso europeo a Valbonne e Montpellier a cura di François Djindjian e
Henri Ducasse. Il titolo del corso (Mathématiques et Informatique appliquées
à l’archéologie) e la sua duplice strutturazione (Data Processing applied to
archaeology e Mathematics applied to archaeology) indica ancora la dicotomia tra le diverse esperienze applicative. Proprio il ritardo di quattro anni
nella pubblicazione (Djindjian, Ducasse 1987) costituirà l’occasione per i
curatori di ri�ettere sulla validità dei metodi proposti e sul loro rapporto con
la tecnologia. Come scriverà di lì a poco lo stesso Djindjian, quasi come se
fosse una prescrizione per ottimizzare l’approccio alla materia, «les techniques
progressent, les méthodes durent» (Djindjian 1991, IX).
Tra i docenti del corso vi furono molti degli arte�ci dell’ingresso dei
calcolatori nella ricerca archeologica, che generosamente accettarono di lì a
pochi anni di partecipare anche al Comitato scienti�co della rivista: oltre ai
due organizzatori, possiamo citare Amilcare Bietti, Jim Doran, Jean-Claude
Gardin, René Ginouvès, Anne-Marie Guimier-Sorbets, Albertus Voorrips.
Tra i partecipanti, invece, oltre a chi vi parla, vorrei citare Grazia Semeraro
e Costis Dallas, anch’essi presenti oggi in questa sala a testimonianza delle
solide basi che furono gettate 25 anni fa. Questi studiosi, infatti, ci hanno
consentito di far tesoro di alcuni insegnamenti e di proseguire nel tempo,
facendo evolvere le nostre ricerche non tanto sulla base degli sviluppi delle
tecnologie, ma piuttosto piegando queste ultime alle necessità di una nuova
disciplina al passo con i tempi.
Dietro a questo fervore di attività, che caratterizza in particolare gli
anni Ottanta, esisteva una �tta rete di contatti che promuoveva con entusiasmo iniziative di carattere internazionale. Ad esempio, la Commission IV
(Data Management and Mathematical Methods in Archaeology) dell’Union
Internationale des Sciences Préhistoriques et Protohistoriques si è sempre
dimostrata particolarmente attiva nell’organizzazione di incontri di studio,
6
148
http://intarch.ac.uk/issues.html.
«Archeologia e Calcolatori»: le ragioni di una scelta
orientati al dibattito sulle problematiche di classi�cazione e seriazione dei materiali archeologici, allo studio della distribuzione spaziale delle testimonianze,
alla modellizzazione e simulazione delle culture materiali e alle implicazioni
teoriche nella scelta delle metodologie informatiche. La Commissione era
per natura favorevole a una lungimirante diffusione geogra�ca della propria
attività, in relazione sia alla proposta di nuovi membri, sia alla scelta delle
sedi delle riunioni, sia alla nazionalità dei partecipanti.
Negli anni Ottanta, infatti, si percepiva nettamente la sensazione di una
richiesta sempre più pressante da parte dei Paesi del Bacino del Mediterraneo
di essere coinvolti nel dibattito generale sull’argomento, dando pubblicità
alle esperienze già in corso, spesso isolate, numerose ma non adeguatamente
sostenute da un indirizzo di ricerca omogeneo, frutto di progetti di ricerca
tra loro non concordati. La dispersione dei progetti stessi e l’assenza di
un organo di raccolta e di diffusione delle informazioni determinavano in
realtà una moltiplicazione degli sforzi e delle energie impiegate nella loro
realizzazione.
È in questa temperie che da un lato si dava vita ad «Archeologia e
Calcolatori» e dall’altro lato si delineavano i motivi per la costituzione
dell’Association internationale Archéologie et Informatique, con l’obiettivo
primario di creare “un centre de compétences, un centre de diffusion, un
centre de promotion, un centre de ré�exion, un centre de collaboration dans
le domaine de l’informatique appliquée à l’archéologie”7. Nella prima metà
degli anni Novanta, l’Associazione promosse l’organizzazione di tre Convegni
internazionali, tenutisi rispettivamente a Saint-Germain-en-Laye nel 1991, a
Bilbao nel 1993 (Valdés et al. 1995) e in�ne a Roma nel 1995 (Moscati
1996), gettando così le basi per quel coinvolgimento internazionale ad ampio
spettro, che sarebbe stato de�nitivamente suggellato di lì a poco dall’organizzazione del XXVI Congresso CAA nel cuore del Mediterraneo, a Barcellona
(Barceló, Briz, Vila 1999).
4. I contenuti
Sin dai primi anni di vita di «Archeologia e Calcolatori» vennero de�nite
alcune linee guida per il programma editoriale che il tempo e l’evoluzione
delle tecnologie non hanno modi�cato, ma che anzi hanno consentito alla
rivista di stare al passo con i tempi. Come abbiamo già avuto occasione di
sottolineare (Moscati 2002), tali linee guida possono essere così sintetizzate:
il costante contatto con il panorama internazionale e la scelta del multilinguismo, che non ha costituito un ostacolo bensì un elemento di ricchezza dei
contenuti, in linea con uno dei principi fondamentali dell’Unione Europea sin
7
Per una descrizione più dettagliata degli obiettivi dell’Association cfr. «Archeologia e
Calcolatori», 2, 1991, nella sezione “Informazioni”.
149
P. Moscati
dall’inizio del processo di integrazione; il rapporto dialettico tra il momento
della ri�essione teorica e quello della sperimentazione, cioè tra il modello e
la sua applicazione; il rispetto dell’equilibrio tra gli spazi dedicati agli aspetti
tecnologici e a quelli più propriamente archeologici; l’apertura verso le innovazioni, attraverso sperimentazioni intese a sviluppare progetti concreti capaci
di stimolare nuove ri�essioni e nuovi approcci alla ricerca.
La pubblicazione di Atti di Convegni internazionali e di numeri speciali
dedicati a tematiche di particolare attualità hanno consentito di coronare l’attività intrapresa8. Gli Atti di Convegni sono sempre stati pubblicati su speci�ca
richiesta delle istituzioni organizzatrici (Boardman, Kurtz 1993; Moscati
1996; D’Andrea, Niccolucci 2000; Djindjian, Moscati 2002; Scardozzi
2007; Djindjian et al. 2008), mentre i numeri speciali, curati da chi scrive,
hanno segnato, con cadenza pressoché quinquennale, alcune tappe fondamentali
dell’evoluzione dell’informatica archeologica, quale base per uno sviluppo coerente e omogeneo alla disciplina. I titoli di tali numeri sono senz’altro indicativi:
Choice, Representation and Structuring of Archaeological Information (1994),
Methodological Trends and Future Perspectives in the Application of GIS in
Archaeology (1998), New Frontiers of Archaeological Research. Languages,
Communication, Information Technology (2004) e in�ne Virtual Museums
and Archaeology (2007). Ma questa ormai è storia recente.
Mi preme qui ricordare che questo sforzo editoriale non si sarebbe
potuto perpetuare nel tempo senza il sostegno scienti�co e l’apporto �nanziario del CNR. Fin dal primo numero, infatti, il carattere interdisciplinare
dell’iniziativa ha trovato ampio consenso negli organi istituzionali e la rivista
ha potuto così godere di �nanziamenti straordinari prima da parte dei Comitati Nazionali di Consulenza scienti�ca dell’Ente (in particolare il Comitato
08 per le Scienze storiche, �loso�che e �lologiche, il 12 per la Scienza e le
Tecnologie dell’Informazione e il 15 per la Scienza e la Tecnologia dei Beni
Culturali) e, dopo la riforma che ne ha visto la soppressione, nel Progetto
Finalizzato Beni Culturali, nell’attività di Promozione della ricerca e in�ne
nel Dipartimento Patrimonio Culturale.
5. La bibliografia di informatica archeologica
Nell’analizzare il ruolo svolto da «Archeologia e Calcolatori», si deve
porre l’accento anche sulla bibliogra�a di informatica archeologica, pubblicata
sotto forma di rassegna nel corso del primo decennio di vita della rivista e utile
strumento per una sistematizzazione di questo settore di studi. Il regolare lavoro di spoglio bibliogra�co è nato insieme alla rivista, proprio per le dif�coltà
accennate inizialmente di reperimento delle fonti d’informazione. Anche sotto
8
150
http://soi.cnr.it/archcalc/SpecialIssues.htm.
«Archeologia e Calcolatori»: le ragioni di una scelta
questo aspetto, il panorama internazionale era in quel periodo carente, se si
escludono alcune lodevoli e isolate iniziative. Mi riferisco in particolare alla
bibliogra�a delle applicazioni informatiche all’archeologia curata da Daniel
Arroyo Bishop e Maria Teresa Lantada Zarzosa (1993) e alla bibliogra�a
di informatica umanistica curata da Giovanni Adamo (1994).
Nel tempo, accanto alla rassegna, è stata realizzata una banca dati
bibliogra�ca ed è stata elaborata una classi�cazione per soggetto, suddivisa
in due sezioni distinte: “la tipologia informatica”, che descrive i metodi di
trattamento informatico dei dati e “l’ambito disciplinare”, che descrive i settori
della ricerca archeologica. Questa scelta duplice, che è poi l’elemento caratterizzante della materia trattata, ha permesso, in più di un’occasione, di offrire
una sintesi dei settori della ricerca più direttamente coinvolti nell’uso degli
strumenti informatici e al contempo di evidenziare le applicazioni più diffuse,
delineandone lo sviluppo e veri�candone la diffusione (Moscati 1999). La
scelta rispecchia anche l’impostazione metodologica della rivista: ogni valutazione delle innovazioni apportate dalle tecnologie deve necessariamente essere
condotta in funzione delle tematiche della ricerca archeologica.
Più volte nel corso degli anni – e anche di recente nell’ambito dell’iniziativa di rappresentare e valorizzare le competenze scienti�che del CNR quale
supporto alla conoscenza, conservazione, valorizzazione e gestione dei beni
culturali e territoriali promossa dal progetto interdipartimentale “Cultura
e Territorio” – siamo tornati a veri�care la congruità delle scelte effettuate
con l’evoluzione della disciplina stessa e con le moderne soluzioni promosse
nel campo dell’ICT. E più volte, anche di fronte all’odierna frammentazione
e alla dilagante settorializzazione, ci siamo resi conto della funzionalità del
modello di descrizione bibliogra�ca e delle chiavi di ricerca selezionate, che
hanno richiesto solo minimi interventi di modi�ca. Si è ad esempio destinata
una voce a sé stante alla Realtà Virtuale, prima inserita tra le applicazioni
di image processing e di gra�ca computerizzata, e si è ritenuto opportuno
aggiungere alla voce “codi�ca dei dati” la speci�ca “metadati”.
Più complesso, invece, sarà il lavoro, di recente intrapreso, di individuare
alcune tematiche trasversali che contraddistinguono l’informatica archeologica
del III millennio. Rispetto al passato, in cui le applicazioni erano orientate
soprattutto verso problematiche di rappresentazione, strutturazione ed elaborazione delle informazioni, l’attenzione è oggi posta soprattutto sui sistemi
di gestione della conoscenza, orientati alla condivisione e alla fruizione delle
informazioni. Di particolare rilevanza è dunque lo studio della terminologia scienti�ca che caratterizza l’informatica archeologica e che consente di
evidenziare vecchi e nuovi percorsi, dimostrando al contempo la profonda
incidenza delle tecnologie informatiche non solo sulle metodologie di ricerca
tradizionali ma anche sul linguaggio scienti�co utilizzato dagli archeologi.
Poiché la rivista costituisce un unicum in questo settore di studi, il suo corpus
151
P. Moscati
testuale ben si presta a un’analisi terminologica che ponga in luce la speci�cità
e l’evoluzione di tale linguaggio, offrendo una rappresentazione sistematica
del dominio di riferimento.
6. La rivista on-line
Giunti al ventesimo numero, è ormai tempo di bilanci. Bilanci che non
vogliono solo guardare al passato, ma che traggono frutto dall’esperienza per
proiettarsi verso il futuro. A tale proposito mi preme ricordare in particolare
due iniziative: la recente adesione della rivista all’Open Archives Initiative e
la realizzazione di un Museo virtuale dell’informatica archeologica. Si tratta
in entrambi i casi di iniziative che trovano le proprie radici in una politica
editoriale stabile e coerente.
Nel primo caso, la pubblicazione in rete della rivista rispecchia la visione della ricerca come libero cammino intellettuale verso la conoscenza.
«Archeologia e Calcolatori» ha inteso in questo modo aggiungere al suo ruolo
istituzionale di polo editoriale di riferimento per l’informatica archeologica un
diretto impegno sperimentale, volto all’adozione di tecnologie d’avanguardia
per la diffusione di contenuti scienti�ci in rete.
L’idea di dar vita a un Museo virtuale dell’informatica archeologica nasce
anch’essa dall’esperienza maturata in seno al CNR con la pubblicazione di
«Archeologia e Calcolatori» e dalla lunga militanza accanto a Tito Orlandi,
promotore di molte iniziative lincee dedicate all’informatica archeologica.
Come si mostra oggi nella sua fase prototipale, il Museo ha tre sale espositive, rispettivamente dedicate a: I protagonisti, Le metodologie, Le tecnologie.
L’intento è di ritrovare le radici storiche di questo settore di studi interdisciplinare, ripercorrendone le principali tappe evolutive, e insieme di sollecitare
il visitatore a interrogarsi sulle aspettative più stimolanti che provengono da
un dialogo tra passato e futuro che si attua in un presente in veste digitale.
Paola Moscati
Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico
CNR – Roma
BIBLIOGRAFIA
Adamo G. 1994, Bibliogra�a di Informatica Umanistica, Roma, Bulzoni.
Arroyo-Bishop A., Lantada Zarzosa M.T. 1993, Bibliografía sobre la aplicación de la informática en arqueología, Cuadernos del Instituto Aragonés de Arqueología, 3, Teruel.
Barceló J.A., Briz I., Vila A. (eds.) 1999, New Techniques for Old Times. CAA98 Computer
Applications and Quantitative Methods in Archaeology. Proceedings of the 26th Conference (Barcelona 1998), BAR International Series 757, Oxford, Archaeopress.
Boardman J., Kurtz D. (eds.) 1993, International Conference on Data and Image Processing
in Classical Archaeology (Ravello 1992), «Archeologia e Calcolatori», 4.
152
«Archeologia e Calcolatori»: le ragioni di una scelta
Cowgill G.L. 1967, Computer Applications in Archaeology, «Computers and the Humanities», 2, 1, 17-23.
Cristofani M., Francovich R. 1990, Editoriale, «Archeologia e Calcolatori», 1, 7-8.
D’Andrea A., Niccolucci F. (eds.) 2000, I Workshop Nazionale di Archeologia Computazionale (Napoli-Firenze 1999), «Archeologia e Calcolatori», 11.
Djindjian F. (ed.) 1990, Archéologie, «Histoire et Mesure», 5, 1-2.
Djindjian F. 1991, Méthodes pour l’archéologie, Paris, Armand Colin.
Djindjian F., Ducasse H. 1983, Ré�exions à l’issue du Cours Intensif Européen Informatique et
mathématiques appliquées à l’archéologie, «Archéologues et Ordinateurs», 4, 21-22.
Djindjian F., Ducasse H. (eds.) 1987, Data Processing and Mathematics Applied to Archaeology/Mathématiques et Informatique appliquées à l’archéologie, «PACT», 16.
Djindjian F., Moscati P. (eds.) 2002, XIV UISPP Congress (Liège 2001). Proceedings of
Commission IV Symposia. Data Management and Mathematical Methods in Archaeology, «Archeologia e Calcolatori», 13.
Djindjian F., Noizet H., Costa L., Pouget F. (eds.) 2008, Webmapping dans les sciences
historiques & archéologiques. Actes du Colloque international (Paris 2008), «Archeologia e Calcolatori», 19.
Gardin J.-C. (ed.) 1970, Archéologie et calculateurs: problèmes sémiologiques et mathématiques. Actes du Colloque International (Marseille 1969), Paris, CNRS.
Gardin J.-C. 1991, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris,
CNRS.
Gob A. 1984, Constitution, à l’Université de Liège, d’un groupe pour la diffusion de l’Informatique en archéologie et en préhistoire, «Revue Informatique et Statistique dans les
Sciences humaines», 20, 1984, 233-234 (http://promethee.philo.ulg.ac.be/RISSHpdf/
annee1984/Notes/AGob.pdf).
Johnson J.C. 1989, Editorial, «Journal of Quantitative Anthropology», 1, V.
Moscati P. 1990, “Archeologia e Calcolatori”. Una nuova rivista per gli studi sull’età storica,
«Centro di elaborazione automatica di dati e documenti storico artistici. Bollettino
d’informazioni», 11, 181-198.
Moscati P. (ed.) 1996, III International Symposium on Computing and Archaeology (Roma
1995), «Archeologia e Calcolatori», 7.
Moscati P. 1999, “Archeologia e Calcolatori”: dieci anni di contributi all’informatica
archeologica, «Archeologia e Calcolatori», 10, 343-352.
Moscati P. 2002, Archeologia e informatica: fra tradizione e rinnovamento, «Bollettino ICR»,
n.s. 5, 21-27.
Moscati P. 2009, Archeologia e società dell’informazione, in XXI Secolo, Vol. I, Roma, Istituto
della Enciclopedia Italiana Treccani, 621-630.
Scardozzi G. (ed.) 2007, Il Mediterraneo antico e medievale come luogo di incontro tra
Oriente e Occidente, Nord e Sud. Atti della Giornata di studio sul tema “GIS e applicazioni informatiche alle ricerche archeologiche e storiche” (Roma 2007), «Archeologia
e Calcolatori», 18.
Valdés L., Arenal L., Pujana I. (eds.) 1995, Aplicaciones Informáticas en Arqueología: Teorías
y Sistemas (Saint-Germain-en-Laye 1991, Bilbao 1993), Bilbao, Denboraren Argia.
Whallon R. 1972, The computer in archaeology: A critical survey, «Computers and the
Humanities», 7, 1, 29-45.
153
P. Moscati
ABSTRACT
As Editor of the international Journal «Archeologia e Calcolatori», the Author retraces
the history of this editorial enterprise, which was established in 1989 by Mauro Cristofani and
Riccardo Francovich. The Journal, which celebrates its 20th anniversary this year, is devoted
to archaeological computing, a research sector characterised by the combining of information
technologies with traditional archaeological methods. The path followed in the formulation of
the editorial plan and its scienti�c coordination is reconstructed through various main stages:
the reasons for the choice of the Journal’s title, its �eld of application and chronological range;
the description of the contemporary international panorama, still characterised by isolated
initiatives; the members of the international Scienti�c Committee, all representatives of the
major Italian and foreign institutions; the scienti�c contents, with particular emphasis on the
publication of special thematic issues and international conference proceedings; the archaeological computing bibliography, an information tool as well as a practical approach to systematising this young discipline. The present-day editorial policy of «Archeologia e Calcolatori»
is dedicated to increasing the visibility and on-line diffusion of the Journal, and in this way
furthering its original purpose: acquiring sources of information, as well as providing them.
154
Archeologia e Calcolatori
20, 2009, 155-168
PROVANDO E RIPROVANDO:
UN QUARTO DI SECOLO DI APPLICAZIONI
«I computer sono inutili, ti sanno dare solo risposte»
Pablo Picasso, 1973
1. Memorie in cerca di una storia
L’obiettivo non semplice che si poneva il Convegno organizzato sotto
l’egida dell’Accademia dei Lincei – l’analisi critica di un settore della disciplina archeologica ormai trentennale – è stato compiutamente perseguito sia
attraverso un quadro molto articolato di questo ambito di studi per ciò che
riguarda teoria e metodo dalla sua genesi ad oggi, sia attraverso una illustrazione seppur sommaria di sperimentazioni, risultati, progetti, che in questo
periodo si sono realizzati e che costituiscono nel loro insieme il corpus delle
applicazioni, ormai troppo vasto per una panoramica completa. Nel cercare di
delineare una sintesi non solo del percorso teorico, si è scelto di concentrarsi
sugli ultimi 25-30 anni, cioè su quel periodo non più solo pioneristico durante
il quale le tecnologie informatiche hanno conosciuto una tale espansione da
rendere possibile una loro suddivisione in settori de�niti.
In questi anni, dunque, le ricerche si sono succedute, e talvolta sovrapposte per ambito di applicazione o �nalità, in numero tale da rendere impossibile e probabilmente anche poco signi�cativo un loro censimento analitico.
Troppo difformi sia per livello scienti�co che tecnologico, come per stadio
di evoluzione raggiunto per operare raffronti indicativi e �nalizzati ad una
sintesi critica.
Nel predisporre la sezione del Convegno dedicata alla storia delle
applicazioni, complementare a quella metodologico-teorica, non si voleva
però neppure stilare una sorta di elenco dei “buoni” ed evidenziare solo quei
progetti che nel tempo hanno dimostrato una maggiore solidità concettuale,
istituzionale, organizzativa, sia perché si sarebbe trattato comunque di un
elenco quantitativamente ingovernabile, sia perché spesso abbiamo molto
imparato, sul piano del metodo, anche dai fallimenti.
La scelta è stata quindi quella di identi�care alcuni �loni portanti che
in questi anni abbiano assunto, anche se a livello diverso, il ruolo di settori
tematici de�niti e riconosciuti nella loro speci�cità, per ciascuno dei quali
fosse quindi possibile tracciare una linea evolutiva e, in de�nitiva, delineare
un percorso storico.
A completamento del percorso di ri�essione sono quindi state allestite,
durante il Convegno, alcune postazioni multimediali dalle quali era possibile
attivare brevi sequenze illustrative su alcuni di questi temi di ricerca: i più
155
M.P. Guermandi
rappresentativi degli ultimi decenni nel campo delle applicazioni informatiche
all’archeologia.
Tali sequenze costituiscono l’esito sintetico e multimediale di quell’esercizio di memoria e di storia che Paola Moscati, cui si deve non solo l’ideazione
ma �nanco la realizzazione pratica della sezione, ha richiesto ad un gruppo
di ex giovani studiosi che per comunanza di interessi e similarità anagra�ca
hanno maturato nel tempo legami di amicizia sopravvissuti all’evolversi – e
a volte esaurirsi – di progetti informatici in campo archeologico. Esperienze
e ricerche che comunque per tutti noi hanno rappresentato una porzione non
percentualmente indifferente della nostra vicenda professionale e sono quindi
divenuti, anche, in certa misura, un “affare personale”. Ci siamo quindi voltati
indietro a guardare e ripensare al percorso compiuto (non certo solo da noi),
ciascuno nell’ambito che più ha frequentato.
2. Percorsi diversi in una strada comune
Gli ambiti di analisi prescelti per questa panoramica delle applicazioni
riguardano le banche dati, i sistemi informativi territoriali, la multimedialità,
Internet, la catalogazione del patrimonio, i musei: certamente non tutti i temi
possibili, ma certo quelli che identi�cano dei settori a loro modo de�niti e
consolidati, punti fermi all’interno di una tassonomia che in questi anni si è
delineata, assieme a temi “trasversali”, quali la catalogazione e i musei, che
per la loro importanza hanno in�uito sull’evoluzione del rapporto informatica-archeologia.
Ogni scelta si presta, naturalmente, a distinguo e critiche. Come anticipato, l’obiettivo non era certo quello di presentare una esaustiva storia delle
applicazioni, eppure, anche nella forzata sintesi, il quadro che ne risulta ci
sembra non solo estremamente articolato, ma anche in grado di riproporre
criticamente alcuni dei grandi �loni della ricerca sia per quanto riguarda il
settore delle applicazioni informatiche al patrimonio culturale, che quello
della ricerca archeologica in senso lato.
La discussione collettiva in sede di Convegno ha credo confermato alcuni aspetti che a commento complessivo di questo tentativo di sintesi erano
stati sottolineati: la non linearità del percorso che nei diversi ambiti è stato
compiuto, come pure l’imperscrutabilità negli esiti e nelle accelerazioni. Non
si tratta, insomma, di una storia – o meglio di storie – tese verso un obiettivo
chiaro e costantemente perseguito, ma piuttosto di �ussi che hanno subito
divaricazioni, ripensamenti, fallimenti inaspettati e risultati imprevisti e dei
quali siamo stati – tutti quanti gli attori nel loro insieme – profeti spesso
smentiti.
Caratteristiche queste che connotano gran parte dell’evoluzione delle
scienze umane, ma che nel nostro caso sono forse ampli�cate dalla intercon156
Provando e riprovando: un quarto di secolo di applicazioni
nessione con la parallela evoluzione della disciplina informatica, anch’essa
caratterizzata da un andamento non lineare e tumultuoso (Paolini, in questo
volume) e per di più totalmente autonomo rispetto a quello della disciplina
archeologica, che ha costretto a ride�nizioni e ripartenze brutali e onerose
sul piano non solo scienti�co.
Ciò detto a scusante preventiva e pur nelle limitazioni, a volte distorsioni,
che operazioni di così drastica sintesi comportano, ci sembra però che riescano
ad emergere, nelle analisi compiute nei diversi settori sopra enunciati, alcune
aree di ricerca comuni così come elementi di criticità ricorrenti.
Uno di questi elementi critici che scorrono sotto traccia in queste
sintesi è proprio quello, cui si accennava sopra, del forte condizionamento
che l’evoluzione della ricerca archeologica ha subito da parte dell’evoluzione tecnologica, responsabile principale di quella mancanza di linearità
di molti dei nostri percorsi di ricerca. Non si è trattato, nel suo complesso,
di un rapporto au pair, ma al contrario spesso di una ricezione alquanto
passiva. Quasi mai gli archeologi sono stati in grado, non solo di condizionare, ma anche solo di governare il progresso degli strumenti tecnologici.
Fra le concause, oltre a quella determinante rappresentata dall’irrilevanza
economica del nostro settore, come di tutto il comparto culturale nel suo
complesso, vi è stata anche sicuramente la dif�coltà di organizzare uno spazio
condiviso, un linguaggio comune attraverso il quale comunicare coi nostri
partner informatici, dif�coltà che abbiamo impiegato molto tempo a superare
e che ancora persistono, se nel recente rapporto su ICT e CH curato dalla
Commissione Europea, questo è indicato come uno degli open problems1.
A commento complessivo si può inoltre aggiungere che la speranza
di arrivare con i computer a incidere non solo sull’archeogra�a, ma sull’archeologia come si augurava con ottimistica passione René Ginouvès ormai
molti anni fa (Ginouvès 1971) è andata in buona parte disattesa. A quasi
quarant’anni di distanza da quella sorta di manifesto, occorre dire che le
previsioni più “rivoluzionarie” di una scienza archeologica profondamente
rinnovata sul piano metodologico anche e soprattutto dalla relazione con
l’informatica hanno trovato scarsa rispondenza nella storia della disciplina:
se è vero, da un lato, che non si possa con�nare l’apporto della tecnologia
solo sul piano strumentale, d’altro lato quella stagione di ri�essione sulle
problematiche dell’organizzazione della conoscenza che il rapporto con la
computer technology avrebbe dovuto attivare sul piano epistemologico non
ha prodotto risultati sistemici. L’evoluzione, pur evidente e profonda, che
l’archeologia ha subito in questi anni ha molte radici, ma specialmente nel
1
Bulletin EU 7/8-2008, Europe’s cultural heritage at the click of a mouse: Progress on the
digitisation and online accessibility of cultural material and digital preservation across the EU.
157
M.P. Guermandi
campo dell’archeologia classica i mutamenti cui senza dubbio ha contribuito
l’utilizzo delle tecnologie informatiche si collocano piuttosto sul piano della
pratica e dell’organizzazione della ricerca che non su quello compiutamente
teorico.
Se non si può parlare di un mutamento di paradigma innescato dalle
computer technologies, ciò nondimeno, in taluni ambiti metodologici, si è
trattato di un rapporto che ha provocato radicali e innovativi ripensamenti.
Si pensi, per parlare in positivo (e tale constatazione risulta evidente dalla
lettura complessiva degli interventi di questa sezione) alla solidità ed ef�cacia
metodologica raggiunta nel tempo dalle ricerche e sperimentazioni ricollegabili alla standardizzazione e alla normalizzazione linguistica. Questo �lone
di studi, determinato in origine dalle esigenze di una tecnologia informatica
ancora assai rigida, ma tuttora attivo (D’Andrea 2006; Richards, in questo
volume), ha contribuito in maniera determinante ad un ripensamento delle
nostre pratiche linguistiche (e quindi cognitive), incentivando un processo di
disambiguamento complessivo degli strumenti di rappresentazione e ha, in�ne,
reso familiare ad un’intera generazione di archeologi un esercizio di metodo
tuttora valido che a volte è stato trasferito in altri contesti di ricerca.
In conclusione riteniamo che, pur con i limiti descritti, l’esplorazione che
si è tentata possa divenire il punto di partenza, l’incunabolo di un’operazione
critica di ri�essione più ampia soprattutto in termini quantitativi.
Il Convegno, con i tanti spunti emersi, ha indagato con complessità
d’analisi un’ampia area di temi e offerto una non ristretta panoramica dei
risultati – positivi e negativi – raggiunti in questi decenni. L’esercizio critico
compiuto nel complesso crediamo possa costituire il lievito fondamentale
di un ulteriore progresso conoscitivo e porsi come punto di partenza per un
percorso più approfondito, soprattutto in ampiezza, che il gruppo raccolto
attorno alla redazione di «Archeologia e Calcolatori» si augura di poter intraprendere nel prossimo futuro.
3. Internet: beati gli ultimi perché saranno i primi
La provocazione insita nel titolo, più che la rivendicazione di un primato intende in realtà sottolineare una recenziorità che è anche dif�coltà:
per quanto riguarda la rete, infatti, ultima nata dell’evoluzione tecnologica
cui si è applicata l’archeologia, si tratta di cercare una sintesi su pochi anni
di realizzazioni, che tali si possono ritenere due-tre lustri, quanti sono quelli
che annoverano un numero di progetti quantitativamente signi�cativo, tale
da raggiungere una “massa critica” suf�ciente per una elaborazione critica.
Dunque molto più limitato il lasso di tempo sul quale far scorrere lo
sguardo: più cronaca che storia quindi, per quella che è l’area di sviluppo più
recente fra quelle rappresentate nel nostro settore, ma che in compenso, in breve
158
Provando e riprovando: un quarto di secolo di applicazioni
volger d’anni è divenuta la cornice imprescindibile non solo dell’insieme delle
applicazioni informatiche, ma dell’intero �usso della ricerca archeologica.
Eppure non si è trattato certo di un amore a prima vista, ma anzi, in una
fase iniziale piuttosto di un rapporto di forte dif�denza, da parte degli archeologi, nei confronti di uno strumento considerato alla stregua di un semplice
“mezzo di trasporto” delle informazioni fra i tanti e non fra i più af�dabili:
come e spesso più che in altre discipline scienti�che, la rete per il suo carattere
aperto e non controllabile non offriva, agli esordi, garanzie paragonabili ad altri
strumenti di diffusione dei dati più tradizionali o consolidati, tanto da essere
utilizzata, specie per quanto riguarda gli ambienti accademici e istituzionali,
come un canale accessorio e destinato a veicolare contenuti divulgativi. Per
i primi tempi (ma per certi versi tale dif�coltà appare tuttora irrisolta) si è
stentato a porre in correlazione i tradizionali, usuali concetti di organizzazione
della conoscenza basati sulla gerarchia, linearità, centro e margine con i nuovi
concetti di multilinearità, relazione semantica, nodo e rete, ritenendo i primi
adatti alla sistematizzazione e alla ricerca, mentre i secondi quasi esclusivamente
alla comunicazione e alla didattica (Guermandi 1997, 2000).
Per questo breve resoconto i punti di riferimento temporali possono
essere identi�cati nelle occasioni di confronto collettivo rappresentate dai
convegni internazionali (su tutti gli International Symposia on Computing
Archaeology e, più continuativamente, i CAA) nei quali la de�nizione delle sezioni nei programmi veniva ad essere anche una prima, tentativa tassonomia di
un settore, il nostro, da sempre alla ricerca di mappe cognitive consolidate.
Un’ancora cronologica può essere probabilmente recuperata nel 1995: nel
III Convegno Internazionale di Archeologia e Informatica di Roma (Moscati
1996), per la prima volta in manifestazioni di questo livello, Internet si affacciava fra gli argomenti titolari di una speci�ca sessione. Non in via esclusiva,
comunque; l’etichetta complessiva di “diffusione delle informazioni” era difatti
così speci�cata: collegamenti in rete, musei e didattica, pubblicazioni. Eppure,
in quella che allora era in fondo una sessione “residuale” trovavano spazio, non
a caso, oltre una dozzina di progetti, molti dei quali non si rifacevano esplicitamente (e in alcuni casi neanche potenzialmente) ad Internet, ma in cui il �l
rouge era rintracciabile nella comune presenza di alcuni elementi già avvertiti
come caratterizzanti: la multimedialità, le potenzialità didattiche, l’editoria
elettronica, la fruizione allargata dei corpora e dei grandi archivi elettronici.
Se, a confronto, andiamo a veri�care come negli ultimi CAA2 siano stati
classi�cati i progetti che riguardano Internet ci accorgeremo che la rete è del
tutto scomparsa come termine di categorizzazione, a riprova di quel carattere
di scontato strumento d’uso quotidiano assunto dal web in questi anni.
2
http://www.caa2007.de/; http://www.caa2008.org/prog.html. Analogamente, anche la
rubrica di «Archeologia e Calcolatori», che delineava una breve panoramica delle applicazioni
archeologiche sul web, è stata interrotta nel 2003: Guermandi 2000, 2003.
159
M.P. Guermandi
In pochi anni, quindi, la situazione è rapidamente mutata innanzi
tutto perché l’esplosione su scala globale dell’uso del web ha provocato la
produzione e l’accesso ad una tale quantità di materiali in rete, per di più
di alto livello scienti�co, da rendere impossibile continuare ad etichettare
come “accessorio” l’uso del web fra le fonti documentali e, tout court, fra gli
strumenti di lavoro.
I siti illustrati di seguito ad esempli�cazione dei temi analizzati (cfr. infra
§ 5.1 e 6.1), oltre che per le sempli�cazioni dovute alla sintesi, evidenziano
una caratteristica della rete sulla quale probabilmente non abbiamo ancora
suf�cientemente ri�ettuto: la quasi completa astoricità. Internet è il luogo
dell’eterno presente, in cui il passato viene semplicemente annullato. Così “fare
storia” su Internet è impresa di grande dif�coltà e si tratta di un problema
metodologico che in una disciplina il cui progresso si fonda sul pregresso
rischia, nel tempo, di avere un impatto fortemente negativo.
4. Rapporti difficili…
Con le dif�denze del mondo accademico si è scontrato, invece, soprattutto il settore delle pubblicazioni on-line che, almeno rispetto alle potenzialità
evidenti rappresentate da talune caratteristiche della rete (ipertestualità e
multimedialità, su tutte), ha subito un ostracismo de facto che ne ha ridotto
fortemente l’impatto e che ancora oggi non ha permesso uno sviluppo consistente dell’editoria elettronica sul web, nel senso più completo del termine
(Guimier-Sorbets, Fromageot-Lanièpce 2006).
«Internet Archaeology»3 (Heyworth, Ross, Richards 1996; Guermandi 1997) è, dal 1996, l’electronic journal che, quasi in solitudine, continua a dimostrare in che cosa consista “pubblicare” sul web una ricerca
archeologica, sfruttando appieno le caratteristiche di ipertestualità e allargando il concetto di materiale pubblicato all’insieme degli archivi di dati sui
quali si basa la ricerca. «Internet Archaeology» rappresenta l’esempio di un
progetto pensato per la rete e per questo compiutamente innovativo. Eppure,
pur avendo conquistato un proprio spazio e garantito una continuità (25
numeri pubblicati), è rimasto un esempio isolato e non è riuscito ad innescare
un effetto di trascinamento emulativo.
Al contrario, invece, seppur con tempi rallentati, l’editoria elettronica
ha trovato un canale di espansione attraverso i siti che illustrano i prodotti
cartacei, in un primo tempo pensati come semplice vetrina pubblicitaria di
riviste tradizionali, ma che negli ultimi anni hanno cominciato ad offrire servizi
più ampi: indici, abstract e selezioni di articoli, la cui versione elettronica è
però la semplice trasposizione in forma digitale dell’edizione cartacea.
3
160
http://intarch.ac.uk/.
Provando e riprovando: un quarto di secolo di applicazioni
In questo ambito non poteva mancare «Archeologia e Calcolatori»4
che ha iniziato recentemente una nuova politica editoriale per ampliare la
diffusione dei propri contenuti anche sul web, consentendo il libero accesso
ad oltre un centinaio di articoli pubblicati sui numeri della rivista a partire dal
1998 ed indicizzati attraverso il protocollo OAI (Barchesi 2005; Moscati,
Barchesi, Pasquini 2006).
La soverchiante quantità di dati che rappresenta la cifra distintiva della
rete ha costituito, come noto, una s�da per l’elaborazione di strumenti in
grado di governare l’overloading informativo che minacciava �n dall’inizio
la fruibilità ottimale del web. Fino a una decina di anni fa, una delle soluzioni
privilegiate sembrava rappresentata dai motori di ricerca specialistici o Lase
(Limited area search engines): nati �n dal primo periodo di applicazione della
rete al nostro ambito, hanno conosciuto una buona diffusione nel decennio
scorso, quando sembravano uno dei pochi strumenti ef�caci per il recupero
mirato dell’informazione, ma si sono scontrati, negli anni successivi, da un
lato con le dif�coltà di aggiornamento, dovute all’aumento esponenziale delle
risorse presenti in rete, dif�cili da controllare e censire per siti gestiti per lo
più da équipes dotate di risorse limitate e spesso volontarie, caratteristiche
che li hanno spesso condannati a rapide obsolescenze.
Fra gli esempi più longevi si può citare il progetto Perseus5: attivo, con
alterna fortuna, dal 1987 a cura del Department of the Classics della Tufts
University e giunto alla sua quarta versione, si è negli anni trasformato da
archivio di risorse specializzato nel campo della klassische Altertumswissenschaft, ad una sorta di digital library.
A decretare il superamento dei key sites è in�ne intervenuta, in questi
ultimi anni, la dirompente espansione, dal punto di vista quantitativo e di
potenza degli algoritmi di ricerca, dei motori di ricerca generalisti, Google
su tutti, il cui servizio Scholar6, che effettua la selezione solo sulla base di
bibliogra�a scienti�ca, ha probabilmente de�nitivamente chiuso lo spazio per
altre risorse di questo tipo.
5. ...e incontri fortunati
Per quanto riguarda invece i “casi di successo”, sempli�cando, i due
settori che hanno prima e meglio di altri usato le potenzialità della rete sono:
i grandi corpora informatizzati da un lato e le istituzioni museali dall’altro.
Nel primo caso la rete ha ereditato e ampli�cato un intenso e complesso lavoro di informatizzazione svolto, in certi casi, �n dai primi anni ’70 e
http://soi.cnr.it/archcalc/.
http://www.perseus.tufts.edu/.
6
http://scholar.google.com/.
4
5
161
M.P. Guermandi
che solo attraverso una espansione la più ampia possibile poteva trovare un
canale adeguato non solo di diffusione, ma anche di produzione e aggiornamento oltre che di consolidamento complessivo. In questo ambito la rete
ha �nito per essere un �ltro di qualità e per selezionare i progetti più solidi
culturalmente e organizzativamente e al contempo ha evidenziato i vantaggi
di questi strumenti esplicitandone le potenzialità in termini di ampiezza e
signi�catività della ricerca.
5.1 Ad esempio (1)
Il doppio esempio riportato testimonia esattamente questo carattere di
selezione quasi darwiniana operata dalla rete: si tratta di un progetto di informatizzazione che coinvolge due dei maggiori corpora di reperti archeologici,
nati come progetti autonomi. Si tratta del Corpus Vasorum Antiquorum7, il
più vecchio progetto di catalogazione di materiale archeologico intrapreso
dall’Union Académique International, che nel 2000 ha commissionato al
Beazley Archive, con la sponsorizzazione del Getty Grant Programme, l’informatizzazione dell’insieme del materiale pubblicato a stampa del CVA,
rendendo possibile, oltre alla visualizzazione delle pagine dei singoli fascicoli,
l’elaborazione di ricerche sul più importante corpus ceramico attuale.
Per quanto riguarda invece il Beazley Archive8 (Kurtz, in questo volume), il progetto dell’Università di Oxford, iniziato nel 1979 come informatizzazione degli archivi di Sir John Beazley sulla ceramica attica, si è ampliato
negli anni arricchendosi anche di materiale iconogra�co a corredo dei vasi
schedati (oltre 150.000 al 2007).
L’insieme dei due progetti esempli�ca in modo chiarissimo quanto vantaggio in termini di impatto, di consolidamento e ampliamento dell’area di
ricerca abbia potuto portare la pubblicazione on-line a uno dei �loni di studi
e ad alcune delle istituzioni di più consolidata tradizione accademica.
6. Oltre il museo reale
I musei, dal canto loro, istituzioni multimediali per eccellenza, hanno
trovato nella rete uno strumento di espressione ideale. Anche se va ricordato
come già nelle realizzazioni dell’editoria multimediale erano state compiute
molte interessanti sperimentazioni, è attraverso alcuni siti web museali che
queste esperienze sono state ereditate ed esaltate nel settore non solo archeologico, ma più allargato dei beni culturali, con la sperimentazione di strategie
comunicative innovative perché pensate per un uso più compiutamente interattivo e con un impiego generalizzato della multimedialità e intertestualità.
7
8
162
http://www.cvaonline.org/cva/projectpages/CVA1.htm.
http://www.beazley.ox.ac.uk/pottery/default.htm.
Provando e riprovando: un quarto di secolo di applicazioni
Fin dai primi anni ’90 (Antinucci 1998) cominciano così, soprattutto
a partire dall’area anglosassone, ad essere elaborati siti in cui si propone una
differenziazione del livello comunicativo a seconda della tipologia di utente
(adulto/bambino, generico/specialista). È poi soprattutto attraverso taluni siti
museali che si è cominciata a sperimentare in modo più organico ed evoluto
l’interazione fra diverse applicazioni tecnologiche: così per esempio ormai
molti siti non solo museali, ma di istituzioni di ricerca varie presentano un
accesso diversi�cato e su vari livelli ai loro dati, attraverso la possibilità di
ricerca su basi dati o GIS e, al contempo, permettono la consultazione on-line
di prodotti multimediali statici o dinamici che sono il risultato di tecniche di
ricostruzione 3D, o ancora di veri e propri “kit” di materiali digitali scaricabili,
mirati a soddisfare esigenze o classi di utente differenziate.
L’evoluzione dei siti ha ben presto trasformato queste realizzazioni da
versioni elettroniche più o meno complesse del museo reale a prodotti autonomi
pensati non solo ad integrazione del percorso museale, ma a volte con �nalità
complementari. Da questo tipo di realizzazioni alla creazione di veri e propri
musei virtuali, in tutte le accezioni del termine (Moscati 2007), il passo è stato
breve e attualmente sono fruibili in rete innumerevoli declinazioni del sito
museale che vanno dal semplice sito “pubblicitario” di un museo reale al museo virtuale con possibilità di accesso a prodotti multimediali di vario genere.
Tale varietà non signi�ca però una esplorazione completa delle potenzialità
offerte dalle ICT (Antinucci 2007): ancora non compiuto appare, se non in
rarissimi esempi, quel mutamento in termini di modalità di apprendimento
cognitivo che, grandemente agevolato dalle potenzialità insite nelle networking
technologies, consentirebbe alla componente iconico visiva delle nostre discipline di espletare quel ruolo determinante a livello di trasmissione culturale
che le compete (Guermandi 2004).
Ancora, un’esperienza comunicativa ben più soddisfacente di quella
ottenuta nella maggior parte dei nostri musei – archeologici e non – si potrà
attingere attraverso l’evoluzione dalle forme di interattività attuali (spesso
ancora troppo banali e scarsamente coinvolgenti) alla vera e propria elaborazione di materiali da parte dall’utente. Solo quando, insomma, sarà compiuto
in maniera massiccia il passaggio da una serie più o meno articolata di digital
libraries (che forniscono risposte e per questo, come affermava Picasso, sono
sostanzialmente inutili) a musei virtuali veri e propri (che stimolano domande),
i musei torneranno ad essere macchine cognitive vere e proprie.
6.1 Ad esempio (2)
Quale esempio di museo virtuale di grande impatto comunicativo,
si può citare Romans are coming9, il sito che raccoglie la documentazione
9
http://www.theromansarecoming.com/.
163
M.P. Guermandi
multimediale, in varia forma utilizzabile, realizzata in occasione dell’esposizione Roman Art from the Louvre, allestita presso l’Indianapolis Museum
of Art dal settembre 2007 al gennaio 2008, vincitore di uno dei premi della
penultima edizione del Museums and the web. Si tratta della manifestazione
più consolidata a livello internazionale, organizzata con cadenza annuale dal
1997 dalla società di ricerca americana Archives and Museum Informatics10
che, con qualche concessione, peraltro gradevole, alla spettacolarizzazione
hollywodiana (“the winner is…”), costituisce ormai il forum di discussione
più avanzato per quanto riguarda le sperimentazioni in rete dei musei di tutto
il mondo e la vetrina più aggiornata delle elaborazioni più innovative.
Non più solo siti di musei reali, quindi, ma realizzazioni, come questa,
in cui tramite il ricorso a materiali video o multimediali impostati su tecniche
comunicative di ambito pubblicitario si ottiene una grande ef�cacia didattica e
comunicativa. Romans are coming offre anche nuclei informativi pensati come
trailer cinematogra�ci che evidenziano una visione della romanità diversa e
permeata di un immaginario �lmico (ma parliamo sempre di prodotti di buon
livello scienti�co), una visione che attraverso il tradizionale mezzo cartaceo
non emergerebbe con tanta evidenza: in questo modo il web riesce a restituire
non solo un racconto coinvolgente sul mondo romano, ma anche lo sguardo
speci�co che su quella storia possiede una parte dell’Occidente (il West): è il
locale che riaf�ora attraverso il mezzo della globalità per eccellenza.
7. Le insidie di un promettente futuro
In generale questa commistione di tecnologie informatiche all’interno del
web, resa senz’altro più agevole dalla contemporanea evoluzione delle stesse,
sta producendo effetti indubbiamente positivi sia sull’accrescimento delle
potenzialità della rete, sia per quanto riguarda la diffusione degli strumenti
informatici speci�ci all’interno della disciplina, consentendone una “familiarizzazione” impensabile attraverso i canali più tradizionali. E però, d’altro lato,
questa fase appare ancora lontana dall’aver espresso a pieno le potenzialità
di sviluppo forse perché maturata più come sperimentazione un po’ casuale
che non come risultato di un indirizzo di ricerca metodologico speci�co. Si
intende dire che spesso l’utilizzo delle varie applicazioni all’interno di uno
stesso sito appare il frutto di ampliamenti per addizione o giustapposizione
più che come il risultato di una progettazione mirata ad utilizzare in modo
sinergico applicazioni diverse.
D’altro canto, quello che viene sentito come un limite è al tempo stesso
una caratteristica vincente della rete che forse stentiamo a percepire in tutta
la sua potenzialità innovativa: la capacità cioè di attivare connessioni non
10
164
http://www.archimuse.com/index.html.
Provando e riprovando: un quarto di secolo di applicazioni
tanto come risultato di uno schema pre�ssato, ma operando per “contagio”,
ride�nendo le proprie mappe cognitive in tempi rapidissimi e in direzioni
non preordinate. Le tecnologie della rete sono, per loro natura, asistemiche,
ma sono in grado, con le molteplici interrelazioni che innescano, di creare e
disvelare strutture “altre”, non come l’effetto ricercato di un disegno aprioristicamente concepito, ma come perenne evoluzione, riorganizzazione, ride�nizione di un insieme di “pezzi” che attraverso tali meccanismi si ampliano
nei loro signi�cati, si modi�cano essi stessi e modi�cano la rete in cui entrano
a far parte, a volte con esiti imprevisti.
Così anche per quanto riguarda le applicazioni archeologiche, come in
altri settori, l’evoluzione tecnologica e culturale in senso ampio ha condotto
spesso ad esiti insospettati e ha annullato problemi in una prima fase considerati di complessa soluzione, per evidenziarne altri magari sottovalutati in
un primo tempo.
Per quanto riguarda il primo caso, le networking technologies hanno ad
esempio contribuito grandemente a ride�nire radicalmente il problema degli
standard e della normalizzazione dei dati (Guermandi 1999; D’andrea 2006;
Signore, in questo volume), nel senso di provocare un deciso spostamento
della ricerca dagli standard di rappresentazione a quelli di contenuto, da un
lato e, successivamente, lo slittamento del problema in termini di interoperabilità fra i vari sistemi (Guermandi 2003); in questa direzione, in connessione
con l’evoluzione denominata web 2.0, la nuova frontiera delle categorizzazioni di informazioni sembra concentrarsi sull’area di ricerche collegata al
Semantic Web e alle “folksonomie” (Quintarelli 2005). Si tratta di una
metodologia utilizzata da gruppi di utenti che collaborano spontaneamente
per organizzare le informazioni disponibili sulla rete: come e più che nel caso
della interoperabilità, vi sarebbe, in questo caso, un completo ribaltamento
di prospettiva, nel senso che la categorizzazione sarebbe operata non dal
produttore, ma dall’utente delle informazioni e quindi solo a posteriori e
secondo criteri totalmente �essibili.
Ad esempli�cazione, invece, di quei problemi dei quali si è sottostimata
l’incidenza, si può senz’altro citare il multilinguismo. Il carattere universale
della rete ha aperto da subito la discussione sul canale linguistico: l’uso della
lingua inglese quale esperanto ormai ampiamente riconosciuto, come pure il
ricorso a siti multilingue hanno solo s�orato il ben più profondo problema
del multiculturalismo. Non è semplicemente presentando traduzioni in cinese
o arabo dei nostri siti che potremo elaborare una ef�cace comunicazione e
trasmissione di conoscenza nei confronti di culture non occidentali: ciò che si
è ottenuto �nora rappresenta quindi spesso una drammatica banalizzazione
(se non addirittura distorsione) dei contenuti che potrà essere superata solo
attraverso un’interazione non semplicemente tecnologica, ma culturale in
senso profondo.
165
M.P. Guermandi
Folksonomie, interoperabilità, multiculturalismo: ci troviamo, con queste sperimentazioni, peraltro già attive in altri settori disciplinari, all’interno
del mainstream denominato web 2.0, quella fase della rete talvolta esaltata
come un vero e proprio mutamento di paradigma (O’reilly 2005), ma che
in realtà può al momento essere de�nita più semplicemente come l’evoluzione
che consente un più maturo livello di interazione sito-utente e che costituisce
il passaggio al social computing in senso compiuto. Siamo, cioè, in una fase
in cui l’impiego collaborativo della rete è in grado non solo di far interagire
servizi e strumenti informatici, ma di sfruttare le risorse creative che il suo
uso allargato consente di ampli�care a dismisura. In questo senso si è parlato
di una vera e propria intelligenza collettiva che la rete sarebbe in grado di
attivare, anche se i non pochi critici del web 2.0 (Critical perspectives 2008)
tendono piuttosto a leggervi una crescente merci�cazione dei contenuti digitali accompagnata dal tentativo perdurante e carsico, da parte di istituzioni
a vario livello, di ingabbiare quel “felice caos comunicativo”11 che costituisce
a tutt’oggi la cifra distintiva di Internet.
A questi, si uniscono poi i detrattori ancor più radicali delle caratteristiche del web nel loro complesso, fra i quali sicuramente il più noto e combattivo è quel Ted Nelson inventore del progetto Xanadu12, il primo sistema
ipertestuale di cui il web costituirebbe una cattiva, dannosa imitazione in
quanto ancora legato a concetti di gerarchia, unilinearità, monodirezionalità
e �loso�camente succube del media cartaceo che riproporrebbe in versione
tecnologica senza superarlo (Nelson 2009).
Sia l’evoluzione del web 2.0 che i progetti collegati a questi ultimi �loni
di ricerca ancor più innovativi rappresentano una s�da senz’altro affascinante
anche perché coinvolgono non tanto l’aspetto tecnologico, quanto quello teorico �loso�co della scienza dell’informazione da un lato e dall’altro immettono
prepotentemente, fra gli elementi principali in gioco, quello sociale. Si tratta,
come si può intuire, di territori ancora da esplorare e che appaiono alquanto
lontani non solo dalle sperimentazioni in atto nel nostro settore, ma anche
poco frequentati sul piano della semplice discussione culturale.
D’altro canto se qualcosa abbiamo imparato dopo alcuni lustri di complesso e spesso frustrante esercizio di ricerca nell’ambito delle applicazioni
informatiche alla nostra disciplina, è che sono spesso i tragitti più imprevisti
a condurre agli approdi più grati�canti.
E in�ne, in questa fase della storia della nostra disciplina in cui è la
stessa archeologia che vive, specie in Italia, un momento di confronto e di
11
L’espressione è tratta da una famosa sentenza del tribunale di Filadel�a, in difesa delle
libertà di espressione in rete.
12
http://xanadu.com/. Il progetto, evoluto nel recente sistema ZigZag, è tuttora attivo.
166
Provando e riprovando: un quarto di secolo di applicazioni
ride�nizione sul piano culturale e sociale assai complesso e che ci vede spesso
su posizioni difensive, non sarebbe inutile accettare la s�da e proporsi non
solo come utenti �nali della rete, ma come attori in grado di portare una visione diversa, seppur settorialmente delimitata, di quella che è la trasmissione
della conoscenza.
Maria Pia Guermandi
IBC - Istituto per i Beni Artistici, Culturali e Naturali
Regione Emilia Romagna
BIBLIOGRAFIA
Antinucci F. (ed.) 1998, Musei virtuali, «Sistemi intelligenti», 10, 2, 159-306.
Antinucci F. 2007, The virtual museum, in Moscati 2007, 79-86.
Barchesi C. 2005, «Archeologia e Calcolatori»: nuove strategie per la diffusione di contenuti
in rete sulla base dell’OAI-PMH, «Archeologia e Calcolatori», 16, 225-241.
Critical perspectives on web 2.0, «First Monday», 13, 3, 2008 (http://www.uic.edu/htbin/
cgiwrap/bin/ojs/index.php/fm/issue/view/263/showToc/).
D’Andrea A. 2006, Documentazione archeologica, standard e trattamento informatico, Budapest, Archaeolingua.
Ginouvès R. 1971, Archéographie, archéometrie, archéologie. Pour une informatique de
l’archéologie gréco-romaine, «Revue Archéologique», 93-126.
Guermandi M.P. 1997, Presi nella rete: i siti archeologici in Internet, «Archeologia e Calcolatori», 8, 151-169.
Guermandi M.P. 1999, Dalla base dati alla rete: l’evoluzione del trattamento dei dati
archeologici, «Archeologia e Calcolatori», 10, 89-99.
Guermandi M.P. 2000, L’archeologia in rete. Internet e multimedia, «Archeologia e Calcolatori», 11, 391-395.
Guermandi M.P. 2003, Internet e multimedia, «Archeologia e Calcolatori», 14, 336-339.
Guermandi M.P. 2004, Nuovi linguaggi e “vecchie tecnologie”: comunicare la conoscenza
archeologica attraverso la rete, «Archeologia e Calcolatori», 15, 483-496.
Guimier-Sorbets A.-M., Fromageot-Lanièpce V. 2006, Les ressources d’information archéologiques sur Internet: le point de vue de l’utilisateur, «Archeologia e Calcolatori»,
17, 7-24.
Heyworth M., Ross S., Richards J. 1996, An international electronic journal for archaeology,
in Moscati 1996, 1195-1206.
Moscati P. (ed.) 1996, Atti del III Convegno internazionale di Archeologia e Informatica
(Roma 1995), «Archeologia e Calcolatori», 7.
Moscati P. (ed.) 2007, Virtual Museums and Archaeology. The Contribution of the Italian
National Research Council, «Archeologia e Calcolatori», Supplemento 1.
Moscati P., Barchesi C., Pasquini R. 2006, Archeologia e Calcolatori and the OAI-PMH,
Poster Session of International Conference Museums, Libraries and Archives online:
MICHAEL Service and Other International Initiatives (Roma 2006).
Nelson T. 2009, Geeks Bearing Gifts, Sausalito CA, Mindful Press.
O’Reilly T. 2005, What is Web 2.0. Design patterns and business models for the next generation of software (http://oreilly.com/web2/archive/what-is-web-20.html).
Quintarelli E. 2005, Folksonomies: power to the people (http://www.iskoi.org/doc/folksonomies.htm).
167
M.P. Guermandi
ABSTRACT
In the �rst part, the paper introduces the section that collects historical syntheses of
some of the most relevant issues related to technological applications in archaeology. Databases,
GIS, multimedia applications, cataloguing activities of archaeological heritage, museums, and
Internet are the �elds chosen to illustrate more than 25 years of research, projects, realizations.
The paper stresses common criticisms and recurrent dif�culties in these sectors of research,
but also important results and achievements for archaeology on the whole.
In the second part, the paper brie�y discusses the relationship between Internet and
archaeology. Web applications in archaeology started in the early 1990s. Initially, archaeologists
were very suspicious of web reliability: Internet was a useful tool for popularization purposes,
not for scienti�c research. The paper discusses reasons for the failure of some archaeological
applications – for example electronic publishing and limited area search engine – and success
of others: museum web sites above all, with their effective use of visual and interactive web
technologies. Nowadays Internet is an almost unavoidable tool for every type of archaeological
research and it seems to have become the comprehensive frame in which all other technological applications are expressed. Internet technologies could introduce a new communication
structure in archaeological research with the use of interactivity and hypermedia. The last
challenges in ICT are the so called Web 2.0, social computing and a radically innovative vision
of hypertext structure: these research �elds could change the way of archaeological culture
communication and knowledge transmission.
168
Archeologia e Calcolatori
20, 2009, 169-177
PUNTO DI NON-RITORNO
(Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali)
«… si inganna sui lati migliori chi fa solo
l’inventario degli oggetti ritrovati e non sa
indicare nel terreno attuale esattamente il luogo
in cui si conservava l’antico…»
Benjamin 2002, 907
1. La formazione del quadro
A buon diritto, dopo un trentennio di applicazioni informatiche, nel
settore geo-topogra�co dell’archeologia ci si potrebbe aspettare un briciolo di
uniformità, o almeno un tentativo di sistematizzazione uni�cante, conseguente
alla naturale sedimentazione delle metodologie applicative. Un’auspicabile
meta che, a chi si è occupato di cartogra�a archeologica negli anni iniziali
della informatizzazione, viene in mente ogni volta che apre Google Earth, ad
esempio, senza poter trattenere un sorriso al ricordo dei vecchi problemi di
compatibilità di formati gra�ci, sistemi di coordinate, datum... Ma in tutto
il settore archeologico si fatica a individuarla, questa uniformità, se non in
una progressiva stabilizzazione di alcune branche tematiche generali, più
o meno coincidenti con quelle sinteticamente enunciate nel sottotitolo; le
stesse, peraltro, delineatesi già alla metà degli anni ’80, e che allora erano
sembrate le rami�cazioni iniziali di una primitiva fase epistemologica corale,
ma che, forse, banalmente traslavano sul piano della strumentazione tecnica
e, in parte, concettuale, i percorsi paralleli ante-informatizzazione delle varie
dottrine archeologiche e, soprattutto, i loro oggetti-di-studio e le rispettive
scale di interesse.
Dif�cile sintetizzare la complessità delle matrici culturali che erano alla base
di quelle scelte in tal modo “obbligate”. Si potrebbe in generale osservare che il
settore italiano delle scienze archeologiche investite da pulsione computazionale
in chiave, diciamo, geogra�ca, da alcuni (Isabella, Salzotti, Valenti 2001)
posto sotto accusa per una “certa arretratezza” rispetto al coevo panorama
europeo, rispose al contrario con estrema vivacità alle sollecitazioni pratiche
– ma anche intellettuali – offerte dall’informatica e dalle tecnologie avanzate
in genere, ponendosi talvolta, e in questo settore in particolare, decisamente
all’avanguardia. Semmai è da notare come i maggiori problemi siano derivati
dall’estremo frazionamento delle iniziative, rimasto snodo irrisolto dei successivi sviluppi: dopo una partenza positivamente orientata da una diversi�cazione
moderata ma metodologicamente signi�cativa, che arricchiva il fermento “tecnologico” delle scienze umane con lo spessore storico e la grande tradizione
169
G. Azzena
del metodo e della ricerca italiani, nel giro di un decennio si erano già perse
quelle �la che avrebbero potuto trasformare alcune vette di qualità, alte ma
distanti, in un approccio sistematico e soprattutto in una base conoscitiva
comune e – considerate le forze in campo – potenzialmente completabile nel
giro di qualche anno. Occorre tenere presente, per il caso particolare, che non
erano solo le potenzialità uni�canti offerte dal supporto informatico, ma la
natura stessa dell’approccio geogra�co e cartogra�co alla archeologia e alla
storia delle città e dei territori, ad indicare come prima meta una “copertura
integrale” della conoscenza topogra�ca di base. La stessa vagheggiata �n dal
1870, ma resa �nalmente gestibile dalle potenzialità di un unico Sistema Informativo Territoriale Archeologico nazionale.
Il riferimento alle diversi�cazioni di quelle prime fasi sperimentali aiuta
comunque nella comprensione del variegato panorama attuale: dagli Atti dei
primi Convegni che iniziavano ad abbracciare il tema delle tecnologie avanzate
applicate al rilevamento e alla cartogra�a archeologica (dal 1987 al 1990),
confrontati con il “punto della situazione” contenuto in Moscati 1998 (cfr.
anche Francovich 1999), e con ciò che oggi è possibile conoscere uf�cialmente, sembra che la tripartizione dei �loni basilari (cartogra�a numerica,
GIS/SIT, analisi spaziale) per quanto arti�ciosa e riduttiva, sia ancora, nel
modo che vedremo, operante.
Con un forte, insolubile debito verso il comparto della progettazione
architettonica ma soprattutto verso le “prime linee” dell’innovazione, cioè
il design e la gra�ca avanzata (Bertin 1977), il primo impulso alla sperimentazione, per questioni eminentemente tecniche, venne dal CAD e dalla
cartogra�a numerica: su scale inizialmente di dettaglio – dunque tipicamente
urbane, se non “di scavo” – si palesò subito come davvero dirimente tutta
la potenzialità del carattere “numerico” di queste singolari “carte”: la non
incidenza del fattore di scala e, insieme, la possibilità di associare ad ogni
primitiva gra�ca che compone il disegno due formidabili comprimari conoscitivi: una descrizione alfanumerica, ed un “livello logico” differenziabile a
piacimento. Se lo sviluppo della tecnologia ha fatto sì che sulla cartogra�a
numerica si potessero sviluppare l’approccio, prima, e poi la “�loso�a” GIS,
ha lasciato immutata la valenza di quegli attributi primari: ne sono dipese,
e ne dipendono tuttora, quelle ricerche che fanno della descrizione gra�ca a
qualsiasi scala il loro nucleo funzionale. L’ampio settore del rilevamento e della
ricostruzione architettonica, e quelli della fotorestituzione, della modellazione
3D, del posizionamento dei siti e dell’implementazione dei grandi apparati
informativi delle “Carte Archeologiche” a livello urbano, comprensoriale,
regionale e nazionale, possono essere considerati in logica discendenza di
quelle prime applicazioni di cartogra�a numerica.
Il passaggio alla “�loso�a” GIS, in un certo senso �liazione naturale
della cartogra�a numerica in esito tecnico all’aumento esponenziale della
170
Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali)
“vigoria” dei processori, in realtà ha coinvolto in profondità la sfera metodologica delle discipline interessate. In primo luogo rendendo possibile la
riattivazione dell’approccio mentale catalogra�co (peculiare degli archeologi),
con straordinario af�namento delle potenzialità di ricerca, comparazione
e postelaborazione dei dati alfanumerici e della loro condivisione (�no al
webGIS), ma conseguente recessione dell’impianto di tipo topogra�co, che
aveva appena avuto il tempo di affermarsi; in secondo luogo costringendo
gli archeologi ad un confronto multidisciplinare; in terzo luogo fungendo da
passepartout per l’inserimento del livello archeologico nelle buone pratiche
di piani�cazione: chi è riuscito a coglierne i frutti, tra non poche dif�coltà,
ha certamente compiuto un grande passo in avanti, soprattutto nel quadro
della tutela preventiva (Guermandi 2001).
Una volta chiarita la differenza (Azzena 1997) tra “costruire” un Sistema Informativo Territoriale che comprenda al suo interno anche la conoscenza
storico-archeologica del territorio, ed “usare” un applicativo GIS per elaborare,
ad esempio, un modello insediamentale antico, è possibile inquadrare anche
l’ultimo dei tre settori enunciati: quello delle analisi spaziali. È ben chiaro che i
Sistemi Informativi, in quanto “produttori di informazioni basate su dati” sono
di per sé, e per costruzione, analizzatori spaziali. Tuttavia, nella distinzione
proposta, si guarda piuttosto alla �nalità ultima della ricerca che alla scelta
degli strumenti utili alla stessa. Il �lone delle analisi spaziali (e, più in generale, della modellizzazione e della simulazione, con funzione predittiva anche
del “rischio” archeologico) si sviluppa assai precocemente (Moscati 1987),
procedendo in parallelo all’evoluzione della computer graphics applicata alle
“mappe di distribuzione”, ma anche allo sviluppo, ovviamente indipendente
dall’archeologia, delle indagini di tipo matematico-statistico applicate alla
geogra�a, all’ecologia, alla sociologia urbana, etc. A prescindere dalla scala
e dall’oggetto di indagine, è qui l’approccio “deduttivo” a caratterizzarne da
sempre l’impostazione, orientandola verso lo sviluppo (o l’utilizzazione) di
applicativi per i quali il sistema di riferimento alla cartogra�a operativa non
costituisce una pregiudiziale, con un conseguente percorso evolutivo parallelamente indipendente da quello dei SIT.
2. SIT archeologici: lo stato delle cose
Una sorta di “punto della situazione” è stato abbozzato anche a livello
uf�ciale. Il 24 gennaio 2007, infatti, l’allora Ministro dei Beni Culturali,
Francesco Rutelli, nomina una Commissione, signi�cativa già nel titolo:
Commissione paritetica per la realizzazione del Sistema Archeologico delle
città italiane e dei loro territori. Presieduta da Andrea Carandini, la Commissione (della quale anche chi scrive ha fatto parte) metteva insieme le due
amiche-nemiche tradizionali componenti dell’archeologia italiana: Università
171
G. Azzena
e Soprintendenze. Si scioglie dopo circa un anno di lavoro, in coincidenza con
la caduta del Governo Prodi, non prima di aver consegnato una Relazione
Finale (ora consultabile in Carandini 2008, 199-207) che il Ministro uscente
invia, in data 11 aprile 2008, a tutte le Direzioni Regionali MIBAC e a tutte
le Soprintendenze Archeologiche. Senza entrare nel merito delle indicazioni
operative e delle considerazioni tecnico-scienti�che contenute in quel documento, ciò che qui segnatamente interessa è il punto di partenza che informò
tutti i ragionamenti della Commissione: l’acclarata assenza di coordinamento
tra le varie attività di ricerca sul campo �nalizzate alla creazione di supporti
informativi che, per sempli�care, chiameremo “geogra�ci”, a tutti i livelli
di scala; nonché la – conseguente – formazione di un “arcipelago” di GIS a
tematismo archeologico.
Il proliferare di orticelli autarchici per cui, in funzione di 1:1, a singola
ricerca archeologica corrisponde singolo GIS, ha prodotto centinaia di censimenti archeologici, di SIT e di GIS, di carte urbane e territoriali, del rischio,
dei pieni, dei vuoti; e Atlanti, ricostruzioni 3D, modelli predittivi e, perché
no, anche qualche ottimo strumento operativo. Ma ciò che si desume con
disarmante chiarezza è soltanto che, tra di essi, non esiste alcuna interazione:
e non tra Regione e Regione (sarebbe già qualcosa), ma tra Laboratori di uno
stesso Dipartimento, tra il Comune e la Frazione, tra cattedrale e parrocchia.
Dopo il fallimento del primo tentativo di Ruggero Bonghi (1870!) di portare
a compimento un “catasto delle presenze archeologiche nel territorio nazionale” coordinato centralmente, nessuno – ammette la Commissione ministeriale – è in seguito riuscito nell’impresa. E, ormai, nessuno – isolatamente
– riuscirebbe più. Da qui il proposito della Commissione, lodevole ancorché
tardivo, che consisteva nell’indicare un massimo comun denominatore sul
quale impegnare chiunque faccia ricerca di taglio territoriale, in parole povere
“obbigandolo” a fornire pochi ma essenziali dati di base conformi: non sostitutivi, si intende, ma da af�ancare al proprio speci�co “prodotto” scienti�co,
schedogra�co, cartogra�co. Oltre a ciò incrementando un “censimento dei
censimenti” sul quale fondare il plafond conoscitivo omogeneo per tutto il
territorio nazionale.
Esiste, d’altra parte, e proprio all’interno del Codice Urbani, un eccezionale spunto di rilancio di un’attività di documentazione dei Beni Archeologici
in forma di SIT coordinato e piani�cato, legata allo strumento della cosiddetta “copiani�cazione” tra Stato e Regioni, alle quali si è cercato di delegare
gli aspetti più generali della “cura del paesaggio”. Gli sviluppi del Piano
Paesaggistico Regionale della Sardegna, il primo in Italia a conformarsi alle
linee-guida della Convenzione Europea per il Paesaggio, sono da prendere in
questo senso ad esempio, anche se non sempre positivo. A livello normativo
nazionale, l’art. 1 comma 3 del D.Lgs. 42/04 – Codice dei Beni Culturali e del
Paesaggio, prevede infatti che lo Stato, le Regioni, le Città metropolitane, le
172
Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali)
Province ed i Comuni assicurino e sostengano la conservazione del patrimonio
culturale e ne favoriscano la pubblica fruizione e la valorizzazione; l’art. 5
del D.Lgs. citato, prevede che le Regioni, i Comuni, le Città metropolitane e
le Province cooperino con il Ministero per i Beni e le Attività Culturali nell’esercizio delle funzioni di tutela del patrimonio culturale. La Legge Regionale
sarda del 25 novembre 2004, n. 8, introducendo il nuovo testo dell’art. 11
della legge urbanistica regionale n. 45/1989, ha disciplinato la procedura del
Piano Paesaggistico Regionale (PPR) e, soprattutto, ha disposto che i Comuni
approvassero i propri Piani Urbanistici (PUC) in adeguamento alle disposizioni e previsioni del PPR. Ma ciò che qui interessa particolarmente è che il
PPR ha imposto, ai �ni della predisposizione del PUC, l’evidenziazione nella
cartogra�a relativa del tematismo delle emergenze di interesse archeologico,
al �ne di prevedere per tali aree i necessari dispositivi di controllo e di tutela,
acquisendo gli elementi da inserire in un database contenente i dati di ogni
sito archeologico, ricadente nel territorio del Comune interessato. Una grande,
inedita e forse irripetibile occasione.
Tutto bene, dunque. Ma, sul fronte del coordinamento, cosa è successo?
In Sardegna – e il rischio è che il fenomeno si ribalti anche sulle altre Regioni
– ogni Comune ha fatto di testa sua. Cioè: ad ognuno il suo censimento. Si è
aggiunto il SIT “archeologico” regionale che, però, almeno dichiara di adottare “lemmi” tratti dalle schede ICCD. Le impostazioni metodologiche che,
Comune per Comune a seconda dell’archeologo/i che prestava/no la propria
consulenza, si sono giustapposte, se non contrapposte, quasi mai integrate,
hanno dato esito ad una situazione di rumore informativo che forse non ci
stupisce più, ma che certo non ha smesso di preoccupare per il futuro. Si pro�la infatti il pericolo che l’assenza di coordinamento, che per ora sapevamo
limitata alle nostre attività di ricerca, si estenda a quelle gestionali, legate in
particolare all’adozione dei Piani Paesaggistici e a quelli Urbanistici. Il �orire di mille censimenti localistici, privi di omogeneità scienti�ca e dunque, a
rigore, riconducibili al famoso massimo comun denominatore solo a prezzo
di una fatica almeno pari a quella occorsa per realizzarli, nonché il parallelo
germogliare di GIS di micro-ambito anch’essi caratterizzati da incompatibilità “genetiche”: questo l’orizzonte che sembra pro�larsi, almeno stando ai
risultati dell’esperienza sarda.
È evidente come il dibattito incentrato sulla “identi�cazione dei paesaggi” – per usare le parole della Convenzione Europea – investa oggi non solo
il livello decisionale rappresentato dalle Regioni, ma anche quello legislativo
centrale: al proposito è utile ricordare, in attesa delle eventuali espressioni
in merito del nuovo Governo, gli incisivi emendamenti al Codice Urbani
proposti dal “Nuovo Codice” (D.Lgs. 26 marzo 2008, n. 63). Altrettanto
evidentemente la componente archeologica, in questo clima di incertezza
metodologica prima ancora che legislativa, non può che essere considerata
173
G. Azzena
determinante. E dunque (tralasciando le critiche empiriche), ciò che occorre
ancora una volta rilevare è il fatto che al dispiegamento schizofrenico di
apparati analitici sempre e comunque “puntiformi” prodotti dal (o previsti
nel) Piano, raramente corrispondono compendi interpretativi che aiutino a
capire (e quindi a progettare) i contesti.
Occorre chiedersi se questo non sia il portato di un consolidato orientamento culturale e, conseguentemente, legislativo, dal quale deriva l’idea che
l’apparato informativo dedicato al paesaggio “storico” debba essere di tipo
oggettuale, cioè orientato “al sito” e così anche la sua tutela (“identi�cazione-localizzazione → perimetrazione-recinzione”). Con il risultato che l’azione
di tutela tradizionale così come quella “innovativa”, oltre ad essere tanto
integraliste quanto deboli, farraginose e per questo, spiace constatarlo, impopolari, siano rimaste nel tempo, proprio perché concepite come contrastanti,
sempre e comunque inadeguate a supportare gli atti di una piani�cazione
che, invece, a parole si vorrebbe “rispettosa” di una ambigua “storicità” del
territorio, conferita solo ai contesti ove concretamente si siano riconosciuti
“oggetti vecchi”. Sarebbe forse utile chiedersi se non sia questa concezione a
dover essere strutturalmente modi�cata, prima ancora di provare a pettinarne
le frange, con o senza supporti tecnologici.
3. Una prospettiva (molto personale)
Non sono in grado di dire se la colpa sia stata nostra, della nostra mentalità
tassonomica, delle divergenze tra scuole; o, piuttosto, di una utilizzazione delle
tecnologie fuorviante solo perché prematura: certo è che, invece di pervenire ad
una meta comune, ne abbiamo individuato una miriade, tutte importanti, certo,
ma non così fondamentali come quella che, trent’anni fa, sembrava così vicina,
mentre è tuttora parecchio lontana. Ho esplicitato questa preoccupazione per
molto tempo, a partire dal lontano 1990 (Azzena 1994a) �no al 2004 (Azzena 2004a, 2004b), poi ho rinunciato. Oggi non uso quasi più il computer per
lavorare alla cartogra�a delle mie ricerche, d’altra parte non sono mai stato quel
che si dice un “entusiasta” delle nuove tecnologie: le usavo per risolvere alcuni
problemi posti dalla mia disciplina, e perché sono pigro. In compenso lo usano
gli studenti della mia Facoltà, che elaborano GIS, rilievi numerici, immagini tridimensionali. Lo fanno quotidianamente e con straordinaria nonchalance, quasi
non fosse mai esistito un prima, faticoso e costoso, per certi versi anche doloroso.
Come è giusto che sia, come avevamo previsto e volevamo che fosse. Io mi limito
a tentare di spiegargli che esiste un metodo, al di là dell’informatica e come l’informatica ha magari contribuito a cambiarlo o a consolidarlo. Essenzialmente lo
faccio nella speranza di ridare luce a qualcosa che, a mio avviso, proprio noi – i
“giovani interfaccia” di qualche tempo fa – abbiamo contribuito ad annebbiare.
Qualcuno, più di uno in verità, suggerisce con pervasiva lungimiranza che forse
174
Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali)
larga parte della nostra insoddisfazione di uomini della contemporaneità derivi
dal progressivo, incontrollabile e ormai ineludibile disincantamento del mondo.
Indicandoci fessure e crepe irreparabili con le quali l’estremizzazione di certa
sempli�cazione, pagata a pegno dell’aumento esponenziale delle fonti di sapere
(e scambiata per neo-razionalismo), sta segnando il nostro pensiero con immensa potenza ma anche con la banalità del “globale”, la piattezza, l’uniformità,
l’omologazione, la tassonomia della conoscenza.
In tempi non sospetti, mi sono premurato di sottolineare come il fatto
che fosse stato creato un SIT per la Forma Italiae signi�cava semplicemente che
il metodo di indagine, la fondamentale acribia nella fase di acquisizione, e le
possibilità di utilizzazione dei risultati avevano subito una produttiva accelerazione, forse anche un’utile risintonizzazione metodologica, ma certo non erano
passate in secondo piano. Mi sembra anche di essere riuscito a dimostrare che
il tentativo di rendere in forma numerica la carta archeologica del Trastevere
(Azzena 1994b) in realtà non faceva che tradurre in forma di GIS l’idea, nonché
l’insuperabile realizzazione, della Forma Urbis di Rodolfo Lanciani. Ho provato anche a spingere quella che, allora, era una comunità scienti�ca piuttosto
ridotta verso la favolosa meta che le potenzialità uni�canti offerte dal supporto
informatico indicavano con chiarezza come la più accessibile e che, invece, si
sarebbe rivelata la più irraggiungibile: la “copertura integrale” della conoscenza
archeologica di base mediante dati provenienti da tutte le ricerche in corso sul
territorio nazionale. Resa �nalmente possibile, nonché gestibile, grazie alle potenzialità di un unico Sistema Informativo Territoriale Archeologico nazionale. Ad
oggi niente del genere è stato realizzato e non c’era bisogno che ce lo confermasse
una Commissione interministeriale, perché tutti abbiamo potuto assistere ad una
diaspora sempre più intensa, ad una personalizzazione dei prodotti sempre più
estremizzata. Nel pieno ribaltamento dell’assunto popperiano per il quale “non
esistono discipline ma problemi da risolvere”, nel nostro caso le discipline hanno
fatto qualche passo avanti mentre i problemi sono rimasti tali.
Così oggi, quasi fossi un “pentito”, mi accontento di trasmettere agli studenti l’amore per il territorio, per il paesaggio: quella sorta di “affetto amicale”
che impari mentre lo percorri per studiarlo e misurarlo, ma che non �ltra mai
nelle trasposizioni scienti�che. Per quel territorio che è storico sempre, anche se
non ci sono nuraghi, o terme romane, o aree di spargimento di �ttili. Per quel
paesaggio che è stato offuscato, in secoli di legislazioni di tutela, dal concetto dei
“beni”: archeologici, architettonici, storico-artistici, ora anche paesaggistici, in
nome dei quali la complessità della memoria storica che si articola incontrollabile
nello spazio è stata scomposta in “oggetti” da conservare immutati quanto privi
di vita: punti, linee, aree, morfologie e quantità. E la norma va, naturalmente,
appresso al pensiero: il “paesaggio” tramutato in “beni” paesaggistici nel Codice
Urbani; o “componenti” di paesaggio per�no nel PPR della Regione Sardegna,
da molti considerato eccezionalmente evoluto, segnatamente quando parla del
175
G. Azzena
comparto storico-culturale. Mentre la storia è tutta nello spazio e lo spazio è,
dunque, sempre e comunque storico, fuori e dentro i centri “storici” e le aree
“archeologiche”, indipendentemente dal valore estrinseco dei singoli oggetti
“vecchi” che esso eventualmente contiene.
Nel momento in cui anche il paesaggio si avvia ad essere deportato a
Flatlandia (ricordate? l’immaginaria città bidimensionale inventata da Edwin
Abbott per prendere in giro la società vittoriana: Abbott 2003), af�do ai
pastelli colorati degli studenti quelle tematizzazioni, sviluppate nei laboratori
di progettazione, che riguardino l’evolversi dei processi storici sul territorio;
e se qualcuno di loro usa gli strumenti GIS per rappresentare alcuni temi che
mi stanno diventando cari, certo non glielo impedisco, ma le “applicazioni
tecnologiche”, ormai, sono a loro demandate. In fondo non ho mai smesso
di lavorare, anche se in un modo tanto trasverso, ad una (e per una) Carta
Archeologica nazionale che, come strumento di conoscenza, non smette di
sembrarmi insostituibile. Ma guardo, con una certa invidia, alle carte aptiche di Guillermo Kuitca, pittore argentino che dipinge mappe affettive su
materassi, ogni nodo dei quali diviene tappa di una vita, snodo di una storia
privata, ma universale perché si svolge nei luoghi e dunque nella storia. O
alle installazioni di Maria Lai (artista sarda, classe 1919), che per “mostrare” la struttura storica e quella urbana del suo paese, Ulassai, dominato da
un alto e minaccioso “tacco” supramontano, ha fatto legare, materialmente
parlando, una casa all’altra con un nastro celeste, mostrando compartecipe
ma severa attenzione agli affetti come alle discordie, alle memorie comuni e
alle faide; per poi, in�ne, legare il paese al monte, a sottolinearne dipendenza
e origine, cioè nascita ma anche – se pur non auspicabile – evenienza di morte.
Le guardo con invidiosa ammirazione, senza rinnegare niente ma cercando,
diciamo così, altri monti da legare.
Giovanni Azzena
Facoltà di Architettura di Alghero
Università degli Studi di Sassari
BIBLIOGRAFIA
Abbott E.A. 2003, Flatlandia: storia fantastica a più dimensioni, Milano, Adelphi.
Archeologia e Informatica. Atti del Convegno Nazionale (Roma 1988), Roma 1988, Quasar.
Azzena G. 1994a, Proposta per una standardizzazione dei formati della cartogra�a archeologica
con �nalità operative, in La cartogra�a dei beni storici 1994, 103-104.
Azzena G. 1994b, Topogra�a di Roma antica: ipotesi per una sistematizzazione dei dati a
valenza topogra�ca, «Archeologia e Calcolatori», 5, 269-292.
Azzena G. 1997, Questioni terminologiche - e di merito - sui GIS in archeologia, in A. Gottarelli (ed.), Sistemi Informativi e reti geogra�che in archeologia: GIS - INTERNET.
VII Ciclo di Lezioni sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena,
1995), Firenze, All’Insegna del Giglio, 33-43.
176
Punto di non-ritorno (Cartogra�a numerica, Sistemi Informativi Territoriali, Analisi spaziali)
Azzena G. 2004a, Quale SIT per la Carta Archeologica? Orientamenti (e dubbi) nell’esperienza
della Forma Italiae, in G. Rosada, K. Cerchiaro (eds.), Topogra�a Archeologica e
sistemi informativi. Atti del Convegno Nazionale (Borgoricco 2001), Roma, Quasar.
Azzena G. 2004b, Tancas serradas a muros. Tracce di incomunicabilità nel linguaggio archeologico, in P. Moscati (ed.), Nuove frontiere della ricerca archeologica. Linguaggi, comunicazione, informatica/New Frontiers of Archaeological Research. Languages, Communication, Information Technology, «Archeologia e Calcolatori», 15, 185-197.
Benjamin W. 2002, I «passages» di Parigi, Torino, Einaudi.
Bertin J. 1977, La graphique et le traitement graphique de l’information, Paris, Flammarion.
Carandini A. 2008, Archeologia classica, Torino, Einaudi.
D’Andria F. (ed.) 1987, Informatica e archeologia classica. Atti del Convegno Internazionale
(Lecce 1986), Galatina, Congedo.
Francovich R. 1999, Archeologia medievale e informatica: dieci anni dopo, «Archeologia e
Calcolatori», 10, 45-63.
Guermandi M.P. 2001, Il sistema C.A.R.T.: metodologia e tecnologia, in M.P. Guermandi (ed.), Rischio archeologico: se lo conosci lo eviti. Atti del Convegno di Studi su
cartogra�a archeologica e tutela del territorio (Ferrara 2000), Firenze, All’Insegna del
Giglio, 189-199.
I modelli nella ricerca archeologica. Atti del Convegno Internazionale (Roma 2000), Roma
2003, Accademia Nazionale dei Lincei.
Isabella L., Salzotti F., Valenti M. 2001, L’esperienza dell’insegnamento di Archeologia
Medievale a Siena nel campo dell’informatica applicata, in M. De Marchi, M. Scudellari, A. Zavaglia (eds.), Lo spessore storico in urbanistica, Mantova, Società
Archeologica, 31-64.
La cartogra�a dei beni storici, archeologici e paesistici nelle grandi aree urbane: dal censimento
alla tutela. Atti del Convegno Nazionale (Roma 1990), Roma 1994, Quasar.
Lock G., Stančič Z. 1995, Archaeology and Geographic Information Systems: A European
Perspective, London, Taylor & Francis.
Moscati P. 1987, Archeologia e calcolatori, Firenze, Giunti.
Moscati P. (ed.) 1998, Methodological Trends and Future Perspectives in the Application of
GIS in Archaeology, «Archeologia e Calcolatori», 9.
Pasquinucci M., Menchelli S. (eds.) 1989, La Cartogra�a archeologica: problemi e prospettive. Atti del Convegno Internazionale (Pisa 1988), Pisa, Amministrazione Provinciale.
ABSTRACT
Around the mid 1980s, the Italian sector – at the time very limited – of the archaeological sciences interested in geo-topographical problems responded eagerly to the practical and
theoretical solutions offered by computer science and by advanced technologies, and became
one of the most developed sectors in the European panorama in this particular subject. Twenty
years later, we can observe, on one hand, the notable success of this type of applications that
has, among other things, contributed to drive towards territorial studies many sectors of Italian research that had not previously been interested in it; and, on the other hand, the extreme
fragmentation of the initiatives, that remains an unsolved problem for future developments.
Within a single decade in fact we lost those guidelines that would have been able to transform some high but still distant peaks of quality, into a systematically coordinated approach,
and, especially, in a common cognitive base, which was perhaps primitive but for this reason,
“basic”, not only for the development of research, but also for a diffused and shared means
of safeguarding our archaeological heritage.
177
Archeologia e Calcolatori
20, 2009, 179-187
LA CATALOGAZIONE INFORMATICA
DEL PATRIMONIO ARCHEOLOGICO
1. Introduzione
Le prime applicazioni informatiche al patrimonio culturale risalgono
agli anni Sessanta del Novecento1. Le esperienze iniziali sono state di carattere
prettamente documentario e hanno avuto il loro punto di gravitazione in speci�ci
enti pubblici preposti alla documentazione e alla tutela dei beni, almeno a livello
di grandi operazioni di catalogazione relative all’intero patrimonio nazionale.
Il confronto con una nuova scienza, la scienza dell’informazione, ha portato ad
affrontare i problemi posti dal ricorso a tecniche automatiche di trattamento dei
dati e dalla formalizzazione del linguaggio: come descrivere in modo univoco,
senza ambiguità, oggetti simili in modo da poter effettuare ricerche ef�caci in
banche dati mirate alla catalogazione di oggetti mobili o di monumenti.
La prima soluzione adottata per garantire uniformità di descrizione e di
ricerca, e quindi per un controllo del linguaggio, è stata la creazione di “codici”
mirati all’analisi delle diverse categorie di oggetti antichi o comunque di vocabolari di termini controllati o di veri e propri thesauri, che contenevano una
classi�cazione di termini o di “parole-chiave” (Moscati 2002). Le attività si
sono poi indirizzate verso la de�nizione dei cosiddetti “standard catalogra�ci”,
cioè di tutte le normative, gli strumenti di supporto e di controllo, le regole
e gli indirizzi metodologici che vanno seguiti al �ne di acquisire conoscenze
sui beni e di produrre la documentazione che li riguarda, registrando i dati
secondo criteri omogenei e condivisi e garantire così l’omogeneità terminologica e la creazione di strumenti informatici ad hoc.
Già dalla seconda metà degli anni Settanta, l’informatizzazione del patrimonio culturale è stata oggetto di dibattito e di confronto tra i vari Paesi,
soprattutto attraverso convegni ed incontri in cui si presentavano proposte,
programmi e iniziative diversi a seconda dei diversi patrimoni nazionali e ci
si confrontava sulle realizzazioni ottenute. Alcuni di questi Convegni si tennero in Italia, a Pisa, dove la Scuola Normale Superiore si dimostrò da subito
particolarmente attenta alla nuova problematica del rapporto tra informatica e beni culturali (Barocchi, Bisogni 1978; Corti 1984). In particolare
il Convegno del 1984, su Automating Processing of Art History Data and
1
La collaborazione al Convegno La nascita dell’informatica archeologica, di cui fa parte
il presente contributo e il testo per una delle postazioni multimediali presentate all’Accademia dei
Lincei, si è sviluppata nell’ambito del contratto che l’autrice ha stipulato, nel 2008, con l’Istituto di
Studi sulle Civiltà Italiche e del Mediterraneo Antico del CNR, collaborazione �nalizzata anche allo
sviluppo di un sito web dedicato al museo virtuale dell’informatica archeologica.
179
A. Caravale
Documents, con la ricchezza delle tematiche trattate, costituisce ancor oggi
un punto di riferimento per chi voglia ricostruire la storia di questo settore
(Corti 1984).
I prossimi paragra� sono dedicati a una breve panoramica sulle principali istituzioni e operazioni di catalogazione in Europa, con particolare
riguardo all’Italia e con riferimenti alla situazione in Inghilterra e in Francia,
a partire dagli anni Settanta e Ottanta del Novecento. Sono questi infatti due
decenni particolarmente rilevanti, in cui alle prime sperimentazioni isolate
si susseguirono i grandi progetti nazionali, nati con scopi censitivi, ma ben
presto coinvolti nel più ampio dibattito legato alla necessità di sviluppare
strumenti, quali lessici e thesauri, ma anche tecniche di indicizzazione e recupero delle informazioni.
2. In Italia
In Italia il punto di riferimento istituzionale per le problematiche di
catalogazione del patrimonio culturale è l’Istituto Centrale per il Catalogo
e la Documentazione (ICCD)2, la cui attività pluridecennale, caratterizzata
da una funzione di indirizzo e di coordinamento, è culminata nella recente
realizzazione del Sistema Informativo Generale del Catalogo (SIGEC), «ideato
con il preciso scopo di consentire la gestione integrata di tutte le componenti
conoscitive – alfanumeriche, multimediali, geogra�che – disponibili per i
beni»3 (Mancinelli 2004, 115). L’ICCD, nato nel 1975 sotto la guida di
Oreste Ferrari, si occupa del coordinamento delle attività di ricerca per la
de�nizione degli standard per la catalogazione nei settori archeologico, architettonico-ambientale, storico-artistico ed etnoantropologico (Papaldo,
Ruggeri 1993).
Nei primi anni Ottanta del Novecento si avviò lo studio di un programma di gestione automatizzata del Catalogo dei Beni Culturali, �nalizzato alla creazione di banche dati dei beni conservati nei musei o presenti nel
territorio (Papaldo, Matteucci 1983) e venne dedicato un grande sforzo
alla progettazione di un atlante storico-geogra�co, attraverso la de�nizione
di un approccio metodologico �nalizzato alla realizzazione di una banca dati
storico-geogra�ca (Ferrari 1989; Papaldo, Signore 1989). Sempre negli
anni Ottanta l’Istituto ha lavorato per la creazione di dizionari terminologici
�nalizzati a garantire l’omogeneità nella catalogazione4, nonché di schede di
http://www.iccd.beniculturali.it/.
http://www.iccd.beniculturali.it/Catalogazione/sistemi-informativi/.
4
Nel 1980 è stato pubblicato come primo il Dizionario terminologico dei materiali dell’età
del bronzo �nale e della prima età del ferro, a cura di F. Parise Badoni.
2
3
180
La catalogazione informatica del patrimonio archeologico
rilevamento dei beni, in cui i dati oggettivi, cioè quelli relativi alla locazione,
provenienza, datazione, autore, materia, conservazione e documentazione
fotogra�ca, risultano distinti da quelli soggettivi, cioè da quelli relativi alla
descrizione, interpretazione e fortuna storico-critica.
Le schede di catalogo realizzate dall’ICCD, disponibili oggi anche online sul sito web dell’Istituto5, sono di diverse tipologie. Per i beni archeologici
esistono quelle NU (beni numismatici), RA (reperto archeologico), TMA
(tabella materiali), AT (reperti antropologici), SI (sito archeologico), SAS
(saggio stratigra�co), MA/CA (monumento archeologico/complesso archeologico); per lo scavo sono impiegate invece le schede US (unità stratigra�ca),
USR (unità stratigra�ca di rivestimento) e USM (unità stratigra�ca muraria),
de�nite dalle normative dettate da F. Parise Badoni e da M. Ruggeri Giove
nel 1984 e nel 1988 (Parise Badoni, Ruggeri Giove 1984, 1988, anche
on-line6). I dati delle diverse schede possono essere messi in relazione tra loro
e possono con�uire in schede “a più ampio plesso”, come quelle dei centri
urbani (Papaldo, Ruggeri 1993, 323). Nel corso degli anni esse si sono fatte
più complesse nell’organizzazione, rendendo possibile un maggiore dettaglio
nella descrizione dei dati.
Per i beni mobili, immobili e territoriali archeologici e storico-artistici
sono stati inoltre realizzati strumenti software per l’informatizzazione delle
schede che li riguardano. Uno dei primi programmi, SAXA (Sistema per
l’Acquisizione Controllata delle Schede dell’Arte) venne realizzato in collaborazione con l’IBM Italia; esso permetteva l’acquisizione delle schede secondo
le norme stabilite dall’Istituto, la loro esportazione, le ricerche articolate e
le estrazioni selettive di dati (Papaldo, Ruggeri 1993, 111). Più recente il
programma DESC, con data entry, stampa e consultazione, che venne dotato
anche di una prima interfaccia di tipo user-friendly, che ne facilitava l’utilizzo
da parte degli archeologi.
Esperimenti di informatica archeologica furono anche condotti, negli
ultimi anni Ottanta, da alcuni progetti di ricognizione e classi�cazione dei
beni archeologici, architettonici, ambientali, artistici e storici ed etnogra�ci,
sviluppati nell’ambito dell’iniziativa sui “giacimenti culturali” (progetti ex
art. 15 legge 41/1986). Un corposo �nanziamento di circa seicento miliardi
fu destinato ad iniziative volte alla valorizzazione dei beni culturali e al loro
recupero tramite l’uso di tecnologie avanzate e alla creazione di occupazione
di giovani. Tali progetti hanno interessato diverse regioni del nostro Paese
http://www.iccd.beniculturali.it/Catalogazione/standard-catalogra�ci/normative/nomative/.
http://www.iccd.beniculturali.it/Catalogazione/standard-catalogra�ci/normative/nomative.
Per le altre tipologie di schede cfr. la bibliogra�a su http://www.iccd.beniculturali.it/Documentazione/collezioni-bibliogra�che/catalogazione/).
5
6
181
A. Caravale
e si sono occupati di trattare la grande quantità di dati ottenuti con banche
dati alfanumeriche, contenenti schede realizzate su modelli dell’ICCD (AA.
VV. 1989). Di alcuni di questi progetti, come “Neapolis”, “Pinacos, Eubea
- Puteolis”, “T.A.R.A., Rami incisi delle Antichità Ercolanesi”, che hanno realizzato, tra il 1987 e il 1992, un impegnativo lavoro di catalogazione dei beni
presenti a Napoli e nelle altre città dell’area vesuviana, si stanno ora cercando
di recuperare i dati nell’ambito di altri progetti di più recente sviluppo.
Purtroppo, non tutte le iniziative sviluppate nell’ambito dei giacimenti
culturali hanno avuto un risultato positivo: diversi sono stati i progetti improvvisati, non in grado di creare successive strutture di lavoro più stabili e
non si è stati sempre in grado di sfruttare al meglio il grosso sforzo impiegato
nella formazione di giovani, che dopo la �ne quell’esperienza si sono nuovamente trovati nella dif�coltà del lavoro precario. L’esperienza è comunque
stata utile per porre in risalto alcune problematiche comuni connesse alla
catalogazione informatizzata, che si è poi tentato di sviluppare negli anni
successivi, come quello di utilizzare sistemi tra loro compatibili e coerenti
(Ferrari 1991, 15).
Nel settore della catalogazione informatizzata, altro punto di riferimento
istituzionale italiano, anche se diverso dall’ICCD per natura, compiti e �nalità,
è la Scuola Normale Superiore di Pisa che, dalla �ne degli anni Settanta, si è
occupata di catalogazione e gestione dei dati, di trattamento automatizzato di
fonti e documenti e della creazione di lessici e thesauri, anche in collaborazione
con l’Accademia della Crusca e, per il settore storico-artistico, con il J. Paul
Getty Trust di Los Angeles (Parra 1993). La Scuola ha promosso numerosi
progetti relativi al patrimonio archeologico, storico-artistico e archivistico,
anche tramite il Centro di ricerche informatiche per i beni culturali (CRIBECU, oggi SIGNUM7) attualmente impegnato nella realizzazione di opere di
catalogazione fruibili anche in rete (come Cart, catalogazione di opere d’arte
della Regione Toscana), di archivi testuali, documentali e visivi e nella promozione di seminari e stage.
Il Centro ha pubblicato dal 1980 al 2002 il «Bollettino d’Informazioni
del Centro di Ricerche Informatiche per i Beni Culturali», con lo scopo di
raccogliere contributi di studiosi italiani e stranieri nel settore della ricerca e
della catalogazione informatica dei beni culturali, af�ancato da «Quaderni»
monogra�ci.
3. In Gran Bretagna
In Europa altri Paesi hanno operato, anche prima dell’Italia, in questo
settore. L’Inghilterra è il Paese più all’avanguardia: qui l’opera di catalogazione
7
182
http://www.signum.sns.it/.
La catalogazione informatica del patrimonio archeologico
è iniziata in tempi quasi pionieristici a cura della Royal Commission on the
Historical Monuments of England (RCHME), fondata nel 1908 con il �ne
di costituire un inventario dei monumenti del Paese costruiti �no al XVIII
secolo (a partire dalla metà degli anni Quaranta il censimento si allargò �no
a comprendere gli edi�ci costruiti �no al XX secolo)8. Alla Royal Commission
è stato nel 1963 aggiunto il National Monuments Record (NMR) “to include
archaeology, as well as architectural information and archives within it”; nel
1999 la Royal Commission è stata assorbita dall’English Heritage9.
Ai �ni del settore archeologico, è importante attualmente il contributo
dell’Archaeology Data Service (ADS)10 per la creazione e la manutenzione
di archivi digitali nella ricerca archeologica. La mission dell’ADS è quella
di sostenere “research, learning and teaching with high quality and dependable digital resources”, conservando “digital data in the long term, and by
promoting and disseminating a broad range of data in archaeology”. Il
servizio inoltre “promotes good practice in the use of digital data in archaeology, provides technical advice to the research community, and supports
the deployment of digital technologies”. Sono attualmente catalogati oltre
un milione tra interventi archeologici, siti e monumenti, schedati utilizzando
vocabolari controllati e richiamabili anche tramite una carta interattiva; è
fornita anche una breve bibliogra�a, nonché indicazioni per un approfondimento della ricerca.
Molto valido il lavoro condotto in questi Paesi sugli standard da
utilizzare in ambito archeologico, largamente impiegati dalle istituzioni e
particolarmente ricchi in quanto a problematiche considerate. Due sono
quelli principali. Il primo, SPECTRUM (The UK Museum Documentation
Standard), è uno standard per la gestione delle collezioni nato nel 1994
(con un successivo aggiornamento nel 1997) sulla base dell’esperienza di
specialisti impegnati nel lavoro di documentazione nei musei britannici.
Impiegato nella gestione delle collezioni librarie, archivistiche e museali,
esso «de�nisce le procedure per la documentazione di oggetti e i processi
a cui essi devono essere sottoposti per l’identi�cazione e descrizione delle
informazioni necessarie a registrare e supportare le procedure» (D’Andrea
2006, 83). È scaricabile gratuitamente dalla rete11, dopo una registrazione
da parte dell’utente interessato.
L’altro standard impiegato in ambito archeologico è MIDAS (A Manual
and Data Standard for Monument Inventories), sviluppato dall’English He8
Per la storia della Royal Commission on the Historical Monuments of England cfr. anche
http://www.english-heritage.org.uk/server/show/nav.19925/ e Aberg , Leech 1992.
9
http:// http://www.english-heritage.org.uk/server/show/nav.2/.
10
http://ads.ahds.ac.uk/.
11
http://www.mda.org.uk/spectrum.htm.
183
A. Caravale
ritage12. Finalizzato, tra l’altro, a migliorare il recupero delle informazioni
tramite procedure automatizzate, a dare un formato comune per l’inventario dei monumenti e a sempli�care lo scambio di dati tra i diversi inventari
esistenti, lo standard MIDAS fornisce agli utenti una comune cornice per lo
sviluppo indipendente delle procedure di inventariazione con l’impiego di
informazioni e descrizioni di base comuni per i beni catalogati.
4. In Francia
Standardizzazione del linguaggio e strutturazione dei dati sono
problematiche affrontate anche in Francia, grazie alle ricerche pionieristiche
di J.-C. Gardin e R. Ginouvès. Qui opera dal 1964 l’Inventaire général des
monuments et richesses artistiques de la France, la cui attività di catalogazione è stata preceduta dalla realizzazione di vocabolari controllati al �ne
di agevolare l’uniformità delle informazioni13. Nato nel 1964 per volontà
dell’allora ministro della cultura André Malraux e di André Chastel, l’Inventaire (Inventaire général du patrimoine culturel o semplicemente Inventaire
général) aveva l’obiettivo di “recenser, étudier, faire connaître toute œuvre
qui, du fait de son caractère historique, artistique ou archéologique, constitue un élément du patrimoine national”. In un momento in cui la Francia
conosceva profondi cambiamenti nel suo paesaggio, si avvertì dunque la
necessaria esigenza di «constituer au niveau national et sur tout le territoire,
un ensemble documentaire pérenne et accessible à tous, dont l’exploitation
scienti�que et la publication soient les prolongements logiques» (de Massary,
Coste 2007). Anche in Francia un grosso sforzo iniziale è stato indirizzato
verso la de�nizione di adeguate procedure di documentazione, a partire dalla
identi�cazione delle varie categorie di informazioni e dei termini più adatti
a descriverle.
Dal 2004 il servizio è portato avanti su base regionale, da ricercatori
con competenze diverse, per ciascuna delle 22 regioni della Francia. Elabora
informazioni (banche dati, testi, fotogra�e, rilievi, cartogra�a, bibliogra�a)
sugli edi�ci e sui beni artistici del Paese che si trovano in situ compresi cronologicamente tra il 400 d.C. e trenta anni dal momento della realizzazione
del catalogo. Lo Stato, che ha conservato il controllo e il coordinamento
del progetto, contribuisce a diffondere i risultati del lavoro tramite banche
dati accessibili in rete e garantisce il controllo scienti�co dell’opera, nonché
l’omogeneità delle informazioni, il metodo di procedimento, i vocabolari controllati. Sono attualmente consultabili in rete alcune importanti banche dati.
12
13
184
http://www.english-heritage.org.uk/server/show/nav.8331/.
http://www.inventaire.culture.gouv.fr/.
La catalogazione informatica del patrimonio archeologico
Da quella, detta Joconde, dedicata alle collezioni dei musei nazionali francesi,
con notizie sulle opere e fotogra�e delle stesse14, a quella sugli edi�ci storici
e sul loro mobilio (Architecture et Patrimoine15), all’altra sui monumenti del
XX secolo16.
L’Inventaire è basato su sistemi di Information Retrieval, con informazioni inserite in campi descrittivi, riempiti con testo libero o con termini
da vocabolari controllati, che vanno poi a con�uire in categorie più generali
(localizzazione geogra�ca, oggetto, cronologia, de�nizione culturale, dati
tecnici, analitici e amministrativi).
5. Conclusioni
Lo sviluppo delle tecnologie informatiche ha avuto nel tempo una
sensibile in�uenza sulle metodologie di catalogazione dei beni culturali, determinando l’evoluzione dalle banche dati ai sistemi multimediali e quindi
allargando l’obiettivo di tali strumenti dalla catalogazione alla divulgazione.
La rete è divenuta ambiente privilegiato per la consultazione e la condivisione
delle conoscenze, per facilitare l’opera e l’integrazione degli enti preposti alla
documentazione e alla tutela dei beni, ma anche per la fruizione da parte di un
pubblico più ampio. L’obiettivo oggi non è più quello della catalogazione del
solo bene ma anche delle sue relazioni con il contesto culturale di riferimento,
mentre dal punto di vista informatico si tende non tanto alla de�nizione di
standard omogenei, quanto piuttosto alla interoperabilità fra sistemi nati
con caratteristiche e �nalità differenti, ma tutti utili all’accrescimento delle
informazioni in una dimensione sovranazionale.
Alessandra Caravale
Istituto di Studi sulle Civiltà Italiche e del Mediterraneo Antico
CNR – Roma
BIBLIOGRAFIA
AA.VV. 1989, Rapporto sui progetti ex art. 15 Legge 41/1986, Catalogo della mostra,
Roma.
Aberg F.A., Leech R.H. 1992, The National Archaeological Record for England. Past, Present
and Future, in C.U. Larsen, Sites and Monuments. National Archaeological Records,
Kobenhavn, The National Museum of Denmark, 157-170.
Barocchi P., Bisogni F. (eds.) 1978, First International Conference on Automatic Processing
of Art History Data and Documents (Pisa 1978), Pisa.
http://www.culture.gouv.fr/documentation/joconde.fr/pres.htm.
http://www.culture.gouv.fr/culture/inventai/patrimoine/.
16
http://www.culture.gouv.fr/culture/inventai/itiinv/archixx/index.html.
14
15
185
A. Caravale
Barocchi P., Fileti Mazza M. 2000, s.v. Beni culturali e ambientali. Beni culturali e informatica, in Enciclopedia Italiana, Appendice 2000, I, Roma, Istituto della Enciclopedia
Italiana Treccani, 177-181.
Corti L. (ed.) 1984, Automatic Processing of Art History Data and Documents, Proceedings
and Papers (Pisa 1984), Firenze, Regione Toscana.
Corti L. 1992, Beni Culturali, standard di rappresentazione, descrizione e vocabolario, Modena, Panini.
Corti L. 1999, I Beni Culturali e la loro catalogazione, Torino, Paravia.
D’Andrea A. 2006, Documentazione archeologica, standard e trattamento informatico, Budapest, Archaeolingua.
de Massary X., Coste G. 2007, Principes, méthodes et conduite de l’Inventaire général du
patrimoine culturel, Ministère de la Culture et de la Communication (http://www.culture.
gouv.fr/culture/inventai/presenta/normes/livretPMC/livretPMC_2007.pdf).
Ferrari O. 1989, Esperienza archeologica e catalogazione, «Bollettino di Archeologia», 1,
24-25.
Ferrari O. 1991, La catalogazione dei beni archeologici e le tecnologie informatiche, «Archeologia e Calcolatori», 2, 13-17.
Ginouvès R., Guimier-Sorbets A.-M. 1978, La constitution des données en archéologie
classique, Paris, CNRS.
Mancinelli M.L. 2004, Sistema informativo generale del catalogo: nuovi strumenti per la
gestione integrata delle conoscenze sui beni archeologici, «Archeologia e Calcolatori»,
15, 115-128.
Moscati P. 1994, Informatica e Beni Culturali, in M. Cristofani (ed.), Beni Culturali. Ricerca
- Didattica - Pro�li professionali. Atti del Convegno (Napoli 1991), Napoli, Università
degli Studi di Napoli “Federico II”, 49-59.
Moscati P. 2002, L’informatica in archeologia, in Il mondo dell’archeologia, I, Roma, Istituto
della Enciclopedia Italiana Treccani, 318-323.
Papaldo S., Matteucci D.R. 1983, Studio di un programma di gestione automatizzata del
Catalogo dei beni culturali, Roma-Pisa, ICCD-CNUCE.
Papaldo S., Ruggeri M. 1993, La catalogazione automatizzata del patrimonio archeologico
nazionale in Italia, in J. Boardman, D.C. Kurtz (eds.), International Conference on
Data and Image Processing in Classical Archaeology (Ravello 1992), «Archeologia e
Calcolatori», 4, 323-327.
Papaldo S., Signore O. (eds.) 1989, Un approccio metodologico per la realizzazione di una
banca dati storico-geogra�ca / A Methodological Approach to Producing a HistoricalGeographical Databank, Roma, Multigra�ca.
Parise Badoni F., Ruggeri Giove M. (eds.) 1984, Norme per la redazione della scheda del
saggio stratigra�co, Roma, Multigra�ca.
Parise Badoni F., Ruggeri Giove M. (eds.) 1988, Strutturazione dei dati delle schede di
catalogo: beni archeologici immobili e territoriali, Roma-Pisa, ICCD-CNUCE.
Parra M.C. 1993, Applicazioni informatiche nel campo dei beni culturali: le esperienze della
Scuola Normale Superiore di Pisa, in J. Boardman, D.C. Kurtz (eds.), International
Conference on Data and Image Processing in Classical Archaeology (Ravello 1992),
«Archeologia e Calcolatori», 4, 101-107.
Signore O. 1993, Cataloguing art objects: a comparison between French and Italian standards, in European Museum Documentation Strategies and Standards. Proceedings of
an International Conference (Canterbury 1991), Cambridge, Museum Documentation
Association, 138-140.
Trigari M. 1992, Come costruire un thesaurus, Modena, Panini.
Vasco Rocca S. 2002, Beni Culturali e catalogazione. Principi teorici e percorsi di analisi,
Roma, Gangemi.
186
La catalogazione informatica del patrimonio archeologico
ABSTRACT
The article presents a brief description of the principal institutions which, during the
1970s and 1980s, were in charge of the computer cataloguing of their respective national
cultural heritages, with speci�c emphasis on archaeological heritage. Particular attention is
dedicated to the Italian experience, with some reference to the situation in England and in
France during the same period. The 1970s and 1980s are, in fact, two particularly remarkable
decades, in which centralised national projects followed the �rst isolated experimentations,
and developed tools, such as lexicons and thesauri, as well as techniques for indexing and
information retrieval. The article focuses in particular on the activity conducted in Italy by the
Istituto Centrale per il Catalogo e la Documentazione (ICCD), as well as that of the Scuola
Normale Superiore in Pisa. As far as England is concerned, the Author describes the pioneer
research work of the Royal Commission on the Historical Monuments of England (RCHME),
founded in 1908, and, more recently, that of the Archaeology Data Service (ADS); for France,
the Author focuses on the work conducted since 1964 by the Inventaire général des monuments
et richesses artistiques de la France.
187
Archeologia e Calcolatori
20, 2009, 189-204
1984-2009
DA TE.M.P.L.A. AL CENTRO DI RICERCA PER LE TECNOLOGIE
MULTIMEDIALI APPLICATE ALL’ARCHEOLOGIA.
UN CASO DI STUDIO NELLA STORIA DELLE APPLICAZIONI
MULTIMEDIALI IN ARCHEOLOGIA
1. Introduzione
La nascita del Centro di Ricerca per le Tecnologie Multimediali Applicate
all’Archeologia, istituito presso il Dipartimento di Archeologia dell’Università
di Bologna nel 2001, ha radici nella storia stessa dell’evoluzione delle tecnologie informatiche e del loro affermarsi in ambito archeologico. In chiave
retrospettiva, i modi ed i tempi di questo percorso vanno oggi riletti alla luce
dei passaggi fondamentali che hanno caratterizzato il lento progresso delle
applicazioni informatiche-multimediali nel periodo compreso tra gli inizi degli
anni ’80 e la metà degli anni ’90. Più che la capacità di immaginare scenari
applicativi, soluzioni concettuali o rivoluzioni metodologiche, fu determinante
in quegli anni operare scelte di campo strategiche rispetto alle limitatissime
possibilità offerte dalle nascenti tecnologie informatiche, in quella fascia
di costo che risultava essere compatibile con i limitati budget della ricerca
archeologica.
Il quadro delle possibilità di gestione complessiva di immagini, suoni
e �lmati, alla �ne degli anni ’70 offriva uno scenario desolante, molto al di
sotto delle aspettative che i mezzi di comunicazione avevano indotto negli
anni precedenti. Se sulla carta l’informatica già prometteva la rivoluzione di
ogni consuetudine operativa nei più svariati ambiti applicativi, il completo
passaggio al digitale dei sistemi multimediali analogici di massa dell’epoca,
basati su supporti a nastro per la registrazione/archiviazione audio-video e
su pellicola per la fotogra�a, avrebbe comportato, �no ai giorni nostri, un
lungo e travagliato processo di assestamento dell’intero comparto industriale
dell’elettronica su nuovi standard tecnologici.
Questo orizzonte spaziava dalla revisione delle tecnologie di input-output dei dati, all’innovazione dei supporti di registrazione ed archiviazione,
a quella dei sistemi di connessione e dei protocolli di trasmissione, �no
all’implementazione dell’intero assetto hardware e software degli elaboratori, compresa la necessità di ripensare l’architettura dei sistemi operativi in
chiave multimediale, dotandoli di un’interfaccia di tipo gra�co basata su un
linguaggio di tipo iconico più che testuale.
In questo scenario, le applicazioni multimediali in archeologia subivano un netto ritardo rispetto ad altri segmenti applicativi, in particolare
189
A. Gottarelli
quelli orientati alla gestione delle banche dati e alla loro rappresentazione
quantitativa e spaziale su base matematico-statistica, che risultavano già più
maturi in un contesto di tecnologie ancora limitato al solo trattamento dei
dati di tipo alfanumerico.
In campo gra�co, i maggiori progressi tecnologici dei primi anni ’80
si limitavano ad ambiti funzionali trainati dalle capacità di investimento
del settore industriale, quali il segmento della progettazione CAD-CAM
dell’industria meccanica e quello della sensoristica e dei sistemi di visione
nell’ambito dei processi di automazione. Da questi prenderanno le mosse le
prime applicazioni in ambito archeologico, con esperienze pilota legate alla
modellazione tridimensionale wireframe di grandi emergenze monumentali e
al trattamento dell’immagine elettronica da telecamera. In riferimento a quest’ultimo, le prime applicazioni svolte in Germania e legate al riconoscimento
automatico dei pro�li di materiali ceramici, daranno il via ad una tematica,
quella del trattamento numerico dell’immagine, che avrà ampi sviluppi nel
decennio successivo.
È in questa fase pioneristica che nel 1985 lo scrivente inizia la sperimentazione di sistemi di rilevamento videometrico dello scavo archeologico
presso l’allora Istituto di Archeologia dell’Università di Bologna, con il sostegno di Daniele Vitali, direttore degli scavi del complesso etrusco-celtico di
Monte Bibele, sull’Appennino bolognese (Fig. 1). Presentati i risultati ottenuti
al Convegno Informatica e Archeologia classica, tenutosi a Lecce nel 1986
(D’Andria 1987), prenderà vita nel decennio successivo un lungo iter di
sperimentazione su svariati siti italiani ed esteri, promuovendo le soluzioni
di telerilevamento da stativo e mosaicatura digitale presso numerosi centri
di ricerca (Fig. 2).
I contenuti del Convegno di Lecce, prima occasione di confronto delle
esperienze italiane, tratteggiano con esattezza lo stato dell’arte della disciplina
in quegli anni. La maggioranza degli interventi risultavano orientati al progetto
di basi dati e alla loro elaborazione matematico-statistica, mentre due soli
erano i contributi di natura multimediale: la ricostruzione 3D wireframe del
grande complesso monumentale di Babilonia, basata su sistema Catia (CAD
francese di derivazione aerospaziale), e lo studio preliminare sull’applicazione
della videodocumentazione digitale dello scavo archeologico (videometria)
sul Monte Bibele (Gottarelli 1987).
A posteriori quei soli interventi, oltre che rappresentare due tra i più
promettenti �loni delle applicazioni informatiche in archeologia, anticipavano la dicotomia che avrebbe caratterizzato l’insieme delle esperienze degli
anni ’90, rispetto al diverso approccio che poteva essere dato al problema
da parte degli operatori. Da un lato grandi tecnologie di alto costo, grandi
investimenti e la tendenza a manifestare esperienze pilota di grande impatto,
ma che dif�cilmente potevano permeare le consuetudini operative della massa
190
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
Fig. 1 – 1986. Prime applicazioni della videometria
digitale presso l’abitato etrusco-celtico di Pianella di
Monte Savino, Monte Bibele, Bologna.
degli archeologi. Dall’altro la �loso�a del “fai da te”, del costo compatibile
e della ri�essione su applicazioni che fossero commisurate all’avanzamento
delle potenzialità tecnologiche della fascia consumer.
In quest’ultimo caso, l’esperienza della videometria era espressamente
conseguente all’uscita sul mercato, nel 1984, del personal computer Apple
Macintosh, il primo con un mouse di serie e con una interfaccia di tipo WIMP
(Windows, Icons, Mouse, Pointer), a cui fu presto possibile interfacciare un
convertitore analogico digitale per la digitalizzazione di immagini da telecamera. Queste potevano essere acquisite a 1 bit di profondità cromatica, il
cui dettaglio gra�co era l’equivalente di un disegno puntinato al tratto. Fa
sorridere pensare che quei primi esperimenti di elaborazione dell’immagine
dello scavo archeologico avvenissero su un computer che, pur essendo cento
191
A. Gottarelli
Fig. 2 – 1986. Videometria digitalizzata dello scavo di una abitazione: livello raster ad 1 bit di profondità cromatica e livello vettoriale. Scavi di Pianella di Monte Savino, Monte Bibele, Bologna.
volte più potente di quello che, solo quindici anni prima, aveva condotto
l’uomo sulla Luna, si presentava con 128 Kb di memoria RAM, senza hard
disk e con memoria di archiviazione e sistema operativo residenti su dischetto
removibile da 400 Kb!
Contrariamente ai settori applicativi della gestione del dato alfanumerico e della gra�ca vettoriale, che già avevano raggiunto l’integrità funzionale
nei sistemi di acquisizione, elaborazione ed edizione, il settore della gra�ca
raster e della elaborazione ed archiviazione di immagini, suoni e �lmati
iniziava quell’inseguimento per il raggiungimento degli standard minimi di
integrità del dato che avrebbe interessato il decennio successivo e su cui un
ruolo trainante per il mercato consumer lo ebbero le soluzioni innovative
della piattaforma Apple.
I livelli minimi per lo standard video si raggiunsero nel 1988, con il
formato NTSC (640×480), limitatamente all’immagine a livelli di grigio,
192
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
o colore a 8 bit. Nel 1990 si raggiunse lo standard PAL (768×576) con
possibilità di gestione colore a 24 bit. Per la pienezza di gestione del dato
multimediale video, con suono 48 Mhz, formato PAL a 24 bit di profondità
cromatica visualizzato a 25 fotogrammi al secondo, bisognerà attendere il
nuovo millennio, con il completo assestamento dei protocolli di connessione
audio-video, la maturazione dei supporti DVD e la completa conversione al
digitale di telecamere e apparecchi fotogra�ci. Innovazioni cui si dovettero
far corrispondere fattori di crescita esponenziale delle capacità di calcolo e
di dimensione dei processori e dei supporti di archiviazione.
A tutto ciò corrispondeva in ambito archeologico un progressivo
diffondersi di esperienze legate alla costituzione di sistemi di archiviazione
di immagini e alla visualizzazione museogra�ca, mentre nell’ambito della
modellazione gra�ca si introduceva la possibilità di integrare nei tradizionali
CAD di origine industriale la componente raster, quale elemento qualitativo
di rappresentazione delle super�ci. L’uscita sul mercato di modellatori più
orientati alla rappresentazione architettonica e ambientale di tipo analiticoqualitativo, con tecnologie derivate dall’industria dei video games e da quella
cinematogra�ca, comportava, nei primi anni ’90, l’annuncio e la rapida diffusione della “virtual archaeology” (Reilly 1990), quale tematica di punta
per la modellizzazione e visualizzazione del dato archeologico, cui andava
assegnata, negli anni a venire, una particolare importanza nella diffusione e
spettacolarizzazione dei contenuti della ricerca archeologica presso il grande
pubblico (Forte 1996; Barceló, Forte, Sanders 2000).
2. La nascita di Te.m.p.l.a.
Ma i veri elementi di innovazione della pratica del lavoro dell’archeologo, e della disciplina in generale, riguardavano la crescita in quel contesto
di una nuova generazione di giovani studiosi che si rendevano via via capaci
di una gestione più consapevole e condivisa della risorsa informatica, nel
rispetto delle speci�cità dei diversi ambiti applicativi della ricerca.
A coloro che si posero in tale prospettiva apparve subito chiaro che la
corsa al potenziamento dei contenuti multimediali che un elaboratore poteva acquisire ed archiviare avrebbe posto altrettanto celermente il problema
della reale capacità relazionale che i pacchetti software dell’epoca offrivano
nella gestione di questa crescente e variegata massa di dati. Era in sostanza
necessaria una radicale innovazione concettuale nell’architettura dei software,
in particolar modo per quel principio che vedeva gli applicativi nascere sulle
esigenze della grande domanda del mercato, e dunque marchiati su funzioni
speci�che e su speci�che tipologie di dati.
La svolta silente si ebbe con l’introduzione sul mercato, nel 1987, di
HyperCard la prima piattaforma programmabile per la gestione di dati iper193
A. Gottarelli
Fig. 3 – 1999. Videata del CD multimediale interattivo realizzato in occasione della mostra I principi
etruschi tra Mediterraneo ed Europa. Museo Civico Archeologico di Bologna.
testuali, termine a cui nel tempo verrà attribuita la capacità di rappresentare
strutture relazionali tra i diversi media. Precursore ed ispiratore del protocollo
HTTP (HyperText Transfer Protocol) e del Javascript, sulla sua scia si evolveranno piattaforme di sviluppo con potenziate funzionalità, quali SuperCard
e principalmente Director, che costituiranno l’ossatura per lo sviluppo in
archeologia di una moltitudine di soluzioni multimediali basate su linguaggi
object-oriented, nei più svariati ambiti applicativi: dalla realizzazione di piccoli
software dedicati a speci�che funzioni, ai sistemi di archiviazione dei media
su base relazionale; dai chioschi informativi per allestimenti museogra�ci, ai
prodotti multimediali distribuiti su supporti CD e DVD (Fig. 3).
Proprio attraverso la sperimentazione di soluzioni integrate per la
gestione del dato multimediale, �n dal 1988 si intraprendono i primi passi
verso soluzioni applicative basate su sistemi ipertestuali. In quell’anno viene
presentato presso la Summer School in archeologia della Certosa di Ponti194
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
gnano di Siena, dedicata a Le scienze in archeologia (Mannoni, Molinari
1990), un primo sistema informativo ipertestuale relativo all’archiviazione
delle impronte digitali e dattilari sulla ceramica a vernice nera di Monte Bibele, da cui ha inizio una lunga e pro�cua collaborazione dello scrivente con
il Dipartimento di Archeologia e Storia delle Arti dell’Università di Siena,
illuminato dalla �gura indimenticabile di Riccardo Francovich, concorrendo
alla costruzione del sistema informativo e dei laboratori informatici di quella
istituzione. Nello stesso 1990, per iniziativa di Francovich e di Mauro Cristofani e per cura di Paola Moscati, prenderà il via il piano editoriale della
rivista «Archeologia e Calcolatori», punto di riferimento imprescindibile negli
anni a venire per gli sviluppi di tale disciplina.
La possibilità dei giovani archeologi di poter intervenire direttamente
sullo sviluppo del software, o quantomeno di comprenderne i meccanismi di
progettazione, modi�cava radicalmente i termini di quel dif�cile rapporto che
negli anni precedenti era intercorso tra le �gure professionali tradizionali del
mondo dell’informatica e quello dell’archeologia. E questa si rivelava essere la
premessa che avrebbe dato ai “Metodi informatici della ricerca archeologica”
quel pieno titolo e quella dignità disciplinare che, agli inizi del nuovo millennio, ne avrebbe consentito l’inserimento tra gli insegnamenti caratterizzanti
l’iter formativo universitario dell’archeologo.
È in questo contesto che, a partire dal 1992, viene istituito il primo insegnamento di “Informatica applicata all’archeologia” presso l’Università di
Siena, e che lo scrivente si costituisce in Te.m.p.l.a., studio professionale per
la realizzazione di sistemi informativi e prodotti multimediali, dando inizio
ad una lunga collaborazione con svariati Musei, Soprintendenze e Università
italiane, e promuovendo numerose realizzazioni di sistemi informativi multimediali, progetti museogra�ci e video in computer gra�ca. Tra questi, nel
1994, realizza una delle prime applicazioni italiane di “virtual archaeology”,
con la ricostruzione della tomba egizia del generale Horemheb (Fig. 4), parte
integrante del rinnovato allestimento museogra�co della sezione egizia del
Museo Civico Archeologico di Bologna (Gottarelli 1996).
Con la direzione della Summer School della Certosa di Pontignano sul
tema Sistemi informativi e reti geogra�che in archeologia: GIS-INTERNET
(Gottarelli 1997), il tema delle tecnologie multimediali in archeologia si
affaccia sul web, agli albori della sua affermazione di massa. Nello stesso
1995 è istituito presso la Facoltà di Conservazione dei Beni Culturali dell’Università di Bologna l’insegnamento di “Tecniche della documentazione,
classi�cazione ed edizione”, primo insegnamento di informatica applicata
all’archeologia attivato presso tale Università. In seguito, nel 2001, viene
fondato presso il Dipartimento di Archeologia dell’Università di Bologna il
Centro di Ricerca dipartimentale Te.m.p.l.a - “Tecnologie Multimediali per
l’Archeologia”, e viene istituito, coerentemente con la declaratoria del nuovo
195
A. Gottarelli
Fig. 4 – 1993. Un fotogramma del video in computer gra�ca con la ricostruzione 3D della tomba
men�ta del generale Horemheb. Museo Civico Archeologico di Bologna.
ambito disciplinare “Metodologia della ricerca archeologica” (L-ANT/10),
l’insegnamento di “Metodi informatici della ricerca archeologica” presso la
Facoltà di Conservazione dei Beni Culturali.
Al Centro Te.m.p.l.a. saranno da assegnarsi negli anni seguenti numerosi progetti e realizzazioni ad alto contenuto di innovazione tra cui: il primo
sistema multimediale tridimensionale basato su schermo statico dinamico,
presso il Castello di Beseno (Trento) e la realizzazione del primo Museo
Multimediale Polifunzionale presso il parco naturalistico di Onferno, nel
Comune di Gemmano (Rimini).
3. Un Centro di Ricerca per la multimedialità in archeologia
L’esperienza maturata nel corso dei due decenni precedenti aveva fatto
comprendere che il più ef�cace inserimento della nuova disciplina nell’ambito
dei corsi universitari legati all’archeologia e, più in generale ai beni storici e
196
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
culturali, doveva comportare un’uscita decisa dalla fase pioneristica e sperimentale legata ai singoli progetti applicativi, per giungere ad una ri�essione
più complessiva sulle ricadute che una capillare diffusione delle tecnologie
informatiche avrebbe comportato sulla stessa infrastruttura informativa e
�sica delle istituzioni preposte alla ricerca e alla didattica.
È in questa prospettiva che, con il nuovo millennio, veniva progettata la nascita di un Centro di Ricerca il cui scopo primario era istituire una
organizzazione per la logistica, il coordinamento, la programmazione e lo
sviluppo delle oramai molteplici attività collegate con l’uso delle tecnologie
multimediali e dell’informazione in ambito archeologico.
Il Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia gestisce oggi le funzioni di un Network Archeologico di Ricerca (NADIR)
e della rete telematica che collega le diverse sedi dipartimentali di Bologna,
Ravenna, Monterenzio e Acquaviva Picena, cui si lega l’attività ordinaria di
amministrazione e tutoraggio della rete informatica, e la cui �nalità ultima
è la promozione della conoscenza sulle implicazioni metodologiche e procedurali che l’uso delle tecnologie dell’informazione hanno sulle consuetudini
disciplinari. È inoltre attivo nello studio e nell’organizzazione di network
integrati per la ricerca, conducendo ricerche sulle tecnologie di telerilevamento
dello scavo archeologico, sui sistemi di visione assistiti da elaboratore e, più
in generale, sulla modellizzazione digitale dell’informazione archeologica,
dall’acquisizione delle informazioni sul campo �no alla loro elaborazione,
archiviazione e musealizzazione multimediale.
Al �ne di accentuare il carattere parallelo ed infrastrutturale del Centro
rispetto alle istituzioni a cui afferisce, la struttura concettuale di Te.m.p.l.a.
è di tipo simbolico, basata su tre distinti livelli, ispirati alla tripartizione dei
livelli discendenti comune a tutte le tradizioni cosmologiche dell’antichità: il
livello celeste, la terra di mezzo ed il livello infero.
Il livello superiore è AEROSTAT che si occupa della ricerca di tecnologie aerostatiche per l’archeologia. Il livello di mezzo è TECA, acronimo di
Tecnologie per la Catalogazione Archeologica, che si occupa della progettazione di sistemi di archiviazione multimediale e del relativo software. Il livello
inferiore è NADIR, acronimo di Network Archeologico di Ricerca, che si
occupa della gestione logistica integrata delle tecnologie, della rete telematica
e delle sedi �siche.
4. La nuova frontiera della multimedialità: il Network logistico
integrato
NADIR è dunque un’idea di “rete di lavoro” il cui �ne è l’organizzazione
complessiva dei processi operativi della ricerca, basati sull’integrazione tra
l’infrastruttura della rete telematica e l’infrastruttura delle sedi �siche e delle
197
A. Gottarelli
aree funzionali entro cui la ricerca stessa ha luogo (Gottarelli 2008). Si
occupa quindi della standardizzazione dei sistemi tecnologici di elaborazione,
archiviazione ed edizione dei dati su architetture multimediali object-oriented,
e si occupa inoltre dell’amministrazione della rete informatica, dell’arredo,
della segnaletica, dell’organizzazione delle aree di lavoro nelle diverse sedi,
della logistica e del coordinamento delle reciproche funzioni informative.
Il Network logistico è innanzitutto basato su un sistema di codi�ca di
luoghi, aree e funzioni secondo una gerarchia basata sul privilegio di accesso
dell’utente. Il Network è strutturato in nodi, che si identi�cano con le sue
sedi o centri di attività, distinti per istituzione di appartenenza e luogo (es.
sede di Bologna sigla del nodo ArBo, dove Ar=Archeologia e Bo=Bologna).
Attualmente è composto da cinque nodi: le sedi istituzionali di Bologna (ArBo)
e Ravenna (ArRa) e quelle convenzionate di Monterenzio (ArMo), Quinzano (ArQu) e Acquaviva Picena (ArAq). A loro volta i nodi sono suddivisi in
aree funzionali, che si diversi�cano per tipo di attività e per relativo colore e
privilegio di accesso.
Le aree funzionali sono poi suddivise in isole operative, che sono
postazioni in cui si svolge una particolare funzione tecnologica. Le isole
operative sono identi�cate dalle precedenti sigle più il numero IP (Internet
Protocol) del singolo computer (Fig. 5).
Fig. 5 – 2002. Schema del sistema di codi�ca delle aree dipartimentali del Network NADIR.
198
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
5. Networking e web software
Il Dipartimento, nelle sue attuali quattro sedi, dispone di circa 60
isole operative collegate in rete, dislocate in 12 aree funzionali, dedicate alla
ricerca ed alla didattica di laboratorio. A queste si aggiungono le dotazioni
personali degli studi dei docenti, dei ricercatori e del personale tecnico-amministrativo.
La veri�ca degli accessi secondo il livello di privilegio e alcune funzioni di controllo in remoto di comandi di sistema, quali shutdown, restart e
logout, oltre che il controllo del livello di attività dei singoli computer, sono
monitorati dalla centrale operativa Te.m.p.l.a. per mezzo del software proprietario NADIR. La sua architettura web software, fortemente innovativa,
è basata su piccoli applicativi residenti su server che vengono condivisi da
tutti i computer collegati in rete, venendo a comporre l’interfaccia gra�ca di
ognuno. La tecnologia, progettata in linguaggio Lingo su Director MX 2004,
è composta da un piccolo player (2 Mb) multipiattaforma che, una volta installato sulla macchina remota, si occupa dell’apertura via rete degli elementi
dell’interfaccia gra�ca: questi costituiscono a loro volta singoli applicativi
�nalizzati a speci�che funzioni. Ogni possibile aggiornamento può quindi
avvenire intervenendo unicamente sul �le condiviso, la qual cosa consente
una decisiva sempli�cazione nella gestione dell’intero sistema.
Oltre al controllo in remoto dell’attività dell’intero parco macchine, il
player NADIR è in grado di operare il controllo ambientale delle diverse aree
per mezzo di telecamere.
6. Gestione logistica delle tecnologie mobili
La rete NADIR sperimenta inoltre strategie innovative per la gestione
logistica delle apparecchiature orientate alla ricerca sul campo, secondo il
criterio che vede tutte queste essere oramai da considerarsi vere e proprie
periferiche di un sistema informatico integrato. Un magazzino centralizzato
per la distribuzione delle tecnologie di documentazione e rilevamento dello
scavo archeologico è stato allestito presso il nodo di Bologna.
L’organizzazione del magazzino è impostata sulla uniformità del packaging di protezione degli strumenti e sulla codi�ca dei contenitori secondo
un criterio posizionale. Gli scaffali sono costantemente videocontrollati per
l’aggiornamento in automatico (tramite un sistema di riconoscimento video)
dei contenitori presenti e di quelli prelevati. Il packaging, frutto di una liberale sponsorizzazione della ditta GTLine di Anzola dell’Emilia (Bologna), è
costituito da contenitori in resina della linea Explorer Cases, ad elevata tenuta
ermetica (sabbia ed acqua), ad alta resistenza agli urti e allo schiacciamento e
che risultano dotati di valvola anti decompressione per il trasporto aereo in
199
A. Gottarelli
stiva, al �ne di preservare le componenti elettroniche. Le valigie di dimensione
media, dedicate principalmente alle stazioni totali laser, sono state appositamente corredate con accessorio a zaino per il trasporto in località impervie.
7. Isole operative speciali: il progetto Unibook.it
Il Network promuove il progetto e la creazione di isole operative ad alto
contenuto tecnologico, �nalizzate alla realizzazione di servizi multimediali
altamente strategici per la ricerca. Unibook.it è un modulo tecnologico sperimentale, costituito da tre tipologie di strumenti tra loro collegati, �nalizzato a
rendere un servizio per la ricerca unitario e ben identi�cato, in quanto sistema
integrato per la digitalizzazione ultrarapida, elaborazione, archiviazione e
stampa istantanea di testi scienti�ci.
Il sistema, che si può con�gurare come primo modulo di un più ampio
progetto strategico d’Ateneo, costituisce nell’insieme un unicum basato su
tecnologie assolutamente innovative, non ancora presenti in Italia in questa
con�gurazione, il cui motore è costituito da una unità di scansione ultrarapida
di materiale bibliogra�co rilegato modello Kirtas APT 2400. Questa apparecchiatura, grazie al sistema automatico di scorrimento delle pagine, è in grado
di scansionare 2400 pagine all’ora, a 24 bit di profondità cromatica e ad una
risoluzione di 600 dpi, nel formato pagina originale massimo di 27,5×35 cm.
All’unità Kirtas APT 2400 è interfacciato un secondo modulo tecnologico,
in cui si integrano la doppia funzione di scansione rapida di documenti non
rilegati, a colori e a toni di grigio, con la funzione di stampa digitale ad alta
velocità. Questa seconda unità modulare è costituita da un sistema Xerox
Nuvera Copier/Printer 100 e da un secondo sistema Xerox DocuColor 250.
Le due unità garantiscono alte prestazioni di stampa alla velocità di 100 pag./
minuto in formato A4, e 60 pag./minuto in formato A3, alla risoluzione di
4800×600 dpi. A queste funzioni sono integrati due moduli per la scansione
veloce da caricatore di fogli singoli A3/A4, con velocità di 120 pag./minuto
a 600×600 dpi (Fig. 6).
La costituzione di una unità sperimentale per il completo trattamento
digitale di testi rilegati, che è condizione indispensabile per la realizzazione
speditiva di grandi archivi bibliogra�ci in formato digitale, ha ricadute strategiche sulla possibilità di accedere velocemente alle oramai estesissime fonti
bibliogra�che mondiali, promuovendo, al tempo stesso, la migliore visibilità e
diffusione del proprio “prodotto della ricerca”. La possibilità inoltre, a partire
dagli archivi digitali, di fornire un servizio di stampa istantanea on demand di
testi specialistici che, nella maggior parte dei casi, pur risultando fondamentali
per la ricerca non sono più editi, costituisce una risorsa strategica per la difesa
della stessa diffusione dei contenuti della ricerca scienti�ca, in un mercato
editoriale sempre più costretto dalla massi�cazione della domanda.
200
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
Fig. 6 – 2006. Progetto del modulo tecnologico Unibook.it per la digitalizzazione ultrarapida di
testi rilegati e la loro stampa on demand.
8. Gestione in remoto di nodi museali: il progetto di Museo Multimediale Polifunzionale
Le funzioni del Network logistico prevedono in�ne la possibilità di
concepire, sul territorio, nuove forme di gestione del dato multimediale in
ambienti museali appositamente allestiti, con funzioni interamente controllate
in remoto da centrale operativa.
Il progetto, in corso di realizzazione, del Museo Multimediale Polifunzionale di Onferno, presso il Comune di Gemmano (Rimini), è relativo alla
costituzione di un “box” per la gestione �essibile delle strutture culturali tipiche
di un Comune basandosi su un unico ambiente interamente videoproiettato,
la cui destinazione d’uso può essere modi�cata via software. Una prima con�gurazione prevede la funzione di salone informativo preliminare alla visita
della riserva naturalistica di Onferno, con contenuti multimediali di carattere
archeologico e storico-naturalistici; una seconda consente la trasformazione
201
A. Gottarelli
Fig. 7 – 2008. Museo Multimediale Polifunzionale di Onferno (Gemmano, Rimini). Progetto delle
pareti attrezzate alla videoproiezione.
Fig. 8 – 2008. Museo Multimediale Polifunzionale di Onferno (Gemmano, Rimini). Vista d’insieme
dell’ambiente.
202
Da Te.m.p.l.a. al Centro di Ricerca per le Tecnologie Multimediali Applicate all’Archeologia
dell’ambiente in sala conferenze; una terza in cinema-teatro; una quarta in
luogo di culto policonfessionale.
Il sistema di videoproiezione verte senza soluzione di continuità sulle
tre pareti dell’ambiente espositivo, dove verranno allestiti tre grandi schermi
costituiti da pannellature sospese (Fig. 7). Questa soluzione vuole accentuare
il carattere estensivo del sistema proiettivo su tutte le super�ci verticali della
sala, in modo tale da potenziare la percezione di immersività dell’osservatore
all’interno del contenuto informativo, oltre che suggerire l’idea di “museo videoproiettato”, ove il contenuto multimediale non è parte distinta e puntualmente
delimitata dell’allestimento, ma ne è elemento strutturale e costitutivo.
Il principale sistema di proiezione è costituito da 8 videoproiettori
Hitachi CP-A100 a focale ultracorta. Tale tecnologia garantisce un cono di
proiezione la cui geometria consente la visualizzazione estensiva per settori
contigui senza l’interferenza di coni d’ombra dati dalla presenza degli osservatori. Tali rapporti geometrici hanno comandato sull’intero assetto del sistema
espositivo, �ssandone le dimensioni ed i rapporti interni (Fig. 8).
Il sistema prevede la predisposizione di un sistema informatico di controllo in rete, basato su computer Mac Pro 8 core (2 processori INTEL Xeon
5400 Quad Core, 3.2 Ghz) per il controllo degli 8 videoproiettori a parete.
Un ulteriore computer è destinato al controllo del sistema di videoproiezione a pavimento e alla gestione del monitor touch screen per la selezione dei
programmi di visualizzazione. Il sistema prevede la messa in rete geogra�ca
degli elaboratori e dei videoproiettori: questi ultimi sono muniti di scheda
ethernet per il controllo in remoto delle funzioni di spegnimento, accensione,
allarme furto e monitoraggio usura lampada.
Il progetto comprende la sperimentazione del controllo e gestione in
remoto della sala, oltre che l’assistenza on site per i primi 24 mesi di attivazione, a garanzia della piena funzionalità del sistema.
Secondo i principi ispiratori di tale soluzione, il lungo iter di sviluppo
delle tecnologie multimediali in ambito archeologico, storico ed ambientale,
entra così, alla �ne della prima decade del nuovo millennio, in una nuova
dimensione concettuale che porterà ad una sostanziale rivoluzione nel modo
stesso di concepire lo spazio �sico dei luoghi preposti alla musealizzazione e
trasmissione dell’informazione culturale.
Antonio Gottarelli
Dipartimento di Archeologia
Università degli Studi di Bologna
BIBLIOGRAFIA
Barceló J.A., Forte M., Sanders D.H. (eds.) 2000, Virtual Reality in Archaeology, BAR
International Series 843, Oxford, Archaeopress.
203
A. Gottarelli
D’Andria F. (ed.) 1987, Informatica e Archeologia classica. Atti del Convegno internazionale
(Lecce 1986), Galatina, Congedo Editore.
Forte M. (ed.) 1996, Archeologia. Percorsi virtuali delle civiltà scomparse, Milano, Arnoldo
Mondatori Editore.
Gottarelli A. 1987, Tecniche di documentazione dello scavo archeologico: introduzione alla
videometria digitalizzata, in D’Andria 1987, 63-90.
Gottarelli A. 1996, Museogra�a e informatica: la ricostruzione virtuale della tomba men�ta
del generale Horemheb, in Moscati 1996.
Gottarelli A. (ed.) 1997, Sistemi informativi e reti geogra�che in archeologia: GIS-INTERNET. Atti del VII ciclo di lezioni sulla ricerca applicata in archeologia (Certosa di
Pontignano, Siena, 1995), Firenze, All’Insegna del Giglio.
Gottarelli A. 2008, NADIR. The Archaeological Research Network of the Department of
Archaeology, University of Bologna, in N. Marchetti, I. Thuesen (eds.), ARCHAIA.
Case Studies on Research Planning, Characterisation, Conservation and Management
of Archaeological Sites, BAR International Series 1877, Oxford, Archaeopress, 181184.
Mannoni T., Molinari A. (eds.) 1990, Scienze in archeologia. Atti del II Ciclo di lezioni
sulla ricerca applicata in archeologia (Certosa di Pontignano, Siena, 1988), Firenze,
All’Insegna del Giglio.
Moscati P. (ed.) 1996, Atti del III Convegno internazionale di archeologia e informatica
(Roma 1995), «Archeologia e Calcolatori», 7.
Reilly P. 1990, Towards a virtual archaeology, in K. Lockyear, S. Rahtz (eds.), Computer
Applications and Quantitative Methods in Archaeology, BAR International Series 565,
Oxford, Tempus Reparatum, 133-139.
ABSTRACT
By means of the NADIR network, designed by the Research Centre for Multimedia
Technologies Applied to Archaeology (Te.m.p.l.a.), the Department of Archaeology of the
University of Bologna organises, controls and develops the use of multimedia technologies in
archaeological activities. The reach of NADIR covers a broad spectrum of activities that ranges
from the management of the net and the working seats, to the organisation of the equipment
logistics, to the realisation of special operational workspace and services (e.g., Unibook.it) and
the experimental projects for the remote-control of workspaces and multimedia exhibition
halls (e.g., the Multimedia and Multifunctional Museum of Onferno).
204
Archeologia e Calcolatori
20, 2009, 205-221
FROM ARTEFACT TYPOLOGIES TO CULTURAL HERITAGE
ONTOLOGIES: OR, AN ACCOUNT OF THE LASTING IMPACT
OF ARCHAEOLOGICAL COMPUTING
1. Introduction
Historical accounts of archaeological computing typically situate its
growth as a corollary of the rise of systems theory, positivism and the cult
of science of post-Second World War developed Western societies. The number-crunching power of the computer was seen to be a perfect match for the
nomothetic aspirations of processual archaeology of the 1960s and 1970s,
which was served by a methodological approach based on hypothesis testing
and statistical inference. Yet the post-processual shift in 1980s archaeology
saw a disillusionment with the objectivist claims of formal and mathematical approaches to archaeological research, and a repositioning of the role of
computers as a tool for research: «A mathematical archaeology which could
explain material culture as an aspect of a logical relation, which would attempt
to explain the complex data we investigate using statistical tests and procedures externally applied to the data is incompatible with archaeology being
an active mediation of past and present. However […] statistical procedures,
especially those which are computer-based, are a valuable heuristic device,
manipulating large bodies of data, summarizing variability, redescribing, but in
no way explaining anything or providing the basis for contentions» (Shanks,
Tilley 1993, 245).
Cognitive archaeology was advanced in the mid-1990s as a response
to post-processualism by accommodating some of the criticisms of the latter,
especially regarding the importance of the symbolic, ideological and cognitive
practices of past cultures, while keeping a distance from its assumed relativism
and subjectivism. In a recent systematization of the relationship between developments in archaeological episteme and archaeological computing practice,
the emergence of cognitive archaeology is associated with the consolidation of
Geographic Information Systems and arti�cial intelligence-based approaches,
as well as the emergence of the new application methods of individual modelling, visualization and webography (Zubrow 2006). The prime importance
of GIS, visualization and electronic communication in current archaeological
practice is acknowledged by other workers (Richards 1998; Huggett,
Ross 2004). However, while growing interest in archaeological archives and
data management is manifest in recent publications (Lock, Brown 2000;
Evans, Daly 2006), early work on formal and computer-based approaches
205
C. Dallas
to archaeological typology and artefact analysis remains peripheral to our
current understanding of digital archaeology.
This paper attempts to redress this situation, by reclaiming the theoretical
and methodological signi�cance of the work of pioneering researchers, from
the 1950s onwards, who contributed to the development of new theoretical
and methodological instruments towards the categorization of archaeological
artefacts. While their approaches are diverse, their work is invariably grounded
on the use of formal and computer-based approaches towards constituting
archaeological databases and establishing artefact typologies. Their seminal
contribution in problematising established notions of archaeological data
constitution, description, style, archaeological typology, and the construction
of archaeological knowledge, pre�gures recent theoretical developments and
can offer valuable perspectives to current research challenges in digital heritage
and material culture theory.
The approach followed to establish this goal is based on a biographical
narrative of this author’s involvement with archaeological computing and cultural heritage informatics from the early 1980s to the present. It may be read
as a journal, and a notebook of key in�uences, readings and research concerns
that shaped twenty-years of a professional journey from archaeology to the
�eld of museums and information, but also as an attempt to identify themes
in archaeological computing, material culture theory and artefact-based research which remain relevant to current concerns and prospects regarding
the role of cultural heritage institutions, memory practices and technological
mediation in the information age.
2. From archaeological computing to cultural heritage informatics:
a personal account
2.1 The 1980s
In 1980, when I went up to Oxford for postgraduate studies in Classical
archaeology, the spirit of the place was more humanities than science, more
hermeneutics than explanation, and more scriptorium than laboratory. My
research was on a series of over a thousand grave-reliefs from Classical Athens,
a material already studied literally to death for more than a century, and one
that had produced elegant, erudite and insightful monographs, mostly of an
art connoisseurship and cultural history slant. At the time I was intellectually
stimulated by structuralism and semiotics, promising approaches to decipher
the complex world of ideas, symbols and meaning manifest in ancient art and
iconography, which also appeared to engage in fruitful dialogue with social,
mythographic, and symbolic interpretations of Greek funerary monuments,
a central part of my Classical archaeologist’s cosmos.
206
From artefact typologies to cultural heritage ontologies
Like others of my generation, I became stimulated by the archaeological theory debates of the time: I shared the promise of a uni�ed science of
archaeology; the quest for developing formal methodologies and middlerange theories, applicable across archaeological problems and contexts; the
dissatisfaction with the descriptive tedium of traditional archaeology, and
with its interpretive timidity; the intense interest in formal approaches to archaeological description and argumentation, such as practised by the French
logicistes; and, not least, the fascination with the capabilities of the computer,
still novel in archaeology twenty �ve years after Gardin’s pioneering experiments (reported in Gardin 1967), as the new orderer of data, information
and knowledge. I was fortunate to join Susan Hockey’s humanities computing
classes, took courses in computer programming and social science statistics
at the Oxford University Computing Service (of which, together with fellow
computing archaeologists Sebastian P.Q. Rahtz and Seamus Ross, I had become a regular customer), and started attending CAA and TAG (Theoretical
Archaeology Group) conferences. I was fascinated by the rigour and elegance
of David Clarke’s Analytical Archaeology (Glaser, Strauss 1967), impressed
by the clarity of Jean-Claude Gardin’s Archaeological Constructs (Gardin
1980), and intrigued by the new complexities introduced by several of the
contributions in Ian Hodder’s Symbolic and Structural Archaeology (Hodder
1982).
In 1986, I was introduced by Gary Lock to John Wilcock’s Research
Centre of Computer Archaeology at North Staffordshire Polytechnic. As a
visiting research fellow, I spent a couple of days each week at the RCCA,
debating anything from the Harris matrix to expert systems, and from
polythetic classi�cation to 3D-visualisation, with the young researchers at
the Centre, including Gary Lock himself, now of the University of Oxford,
a pioneering �gure in a �eld as broad as quantitative archaeology, GIS and
archaeological information systems; Jeremy Huggett, and Julian Richards,
both established academics with signi�cant research contribution, the latter
leading the Archaeology Data Service in the UK; Paul Reilly, whose radical
“virtual archaeology” is even more relevant today, but who was virtually lost
to archaeology after his conversion to a business career in the 1990s; and, last
but not least, Dick Spicer, who met an untimely death, and was thus literally
lost to archaeology, and his peers. As for myself, I shortly afterwards returned
to Greece with my young family, and took a job in museums.
2.2 Towards a semantic representation
My D.Phil. thesis – The signi�cance of costume in Classical Attic grave
stelai: a statistical analysis – was an attempt to provide a social interpretation
of the function of costume and other personal attributa in the iconography
207
C. Dallas
Fig. 1 – Examples of Classical Attic gravestone compositions.
208
From artefact typologies to cultural heritage ontologies
of Classical Athenian funerary monuments. It was based on the quantitative
analysis of a dataset of about sixteen hundred formal descriptions of the
iconography of human �gures on Attic stelai, aiming at the de�nition of �gure types based on costume, and at the identi�cation of social and symbolic
associations for these types. Analytical methods used ranged from simple
descriptive statistics to hypothesis testing, numerical classi�cation and scaling. Analysis showed that important aspects of social identity, such as social
status, deceased vs. survivor status, and social age, categorised according to a
formal system of transitions, both constitute and are signi�ed by the typology
of costume and other iconographic traits of �gures depicted (Dallas 1987a,
1987b; Fig. 1).
This intensive encounter with the power of quantitative analysis, supported by statistical software packages such as SAS and SPSS, made me aware of the
acute importance of data constitution – selection of cases, but also, description
of the empirical archaeological realities at hand – for the validity of the results,
and indeed I dedicated a full chapter in my thesis in discussing the issue. I was
already familiar with the early work of Jean-Claude Gardin’s research group
in CNRS, which from the mid-1950s onwards produced several formal “descriptive codes” for diverse kinds of archaeological entities, from ornament to
civic monuments (Gardin 1958, 1967, 1976, 1978; Lagrange 1975; Salomé
1980), and was impressed by his semiotic approach, based on the representation
of latent structure by means of a succinct calculus of morphological primitives,
de�ned by virtue of methodological principles of segmentation, orientation
and (formal) differentiation (Gardin 1967). I was also fascinated by earlier
work of American anthropologists who, under the in�uence of structuralism
and generative linguistics, had introduced structural and apparently fruitful
methods for the formal representation of artefacts (Munn 1966; Glassie 1975;
Deetz 1977), and found considerable interest in more recent formal, semiotic
and structural approaches to iconography, artefact analysis and design systematics (Hoffmann 1977; Hodder 1982, 1987; Lagrange, Renaud 1983;
Washburn 1983; Moscati 1986; Guimier-Sorbets 1990).
Critical examination revealed to me some important shortcomings of
the traditional quantitative analysis present in my doctoral thesis. In short,
crucial aspects of a broad spectrum of complex archaeological entities, including iconographies (and unlike �bulae or arrowheads), seem to require
concepts of internal syntactic structure and external relationality lacking from
Clarke’s elegant attribute-artefact-type conceptualisation (1968, 35-37),
and from the consequent quantitative analysis of a global attribute list, on
which the whole edi�ce of archaeological statistical inference and numerical
typology, from Spaulding (1953) onwards, is founded.
Increasingly, I saw the issue of data constitution as one of “description
as symbolic representation”, and sought insight in the relevant literature of
209
C. Dallas
Fig. 2 – A state transition network and compositional transformation rules for Classical Attic grave
stelai (Dallas 1992b).
the �eld of arti�cial intelligence (Brachman, Levesque 1985; Charniak,
McDermott 1985; Levesque 1986). Further experimentation with the
iconography of Classical Attic grave stelai led me to identify and discuss
alternative formal representations of stele composition, including one- or twodimensional strings, classi�cation trees, state transition networks based on
geometric transformations (Fig. 2), syntactic categories representing betweenand within-scenes functions (such as congruence, congruence of context vs
symmetry, parallelism), semantic paths and rewrite-rule grammars (Fig. 3).
These conceptualisations appeared to account more fully for the syntactic (i.e.,
relational) and semantic (i.e., narrative) structure of gravestone compositions
than a rectangular, case-attribute matrix (Dallas 1992c).
210
From artefact typologies to cultural heritage ontologies
Fig. 3 – A grammar for Classical Attic stele composition (Dallas 1992b).
In an approach inspired by earlier research work in syntactic image
recognition (Eshera, Fu 1986) and space syntax in architecture and urban
design (Hillier, Hanson 1984; Hillier et al. 1987), I also thought that the
shortcomings of the global attribute list in capturing compositional structure
in iconographies, or ancient Greek house layouts, may be countered by the
adoption of an attributed relational graph representation, amenable to classi�cation by means of inexact graph matching and providing for a structural
211
C. Dallas
understanding of emerging archaeological types (Dallas 1992b). Another
experiment consisted in identifying graph structures based on a formal
measure for the collocation of �gurative subjects (or motifs) in iconographic
compositions, and examining how such structures may be used as a nonhierarchic, semiotic expression of social categorisation mechanisms (Dallas,
Thiopoulos 1993; Dallas 1996).
Complementary kinds of substantive knowledge emerged from each
different representation. At a time when information systems had started becoming more widely available in museums and archaeology, and the orthodoxy
of the relational data model was being challenged by object-oriented alternatives, it became clear to me that rich semantic representations supporting
the multiple embedding of terminological and descriptive systems, multiple
specialisation and instantiation, object part composition, uncertainty and
temporality (Dallas 1994; Bearman 1996) could provide a potentially more
fruitful way to represent and understand material culture.
2.3 The 1990s
I had joined the Benaki Museum (Fig. 4) as Head of the newly-established
Documentation and Systems Department, in 1990, at a time of widespread
increase in the use of computers in cultural heritage institutions. While the immediate task of our small team was the practical generation of simple electronic
inventories, we soon came across the object description and representation
issues archaeological research was already struggling with: in a heterogeneous
collection of archaeological artefacts, art works, ethnographic objects, historical memorabilia and curia spanning from Aegean prehistory to the mid-20th
century, the challenge of providing a descriptive system – a structure and a
terminology – that could account adequately for variability and complexity in
the collection was, indeed, a formidable one. Discussions in the Data Standards
Working Group of CIDOC con�rmed our suspicion that the problem was not
limited to us, but concerned the whole museum community.
Several international museums in the early 1990s were in the midst of
notable change, shifting their attention from the care of collections to communicating with their audiences, and changing their interpretive strategies
from objects to object histories. Collections management systems had been
established for years in major international museums, and many (Dallas et al.
1993; Dallas, Garzotto 1993) already experimented with using electronic
media for communication with the public. The revered “primacy of the object”
was challenged by the ascent of the notion of information, touching upon all
aspects of form, function and meaning of museum objects, and bridging the
epistemic and pedagogical functions of museums themselves.
We found relational databases, promoted at the time as the new mantra for museum documentation and collections management systems, to be
212
From artefact typologies to cultural heritage ontologies
Fig. 4 – Benaki Museum. Room 4-5.
a poor match for scholarly discourse about museum artefacts, seen as heterogeneous and diverse, complex in terms of part composition and meaning
layering, and densely connected with other important information objects,
such as periods and events, places, time intervals and relationships, people
and an almost inde�nite array of possible associations (Dallas 1992a). Since
1992, I worked with Panos Constantopoulos, Martin Doerr and their team
at the Centre for Cultural Informatics at ICS/FORTH towards developing a
semantic information system for the storage and manipulation of scholarly
knowledge on museum artefacts, based on painstaking conceptual analysis
of a wide variety of artefact-related information, and involving such issues
as the relationship between artefact types, the description of compositional
structure of complex objects, and the elucidation of the notions of artefact
creation, modi�cation and use. The system, CLIO (or MITOS, as known
then internally at the Museum) was based on ICS/FORTH’s Semantic Index
213
C. Dallas
Fig. 5 – Benaki Museum CLIO information system query screen (Constantopoulos 1994).
214
From artefact typologies to cultural heritage ontologies
Fig. 6 – Qualitative metaschema of the CIDOC Conceptual Reference Model.
System, an information kernel implementing the Telos knowledge representation language, and capable of incorporating representations of domain
knowledge from material culture disciplines (including background information on artefact typologies, styles, periods and provenance places) as well
as representations of individual artefacts or “occurrences” (Dionissiadou,
Doerr 1994; Christoforaki et al. 1995; Fig. 5).
The CLIO conceptual model provided an elegant, parsimonious and
expressive framework for the symbolic representation of aspects of artefact
knowledge drawn from art historical, ethnographic and archaeological scholarship. While the actual CLIO system was withdrawn from active use at the
Benaki Museum a few years after its inception, the model was adopted in 1996
by CIDOC, the International Documentation Committee of the International
Council of Museums, as the basis for the de�nition of an international Conceptual Reference Model, or ontology, for cultural heritage information (Fig.
6). The CIDOC CRM was expanded by a team of international researchers
from the museum disciplines, information and computer science, and was
accepted in 2006 as ISO standard 21117, still evolving with minor improvements to the present (Crofts et al. 2009).
Debate in the CIDOC CRM Working Group focused more on issues of
CRM harmonisation with other metadata and cultural heritage documentation
standards, as well as on ensuring its interoperability and information integration between heterogeneous cultural heritage information systems, rather
than on developing formal representations of material culture amenable to
215
C. Dallas
descriptive analysis and conceptual manipulation, such as envisaged earlier
by symbolic and structural archaeology. Nevertheless, as we have shown in
our earlier experimentation with CLIO, the CIDOC CRM could be a useful
foundation for building information systems for artefact research, providing
for the expression of such compositional, locational and relational information
as deemed crucial for archaeological knowledge work.
2.4 The new millennium
In the last few years, my interests shifted to a quest for broader understanding of the meanings of artefacts in their evolving contexts of use as
evidence for scholarship, and as agents for cultural meaning through museum
exhibition and digital communication. The intellectual foundations for this
quest can be traced back to interpretative approaches to artefact analysis
(Pearce 1994; Tilley 1999), notions of object agency and biography of things
borrowed from the anthropology of material culture (Kopytoff 1986; Gell
1998) and, not least, the dramatic shift of museum interpretation from objects
to object histories (Vergo 1989). My recent exploration of the concept and
practice of archaeological virtual exhibition, a site for the situated emergence
of knowledge as archaeologists, exhibition curators and audiences engage
with symbolic representations of past realities (Dallas 2007b), owes a lot
to earlier investigation of artefact-based archaeological representation. Our
collective work at the Digital Curation Unit - Athena Research Centre since
2007 is also informed by the need for particular attention to the epistemic
traditions and research requirements of material culture disciplines such as
archaeology (Dallas 2007a; Constantopoulos, Dallas 2008).
As the spectre of information deluge and the danger for future obsolescence of epistemic memory becomes a pressing reality, the interests of information managers and curators on the one hand, and those of scholars and �eld
researchers on the other, converge (McCarthy 2007; Ross 2007). In our recent
work in the DARIAH: Preparing the European digital infrastructure for the arts
and humanities projects (in which we are happy to collaborate, among others,
with the UK Archaeology Data Service), we consider a key priority for future
information systems to be their ability to express, and accommodate, research
questions based on the epistemic discourse, domain knowledge, and object representations of the human sciences (Constantopoulos et al. 2008; Benardou
et al. 2009): themes that motivated many of us who, back in the early 1980s,
became part of a growing second generation of computing archaeologists.
3. Postscript
The 21st century marks the beginning of an era of post-disciplinarity.
In the past decades, archaeology has been moving closer to other human
216
From artefact typologies to cultural heritage ontologies
sciences – both social and historical – and has been increasingly re�exive of
its epistemic nature and social role. Artefacts, as “good to think” objects of
knowledge, are increasingly seen from multiple perspectives, and the functions
of places of memory – archaeological sites, museums, libraries and archives
– in promoting engagement with the past become increasingly blurred.
This paper presents a biographical account of a second generation computing archaeologist’s engagement with seminal methodological and theoretical
perspectives established by some pioneering workers in the �eld. As such, it
supplements rather than attempts to replace an historiography of archaeological computing, or of the methodological and theoretical currents of New
Archaeology, structuralist and cognitive archaeology with which it is normally
associated (Trigger 1989; Preucel 2006; Zubrow 2006). Based on a phenomenological epistemic stance, it focuses on establishing a “representation
of experience” through biographical narrative of an individual’s activity, and
encounters with others, in a particular area of archaeological research: material
culture, and, in particular, artefact description, analysis and classi�cation.
Research activity, viewed through three decades of dramatic change in
contemporary archaeology, may be seen as the manifestation of agency of
a community of knowers and actors involving their individual motives and
goals: archaeologists, workers from �elds as diverse as anthropology, folklore
studies and art history, museum documentation and information professionals,
computer scientists, and others, engaging with cultural heritage informatics
at a time of increasing digitisation of the archaeological heritage and the
development of major digital repositories and digital libraries of resources
relevant to archaeological and cultural heritage research.
The object of such research activity is, from one point of view, the pursuit of
particular questions in material culture theory – especially, with regard to artefact
description, the de�nition and status of types and properties, and the elaboration
of notions of object history, function and meaning based on a rigorous conceptual model. It is also, from another yet not unrelated point of view, a pursuit of
developing good “mediating tools” for the construction of useful representations
of artefacts in the context of distributed, heterogeneous information systems.
Information technology, in the guise of archaeological information systems, digital repositories, artefacts and digital libraries of archaeological knowledge, has
been an important “mediating tool” in its own right, in rendering the research
activity related through the above narrative possible. Archaeological computing,
its methods and tools, has been an essential, yet culturally embedded, rather than
merely instrumental, factor in shaping up the particular paths of research and
debts to important �rst-generation theoretical and methodological traditions
presented here. The biographical account can be read meaningfully through the
lens, and theoretical vocabulary, of cultural-historical activity theory (Dallas
2007a; Kaptelinin, Nardi 2007; Leont’ev 2007).
217
C. Dallas
Contemporary perspectives to cultural heritage information are informed by the pragmatic need to develop formalisms, schemas and functional
speci�cations for information systems – repositories, digital libraries, services
and tools – able to serve the objectives of long term digital preservation and
adequate intellectual and physical access to information resources ranging
from primary evidence to scholarly argumentation. As such systems are being
developed and put in practice, and as vast collections of typically uncategorised, non-curated digital surrogates of cultural objects appear on the web, it
becomes evident that a reductionist approach to documenting these objects
cannot ensure their future epistemic adequacy (McCarthy 2007). The theory
and practice of contemporary digital curation of archaeological, and more
broadly, cultural heritage, viewed as an engagement with the conceptual and
knowledge-related aspects of material culture as evidence, should, in that sense,
be informed by the epistemic traditions of the curating disciplines, including
archaeology (Dallas 2007a).
The seminal work of archaeological computing pioneers such as Spaulding, Gardin and Clarke in the �eld of artefact description and typology, and the
complex and �uid insights it created on the emerging nature of archaeological
knowledge, remains an essential source of intellectual stimulus for the development of adequate conceptual representation models of material culture, in
the context of digital infrastructures for knowledge and communication in the
cultural heritage disciplines. It may prove, surprisingly, to be one of the most
enduring legacies of a pioneering generation of archaeological thinkers.
Costis Dallas
Department of Communication, Media and Culture
Panteion University, Athens
Faculty of Information
University of Toronto
REFERENCES
Bearman D. 1996, Overview and discussion points, in Research Agenda for Networked Cultural Heritage, Santa Monica, CA, Getty AHIP, 7-22.
Benardou A. et al. 2009, Understanding the information requirements of arts and humanities
scholarship: implications for digital curation, «International Journal of Digital Curation», 2010 (accepted for publication).
Brachman R.J., Levesque H.J. (eds.) 1985, Readings in Knowledge Representation, San
Francisco, CA, Morgan Kaufmann Publishers Inc.
Charniak E., McDermott D. 1985, Introduction to Arti�cial Intelligence, Reading, MA,
Addison-Wesley.
Christoforaki M., Constantopoulos P., Doerr M. 1995, Modelling occurrences in cultural
documentation, in P. Moscati (ed.), III International Symposium on Computing and
Archaeology (Roma 1995), «Archeologia e Calcolatori», 7, 1996, 22-25.
218
From artefact typologies to cultural heritage ontologies
Clarke D.L. 1968, Analythical Archaeology, London, Methuen.
Constantopoulos P. 1994, Cultural Documentation: The Clio System, Technical Report
FORTH - ICS/TR - 115.
Constantopoulos P., Dallas C. 2008, Aspects of a digital curation agenda for cultural
heritage, in IEEE International Conference on Distributed Human-Machine Systems
(Athens 2008), Prague, Czech Technical University, 317-322.
Constantopoulos P. et al. 2008, Preparing DARIAH, in Proceedings of the International
Conference on Virtual Systems and MultiMedia (VSMM08), Nicosia, Cyprus (http://
www.dcu.gr/dcu/Documents/documents/preparing-dariah/en/attachment/).
Crofts N., Doerr M., Gill T., Stead S., Stiff M. (eds.) 2009, De�nition of the CIDOC
Conceptual Reference Model (version 5.0.1), ICOM/CIDOC CRM Special Interest
Group (http://cidoc.ics.forth.gr/docs/cidoc_crm_version_5.0.1_Mar09.pdf).
Dallas C. 1987a, Death, costume and social identity: a quantitative study of the iconography
of classical Attic stelae, «Archaeological Computing Newsletter», 11, 9-17.
Dallas C. 1987b, The Signi�cance of Costume on Classical Attic Grave Stelai: A Statistical
Analysis, D.Phil. thesis, University of Oxford.
Dallas C. 1992a, Information systems and cultural knowledge: the Benaki Museum case,
«Computers and the History of Art Journal», 3, 1, 7-15.
Dallas C. 1992b, Relational description, similarity and classi�cation of complex archaeological entities, in G. Lock, J. Moffett (eds.), Computer Applications and Quantitative
Methods in Archaeology, BAR International Series 577, Oxford, Tempus Reparatum,
167-178.
Dallas C. 1992c, Syntax and semantics of �gurative art: a formal approach, in S. Rahtz,
P. Reilly (eds.), Archaeology and the Information Age: A Global Perspective, London,
Routledge, 230-275.
Dallas C. 1994, A new agenda for museum information systems, in S. Ross (ed.), Problems
and Potentials of Electronic Information in Archaeology Seminar: Pre-circulated Papers,
London, British Library, 251-264 (http://eprints.rclis.org/archive/00007978/, accessed
August 8, 2008).
Dallas C. 1996, Multimedia in exhibitions, in Introduction to Multimedia in Museums,
CIDOC Multimedia Working Group, 10-16 (http://cidoc.mediahost.org/content/archive/cidoc_site_2006_12_31/introtomultimediamuseums.pdf).
Dallas C. 2007a, An agency-oriented approach to digital curation theory and practice, in
J. Trant, D. Bearman (eds.), The International Cultural Heritage Informatics Meeting
Proceedings, Toronto, Archives & Museum Informatics (http://www.archimuse.com/
ichim07/papers/dallas/dallas.html/, accessed August 5, 2009).
Dallas C. 2007b, Archaeological knowledge, virtual exhibitions and the social construction of
meaning, in P. Moscati (ed.), Virtual Museums and Archaeology. The Contribution of
the Italian National Research Council, «Archeologia e Calcolatori», Suppl. 1, Firenze,
All’Insegna del Giglio, 31-64.
Dallas C., Garzotto F. 1993, Dynamic multimedia from a museum database: the Gold of
Greece application, in D. Lees (ed.), Museums and Interactive Multimedia, Cambridge,
Archives and Museum Informatics & Museum Documentation Association, 131-139.
Dallas C., Smith P., Lock R., Cornforth J., Davidson C. 1993, Digital multimedia and
classical culture: the Sacred Way perspective, in D.A. Roberts (ed.), European Museum Documentation: Strategies and Standards, Cambridge, Museum Documentation
Association, 117-130.
Dallas C., Thiopoulos C. 1993, Collocation of �gurative subjects on classical Attic stelai and
semiotic categorisation, in CAA93: Computer Applications and Quantitative Methods
in Archaeology (Stoke-on-Trent 1993), unpublished.
219
C. Dallas
Deetz J. 1977, In Small Things Forgotten: The Archeology of Early American Life, New York,
Anchor Books.
Dionissiadou I., Doerr M. 1994, Mapping of material culture to a semantic network, in
Proceedings of the 1994 Joint Annual Meeting of the International Council of Museums
Documentation Committee and Computer Network (Washington DC 1994).
Eshera M., Fu K. 1986, An image understanding system using attributed symbolic representation and inexact graph-matching, «IEEE Transactions on Pattern Analysis and
Machine Intelligence», 8, 5, 604-618.
Evans T.L., Daly P.T. (eds.) 2006, Digital Archaeology: Bridging Method and Theory, New
York-London, Routledge.
Gardin J.-C. 1958, Four codes for the description of artifacts: an essay in archaeological
technique and theory, «American Anthropologist», n.s. 60, 2, 335-357.
Gardin J.-C. 1967, Methods for the descriptive analysis of archaeological material, «American
Antiquity», 32, 1, 13-30 (http://www.jstor.org/stable/278775, accessed August 12, 2008).
Gardin J.-C. 1976, Code pour l’analyse des formes de poteries, Paris, CNRS.
Gardin J.-C. 1978, Code pour l’analyse des ornements, Paris, CNRS.
Gardin J.-C. 1980, Archaeological Constructs: An Aspect of Theoretical Archaeology, Cambridge-New York, Cambridge University Press.
Gell A. 1998, Art and Agency: An Anthropological Theory, Oxford, Clarendon Press.
Glaser B.G., Strauss A.L. 1967, The Discovery of Grounded Theory: Strategies for Qualitative Research, New York, Aldine.
Glassie H. 1975, Folk Housing in Middle Virginia: A Structural Analysis of Historic Artifacts,
Knoxville, Tennessee, University of Tennessee Press.
Guimier-Sorbets A. 1990, Les bases de données en archéologie: conception et mise en oeuvre,
Paris, CNRS.
Hillier B., Hanson J. 1984, The Social Logic of Space, Cambridge, Cambridge University Press.
Hillier B., Hanson J., Graham H. 1987, Ideas are in things: an application of the space
syntax method to discovering house genotypes, «Environment & Planning B: Planning
& Design», 14, 4, 363-385.
Hodder I. 1982, Symbolic and Structural Archaeology, New York, Cambridge University Press.
Hodder I. (ed.) 1987, The Archaeology of Contextual Meanings, Cambridge, Cambridge
University Press.
Hoffmann H. 1977, Sexual and Asexual Pursuit: A Structuralist Approach to Greek Vase
Painting, London, Royal Anthropological Institute.
Huggett J., Ross S. 2004, Archaeological informatics: beyond technology, «Internet Archaeology», 15 (http://intarch.ac.uk/journal/issue15/inf_index.html, accessed September
21, 2009).
Kaptelinin V., Nardi B.A. 2007, Acting with Technology: Activity Theory and Interaction
Design, Cambridge, MA-London, MIT Press.
Kopytoff I. 1986, The cultural biography of things, in A. Appadurai (ed.), The Social Life
of Things: Commodities in Cultural Perspective, Cambridge, Cambridge University
Press, 64-91.
Lagrange M.S. 1975, Code pour l’analyse des monuments civils, Paris, CNRS.
Lagrange M.S., Renaud M. 1983, L’interprétation des documents �gurés en archéologie et
histoire de l’art: essai de simulation sur ordinateur, in F. Lissarague, F. Thélamon (eds.),
Image et ceramique grecque (Rouen 1982), Rouen, Université de Rouen, 43-66.
Leont’ev A.N. 2007, Activity, consciousness and personality (http://lchc.ucsd.edu/MCA/Paper/leontev/index.html).
Levesque H. 1986, Knowledge representation and reasoning, «Annual Review of Computer
Science», 1, 225-287.
220
From artefact typologies to cultural heritage ontologies
Lock G.R., Brown K. (eds.) 2000, On the Theory and Practice of Archaeological Computing,
Oxford, Oxford University Committee for Archaeology.
McCarthy G. 2007, Finding a future for digital cultural heritage information resources using
contextual information frameworks, in F. Cameron, S. Kenderdine, Theorizing Digital
Cultural Heritage: A Critical Discourse, Cambridge, MA, MIT Press, 245-260.
Moscati P. 1986, Analisi statistiche multivariate sugli specchi etruschi, Roma, Accademia
Nazionale dei Lincei.
Munn N. 1966, Visual categories: an approach to the study of representational systems,
«American Anthropologist», 68, 936-950.
Pearce S.M. (ed.) 1994, Interpreting Objects and Collections, London-New York,
Routledge.
Pearce S.M. (ed.) 1990, Objects of Knowledge, London, Athlone Press.
Preucel R.W. 2006, Archaeological Semiotics, Oxford, Blackwell Publishing.
Richards J.D. 1998, Recent trends in computer applications in archaeology, «Journal of Archaeological Research», 6, 4, 331-382 (http://dx.doi.org/10.1023/A:1022879819064;
accessed September 21, 2009).
Ross S. 2007, Digital preservation, archival science and methodological foundations for digital libraries, in 11th European Conference on Research and Advanced Technology
for Digital Libraries, Keynote Paper (Budapest 2007) (http://www.ecdl2007.org/Keynote_ECDL2007_SROSS.pdf).
Salomé M. 1980, Code pour l’analyse des représentations �gurées sur les vases grecs, Paris,
CNRS.
Shanks M., Tilley C.Y. 1993, Re-constructing Archaeology: Theory and Practice, London,
Routledge.
Spaulding A. 1953, Statistical techniques for the discovery of artifact types, «American Antiquity», 18, 305-313.
Tilley C.Y. 1999, Metaphor and Material Culture, Oxford-Malden, Blackwell.
Trigger B.G. 1989, A History of Archaeological Thought, Cambridge-New York, Cambridge
University Press.
Vergo P. 1989, The New Museology, London, Reaktion Books.
Washburn D.K. 1983, Structure and Cognition in Art, Cambridge, Cambridge University Press.
Zubrow E.B. 2006, Digital archaeology: a historical context, in T. Evans, P.T. Daly (eds.),
Digital Archaeology: Bridging Method and Theory, London, Routledge, 10-31.
ABSTRACT
Research in theoretical and computer-based archaeology, from the 1950s onwards,
established important perspectives for the formal representation and analysis of tangible
cultural entities such as complex artefacts, iconographic compositions and archaeological
assemblages, and became a precursor for the emergence of knowledge-based tools, methodologies and standards for artefact-centred information systems in contemporary museums.
One particular case in point is CLIO, a semantic information system intended for research
use, developed by ICS/FORTH and the Benaki Museum in Greece in the early 1990s, which
became a foundation for the de�nition of the Conceptual Reference Model of the International
Documentation Committee of ICOM (CIDOC CRM), recently adopted as the ISO standard
for cultural information representation. It is argued here that, as the capabilities of computer
applications to provide access to complex, multimedia cultural information increase, so does
also the validity and importance of earlier research advances in artefact-centred archaeological computing; and, conversely, that the advent of digital infrastructures for material culture
disciplines such as archaeology highlights the pertinence, and potential bene�ts, of further
work on archaeological formal analysis and knowledge representation.
221
Archeologia e Calcolatori
20, 2009, 223-245
MAN AND SKY:
PROBLEMS AND METHODS OF ARCHAEOASTRONOMY
1. Introduction: the nature of Archaeoastronomy
The term “Archaeoastronomy” is currently used to de�ne the studies
concerning «what peoples throughout history and prehistory have made of
the phenomena in the sky, how they used these phenomena and what role they
played in their cultures» (Sinclair 2006); however these studies were initially
de�ned as “Astro-archaeology”, being devoted to the search for evidence of
astronomical interest in archaeological �nds. This type of research thus pertained
mainly to what astronomers held as evident concerning the practices of ancient
cultures. When these studies started to include anthropological considerations,
the term “Archaeoastronomy” was introduced, in order to distinguish this academic discipline from the study of the in�uence of celestial phenomena on the
present day population folklore, that is instead de�ned “Ethno-astronomy”.
To date, Archaeoastronomy, Ethno-astronomy, Historical Astronomy (the
studies dedicated to recovering data of astrophysical interest from historical
documents of pre-telescopic epoch, i.e. before the 17th century AD) and History
of Astronomy are usually grouped as “Cultural Astronomy”, though not every
scholar agrees on the appropriateness of grouping all these studies into a single
discipline. Furthermore, a different school of thought does not even consider
Archaeoastronomy a separate discipline but a sub-discipline of Archaeology.
For instance, Bostwick (2006) states that the archaeologist necessarily has the
main role in archaeoastronomical studies, since the object of these studies are
archaeological �nds that hence need to be studied by archaeological methods,
taking into account the cultural context of the site. This point of view was
already af�rmed by Judge (1984), who noticed that the topics of Archaeoastronomy were much more relevant to Archaeology than to Astronomy and this
fact implies that Archaeoastronomy has to be developed within Archaeology.
However, many scholars believe that the lack of any archaeological,
historical or anthropological information should not be a constraint to an
archaeoastronomical analysis, in the case that astronomical considerations
make it manifest that an ancient cultural product is in connection with celestial
phenomena; on the other hand, it has also been suggested that historical and
anthropological data alone should be suf�cient to prove the astronomical
interest on the part of the makers of a given artifact (Aveni 2006).
It is clear, in any case, that Archaeoastronomy, since the 1980s, has developed as an interdisciplinary science. It must thus be considered “good practice”
that an archaeoastronomical working group includes at least one archaeolo223
A. Polcaro, V.F. Polcaro
gist, who guarantees that archaeological and anthropological principles are
followed, and one astronomer, who ensures the best quality in the observation
and interpretation of astronomical phenomena (Bostwick 2006).
Notice that Archaeoastronomy has never been considered a �eld of
Astronomy, since it is not strongly linked with the science presently de�ned
with this name and the only use made of modern astronomical science is
limited to the one of Positional Astronomy, in order to �nd the positions of
celestial bodies at a given moment of the past. However, cultural interest for
astronomical phenomena had a very important role in the birth of science.
The History of Science, and in particular of Astronomy, can thus be greatly
helped by Archaeoastronomy. Therefore, the contribution of Archaeoastronomy is double: on one hand, it completes and extends our knowledge of
ancient cultures, highlighting the importance and the interpretation they gave
to celestial phenomena, and on the other, it completes the framework of the
History of Astronomy in those areas where no written texts exist.
2. The evolution of Archaeoastronomy
The �rst studies, aimed at recognizing the role of celestial phenomena in
ancient civilizations and conducted with coherent and at least partially codi�ed methods, can be identi�ed in the United Kingdom between the end of the
19th and the beginning of the 20th century (Ruggles 1999), when a scienti�c
discussion started about the possible astronomical meaning of a number of
archaeological sites in the British Islands. Some scholars had actually been
speculating for centuries on possible astronomical alignments in Stonehenge;
however, the archaeologist Sir W.M. Flinders Petrie (1880) seems to have been
the �rst to quantitatively study this aspect of the famous Surrey megalithic
monument, by checking the simplest hypothesis: the presence of an alignment
with the summer solstice sunrise.
Fourteen years later the astrophysicist Sir N. Lockyer returned to the
idea of astronomical orientations in ancient buildings. His studies (Lockyer
1894, 1906) on the orientation of Egyptian pyramids and of Stonehenge were
taken as a model for subsequent archaeoastronomical studies, while his book
Surveying for Archaeologists (1909) established the basic principles for the
part of Archaeoastronomy devoted to the detection of astronomical alignments. Furthermore, Lockyer was the �rst to suggest the dating of ancient
monuments by using the evaluation of the shift in stellar alignments due
to the precession of the rotation axis of the Earth (see below). Though this
method turned out later to be scarcely productive, Lockyer can still rightly
be considered the “father of Archaeoastronomy”.
In fact, other scholars obtained signi�cant results by using Lockyer’s
methods. For instance, Boyle Somerville (1912) noticed how a signi�cant
224
Man and sky: problems and methods of Archaeoastronomy
percentage of the megalithic alignments in Callanish (a megalithic Scottish
site dated to the end of the 2nd millennium BC), pointed to the directions of
the rising of the Moon in particular moments of its cycle, revealing that the
local culture had a profound knowledge of the complex apparent motion
of the Moon that had not previously been considered compatible with its
organizational level.
These early studies gave rise to many similar research projects, concerning
other European prehistoric sites as well as important Egyptian, Mesopotamian
and pre-Columbian monuments and sites, so that, in the middle of 20th century, it
was widely accepted that astronomical orientation was an important component
of the architectural solutions chosen by many cultures (Walker 1997).
Archaeoastronomical studies became hugely popular with the general
public thanks to the work of the astronomer Gerald Hawkins (1965), who
claimed that, due to its position and orientation, Stonehenge was a sort of
sophisticated computer used to determine particular positions of the Sun and
Moon cycles and many other astronomical phenomena, including eclipses. An
unexpected result of his work was the sudden gain in popularity of Stonehenge,
which, in people’s minds became the symbol of Archaeoastronomy. However,
Hawkins’ work, though it was published in major journals including even
«Nature», was extremely objectionable for the statistical methodology employed as well as for having totally ignored all previous archaeological and
paleoethnological knowledge of the social organization of the inhabitants
of Surrey in the 3rd millennium BC. The unquestionable incompatibility of
Hawkins’ conclusions with the archaeological and paleoethnological framework was proven once and for all by Renfrew (1979).
Actually, Hawkins’ mistake was to believe that it was possible to study
the impact of celestial phenomena on ancient cultures without taking into
account their context and unfortunately, this error is still common to date.
Hawkins’ claims and all the more so the plethora of pseudo-scienti�c publications which followed, sometime supporting clearly absurd hypotheses,
provoked a general rejection of all of Archaeoastronomy by the large majority
of archaeologists. Consequently, the use of archaeoastronomical methods in
Archaeology underwent a decade of stagnation. However, in the same years,
a number of signi�cant research projects were conducted, such as the ones by
Alexander Thom, a professor of Civil Engineering at Oxford University who
dedicated himself entirely to these studies after his retirement. Thom noticed
that a statistical analysis of numerous stone circles in the British Islands
showed a basic consistency in their structural characteristics and orientations,
implying a remarkably detailed knowledge of the lunar motion by their builders, despite the low level of social organization of the corresponding cultures
(Thom 1978). However, while many of Thom’s results in Archaeoastronomy
are widely accepted to date, his claim of a standard unit of measurement (the
225
A. Polcaro, V.F. Polcaro
“Megalithic Yard”) in the Neolithic British Islands and Bretagne has been
discarded both by classical (Kendall 1974) and Bayesian (Freeman 1976)
statistical reassessment of his data.
An important role in the recovery of archaeoastronomical methods by
the archaeological community was played by the Royal Society, which in 1981
promoted the �rst Oxford International Conference on Archaeoastronomy,
where the study of astronomical orientations of archaeological sites was just
one of the topics discussed. These Conferences were very important for a
reciprocal understanding between humanities scholars, scientists and astronomers, and were later iterated in different localities, though they kept the name
of “Oxford Conference”. Presently these meetings include various studies on
cultural expressions connected with Astronomy in past and present cultures.
A similar role was played in Italy by the Accademia Nazionale dei Lincei, that
organized a number of important conferences on Archaeoastronomy.
The new interdisciplinary studies on Archaeoastronomy and the recent
evolution of Archaeology, which focuses more on the symbolic and religious
spheres in the evolution of cultures, has meant that Archaeoastronomy, at least
in Anglo-Saxon countries, is often mentioned in tutorial manuals and is a subject
commonly taught in basic Archaeology courses (Fisher 2006). Major international and national scienti�c societies are devoted to these studies and hold periodic conferences on these topics. During the last �ve years Archaeoastronomy
has also seen signi�cant development in Italy (Moscati in press).
Moreover, it is interesting to note that Archaeoastronomy developed also
thanks to the interest and the work of people who were neither professional
humanities scholars or astronomers, but engineers, artists or simple amateurs,
who gave signi�cant contributions to the �eld. For instance, the well-known
painter Anna Sofaer, studying from an artistic point of view the rock art of
Chaco Canyon (an Anasazi site, dated 900-1150 AD), was the �rst to notice
that Sun, passing through a �ssure in the rocks, illuminates different areas of
the paintings, clearly marking the days of solstices.
3. Celestial phenomena of archaeoastronomical interest
In principle, past cultures should have been interested by all astronomical
phenomenon visible to the naked eye. However, it is obvious that some of
these phenomena are so evident and linked to vital factors that it is dif�cult
to believe they were ignored in any cultural context (Lanciano 2006). These
phenomena are thus the �rst to be considered in an archaeoastronomical study.
The most important ones are obviously those connected with the solar cycle,
since the Sun has always been recognized by mankind as the source of life.
Because of the rotation of the Earth around its axis, the Sun seems to
move in the sky and, rising daily in the East and setting in the West, originates
226
Man and sky: problems and methods of Archaeoastronomy
the alternating of day and night. Due to the orbital motion of Earth around
Sun and the inclination of the Earth’s axis in respect to the orbital plane,
the points of the horizon of the rising and the setting of Sun, as well as its
maximum height over the horizon, change daily, provoking the variation of
the light and darkness period through the year. Solstices are the days when
the height of the Sun over the horizon at midday and the length of the day
are maximum (summer solstice) or minimum (winter solstice); obviously
these days are the ones when the rising point of the Sun reaches its maximum
northern or southern position, respectively. Equinoxes are instead the days
when the length of daylight and darkness are equal and the Sun rises and
sets exactly at the astronomical East and West, respectively. Since climate is
mainly determined by the length of the daylight period, solstices and equinoxes usually correspond to the season changes. It is thus not surprising that
winter and summer solstices, connected with the start of the coldest and
warmest period of the year respectively, have been recognized since the very
beginning of civilization and methods allowing the forecast of their arrival
can be identi�ed in very ancient monuments and practices.
The Moon has been as important as the Sun: its cycle of 29,53 days
(“synodic month”) de�ne the month and its division on four parts, correspondent to the four Moon phases. The Moon illuminates some nights, allowing
hunting and �shing, regulates tides and many biological cycles, while other
ones (like a woman’s menstrual cycle) have nearly equal periodicity, perhaps
by chance but more probably because of evolutionary reasons. Thus, as the
apparent motion of the Sun gives a daily and yearly time reference, the motion
of the Moon �xes intermediate periods (month and week). It is thus not by
chance that the majority of ancient calendars is based on the lunar month.
The Moon follows daily and seasonal paths in the sky that resemble those
of the Sun; however the azimuth of the moonrise (or moonset) can oscillate
by up to ± 6o 40’ (for an observer at 36o latitude) around the Sun rising (or
setting) azimuth in the course of a monthly lunar cycle: the extreme points
of this cycle are called “lunistices” or “lunar standstills”.
In addition, the Sun gravitational perturbation leads to a precession of
the Moon orbital axis, with a period of 18,61 years. Thus, every 18,61 years,
the rising or setting Moon reaches a northern extreme in rising and setting
azimuth respect to the summer solstice, and a southern extreme respect to the
winter solstice. These points are called “major lunar standstills”. While such
standstills can in principle be determined using horizon observations, as is the
case of the solstice Sun, the Moon year-to-year angular displacement along
the horizon is very small and near to a standstill. However, due to this cycle,
four extreme azimuths must be considered for the Moon: the rising and setting
points of North and South major standstill (corresponding to the smallest and
the greatest azimuth of the Moon rising and setting point, respectively) and
227
A. Polcaro, V.F. Polcaro
the North and South “minor standstill” (the corresponding positions after 9,3
years). The Moon’s 18,61 year cycle has been clearly codi�ed in monuments
left by a number of cultures (e.g. the Celtic one: Gaspani, Cernuti 1997),
though its importance has been at times exaggerated.
In addition to the Sun and Moon, stars have also certainly always
attracted man’s attention and the practice of grouping stars into “constellations”, that is in �gures seen by man in the patterns of stars over the celestial
sphere, can be dated to the most ancient times. These �gures, as well as the
same association in a single �gure of a number of stars at a relatively small
angular distance, are obviously different from one culture to another, except
in a few cases (such as the Pleiades). Because of the Earth’s rotation, stars
seem to be rigidly rotating throughout the night around a �xed point, the
“Celestial Pole”. From the geometrical point of view of an observer on the
Earth’s surface, stars can thus be considered �xed on a rigid sphere rotating
around a motionless Earth, as in the Ptolemaic model, and the Celestial Pole
can be considered the intersection point of this sphere with the Earth’s axis.
It is manifest that, because of the orbital motion of our planet, only stars
situated in the opposite direction respect to the Sun can be seen at night. The
stars visible at sunset in a given day are thus seen to rise later every night, until
they are visible only shortly before sunrise, while other stars subsequently
take their place, except for the “circumpolar stars”, the ones that, because of
their angular position near to the Celestial Pole, are over the horizon during
the night all the year long.
The heliacal rising of a star (or other celestial body such as the Moon
or a planet) occurs when it �rst becomes visible above the eastern horizon at
dawn, after a period when it was hidden by the brightness of the Sun. Single
bright stars have surely been used in calendric function by many cultures,
since their seasonal cycle of visibility was used as an early warning of other
important natural phenomena (Walker 1997): the case of the heliacal rise
of Sirius, announcing the Nile �ooding in ancient Egypt is well known, as
well as the one of the agricultural calendar of archaic Greece, based on the
appearance and disappearance of stars and constellations, reported by Hesiod
in the poem Works and Days.
The case of planets needs to be examined with caution. The difference
between stars, that were later de�ned in the Ptolemaic vision of the World
(though it has obviously a much more ancient origin) as “�xed stars” and planets, the “wandering stars”, that is the ones with an apparent motion different
from the one of the celestial sphere, was probably known since a very early
epoch: it was, for instance, clearly de�ned in 3rd millennium BC Mesopotamian astronomy (Pettinato 1998). However, the planets’ motion is far less
obvious than that of the Sun and Moon. The importance given to planets over
the course of time is thus certain (as is proven by the fact that most cultures
228
Man and sky: problems and methods of Archaeoastronomy
dei�ed planets, which they considered as objects of veneration and fear) but
their actual use for calendric purpose is still far from clear (Iwaniszeswsky
2003), and the only documented case, to date, is the use of the Venus visibility
cycle in Mesoamerican pre-Columbian calendars (Aveni 1993).
The above mentioned celestial phenomena are all periodic ones and
they are thus functional to the de�nition of temporal scales allowing a better
organization of social activities. However, we have also to consider phenomena
that are unexpected, either because they are one-time events or because they
have a long, and thus not easily recognizable, periodicity. Some of these events
(such as supernovae and comets) had a signi�cant role in the development
of the various “World visions” imagined in the course of the history. On the
other hand, the contribution of Archaeoastronomy to the study of transient
phenomena has been extremely limited up to now because of the scarce
likelihood of recovering material �nds connected with these events, while
Historical Astronomy and Ethno-astronomy have provided a very productive
method for exploring this �eld.
4. Archaeoastronomy measurements and data analysis
Archaeoastronomy employs most of the human science methodologies
and technologies, though the data analysis is obviously speci�c (Moscati in
press).
Most common archaeoastronomical studies start from the assumption
that the ritual and/or calendric interest of particular artifact builders for a
given astronomical phenomenon is shown by alignments with the horizon
points where this phenomenon is seen. Because of the reasons explained in
the previous paragraph, archaeoastronomical research usually starts with the
search for alignments with the average directions of Sun and Moon rise and
set during the year and with the local meridian (i.e. with geographical East,
West, North and South). Second, the setting and rising directions of Sun and
Moon at the extremes of their apparent motions (i.e. the solstices and lunar
standstills) are examined. Third, the heliacal rising and setting directions of
the most brilliant stars can be considered. Since they are always based on
azimuth measurements, �eld archaeoastronomical measurements are, in these
instances, topographic measurements and thus do not differ from the normal
survey of an archaeological site, except for the need to refer all measurements
to the geographical North and not to the magnetic one, since the difference
between the magnetic and geographical North can be strongly in�uenced by
the presence of natural or arti�cial local magnetic �elds (iron mass, electric
lines, etc.). However, in the case of topographic surveys addressed to archaeoastronomical studies, a number of speci�c problems, analyzed in the following
paragraphs, can take on particular relevance.
229
A. Polcaro, V.F. Polcaro
4.1 Positional Astronomy codes for archaeoastronomical studies
The main problem in archaeoastronomical measurements is the determination of the geographical North, to be used as the topographic reference for
following measurements of the selected alignments, using any kind of instrumentation. This calibration can be done using various techniques, but the one
most used and accurate is the determination of the direction of culmination of
any celestial body (usually the Sun, though a star can give a more precise result),
that unequivocally identi�es the local meridian direction. When it is impossible (e.g. because of clouds) to take the measurements at the exact time of the
culmination, the calibration can be done in any moment during the period of
visibility of the celestial body over the horizon, if its geographical azimuth at the
moment of the measurement is known. The computation of this parameter or
of the exact time of the meridian transit of the selected celestial body (the local
noon in the case of the Sun) is an easy task which can be performed by using
astronomical or nautical ephemeredes. However, the calculation is boring and
the possibility of error is signi�cant: it is thus wiser to use a Positional Astronomy computer program. All available commercial programs or freeware are
able to give the required result with remarkable precision.
A more complex problem is presented when the measured alignment
has to be compared with the appearance of the sky in the epoch when the
artefact under study was built and on the day we suppose to be the one of
the ancient observations. The change in the position of celestial bodies in
the sky, at least due to equinox precession and star proper motion, must be
computed for this purpose.
Due to the fact that the orientation of the Earth’s axis is slowly changing,
tracing out a conical shape, completing one circuit in 25,771.5 years the equinox precession originates an angular movement of the celestial pole position,
whose value as a function of time is given by a differential equation taking
into account the Earth’s angular velocity and angular momentum, the angle
between the plane of the Moon orbit and the ecliptic plane and many other
parameters, including the Earth’s dynamical ellipticity or �attening, which
is adjusted to the observed precession because Earth’s internal structure is
not known in suf�cient detail (Williams 1994). This equation can be solved
only by numerical integration and the results are given in polynomial form.
To date, the best approximation is given by Williams (1994) and Simon et
al. (1994); however, these solutions are applied only in the best professional
computer codes, while the large majority of commercial programs use the older
Lieske et al. (1977) solution (the so called “IAU formula”, since it is based
upon the International Astronomical Union IAU/1976/ system of astronomical constants) or its �rst order approximation or even a simple proportional
correction with the average value of -0.024 arcsec per century.
230
Man and sky: problems and methods of Archaeoastronomy
Taking into account the negligible effect of the equinox precession
on the solstice sunrise and sunset azimuth of the Sun and the intrinsic uncertainties in the evaluation of this value by ancient cultures (see below),
once again most commercial codes and freeware can be used to check if
an ancient artifact has this kind of alignments; actually, in most cases, the
solstice alignments are still working to date, with minor differences respect
to the time when they were built, even when the related structures are 6000
years old. However, the use of approximate solution can give signi�cant differences with respect to the results obtained by Williams (1994) in case of
lunar standstills and position (including heliacal rising and setting) of stars.
On the other hand, the differential equation of the equinox precession itself
contains a number of coef�cients that are not exactly known, and the value
of which is obtained by adjusting the solution on historical eclipse data.
These events have been described with adequate precision only since the
8th century BC and the values obtained on these data are then extrapolated
back for previous epochs. No computer code, including the professional
ones, can thus guarantee the reconstruction of the exact sky appearance
before the middle of the 2nd millennium BC and the uncertainties increase
going back in time.
The position of stars is affected by a further problem. Obviously, stars
are not �xed on a celestial sphere as in the Ptolemaic model, but are orbiting
around the Galactic Centre with complex trajectories. The composition of
this motion with that of the Sun would make their relative position as seen
from Earth variable in time even in the case that the Earth’s axis is not affected by its precession; the change in star position on the celestial sphere
due to this effect is called “proper motion”. Though most of the stars are so
far from Earth that this effect is negligible, some stars are close enough to
have signi�cant proper motions and thus past positions signi�cantly different
from the one computed taking into account the equinox precession only.
Some of these stars, such as those in the Big Dipper and the Centaurus, are
very luminous and were surely important for ancient peoples. All commercial
Positional Astronomy codes use very approximate values for proper motion
correction; when more reliable values are used, results can be quite different
(Antonello 2008, for the case of the Big Dipper).
Concerning lunar standstills, an evaluation of the precision of the lunar
motion reconstruction by a speci�c Positional Astronomy code can be obtained by comparing its result on past Moon eclipses with the one recorded
on the NASA-JPL database1, by far the most precise available to date. The
matching of these reconstructions clearly proves an accurate computation of
1
http://planets.gsfc.nasa.gov/eclipses/eclipses.htm.
231
A. Polcaro, V.F. Polcaro
the Moon position. To the author’s knowledge, best results in this sense are
obtained by two freewares: Planetario V2.0, by Massimino (2002) and Solex
V10.02, by Vitagliano (2008).
4.2 Measurement precision
An enduring discussion among Archaeoastronomy scholars concerns
the required measurement precision.
Very re�ned techniques, based on GPS and able to reach a precision of
0.01 deg, have been proposed and employed to determine the direction of the
meridian (Gaspani 2006). Other scholars claim the need to use total station
or, at least, repeated theodolite measurements (Esteban, Cabrera 2005),
while others simply use a good bearing compass or a laser-compass (Hoskin
2004; Polcaro, Polcaro 2006).
This discussion actually no longer has a raison d’être since the angular
precision necessary for an archaeoastronomical study critically depends on
the nature of the artifact under consideration (Hoskin 2004). In fact, it is
evident that a measurement precision of the supposed alignment higher than
the one of the building technique is useless. Although the use of the theodolite in order to measure the alignments of a re�ned Greek or pre-Columbian
temple is at least reasonable, this instrument becomes completely useless if the
artifact under study is a Bronze age dolmen. In this case, a series of measurements made by means of a bearing compass, giving a precision of ±1 deg on
the single measurement and of at least ±30 arcmin with a series of repeated
measurements, is surely preferable; it is, in fact, illogical to suppose a mastery of higher precision technologies from the builders and furthermore, the
greater ease of transport and use of the bearing compass allows one to attain
a higher number of measurements, ceteris paribus a major element of success
for a survey. We just wish to point out that a hundredth degree precision is,
in any case, useless, since even the present day building techniques do not
reach this degree of precision.
On the other hand, there are a number of reasons suggesting that, even
in the case of developed building techniques, a measurement precision much
higher than ±1 deg can be useful only in a few cases. For instance, if we want
to verify the alignment of a given artifact with the rising azimuth of the Sun
at solstice, we have to bear in mind that the Sun is an extended object, with
an angular diameter of 32’35”. The direction to be considered thus depends
on what the builders’ culture considered as the “sunrise direction”: it could
be the point where the �rst direct light appears, the center of the Sun when its
disk is fully visible, the direction of a gnomon shadow when it �rst becomes
observable or others. This direction can signi�cantly differ from the others;
lacking further information, it thus seems useless to re�ne the measurement
precision under the angular diameter of the Sun. A similar situation is present
232
Man and sky: problems and methods of Archaeoastronomy
also in the case of lunar alignments. In conclusion, it is worth noticing that
the actual azimuth of the horizon points where Sun or Moon are seen to rise
or set critically depends on the observer’s horizon pro�le and that it can be
considered equal to the theoretical one only in the case of a completely �at
and free horizon, as on the sea or a broad plain.
It is actually evident that the presence of a mountain (or even of a small
hill) to the East allows the observer to see the celestial body only when it
is at an angular height higher than the angle covered by the obstacle. This
datum can easily be computed when a detailed topographical map of the site
is available; however, signi�cant factors, such as the exact position of the
observer, the eventual presence of forest trees and the same geological effects
altering the obstacle pro�le over the centuries, are hardly ever evaluated. The
resulting uncertainties can easily overcome the instrumental precision of the
same bearing compass.
When the hypothesis being tested is an alignment with the heliacal rising
or setting of a star, the problem is even more complex. From the Positional
Astronomy point of view, given the date and the geographical coordinates,
computation of the day when a star is exactly on the astronomical horizon
of the observer at sunrise or sunset and the related azimuth is a relatively
easy task. However, this does not imply that on that day and at that time the
star was actually visible. In fact, we have to take into account not only the
horizon pro�le, as discussed before in the case of the Sun and Moon, but also
a number of atmospheric effects that can be very relevant in the case of a
point-like object, such as a star. In particular, the atmospheric refraction, due
to the variability of the Earth’s atmospheric density as a function of height,
has the effect of increasing the apparent angular height over the horizon. This
effect can be computed by using an atmosphere model2, when atmospheric
conditions at the time of the observation are known.
However, in the case of archaeoastronomical applications, these conditions have to be evaluated as average climatologic values, with a high level
of uncertainty. A further and more complex problem emerges from the fact
that the instant of the actual visibility of a star is a function of its contrast
with respect to the background light of the sky, which depends not only on
the star luminosity and the observer’s eyesight but also on the sky view and
transparency, on the possible presence of fog or haze and other local and
time-variable phenomena. A new research branch, named “Celestial Visibility” (Schaefer 1993) is now developing precise formulas for determining
the visibility limits of astronomical objects. Other scholars (Cernuti, Ga2
Positional astronomy codes usually employ the ICAO standard atmosphere model (Doc
7488-CD, Third Edition 1993) or occasionally the IOS (ISO 2533:1975) one for the atmospheric
refraction computation.
233
A. Polcaro, V.F. Polcaro
spani 2006) are presently applying the “Fuzzy Logic” methods to this topic.
However, from a practical point of view we are forced to admit the possibility
of a delay in the order of a number of days in the actual observation of the
phenomenon, respect to the theoretical date of heliacal rising or setting of
a celestial object, depending on the local and unpredictable behavior of the
atmosphere. The related direction over the horizon must thus be considered
intrinsically variable by a number of degrees from year to year.
4.3 Proofs of intentionality of an astronomical alignment
The power of Archaeoastronomy lies in the fact that its hypotheses
are based on a few very evident events, of undoubted universal interest. Its
weakness, on the other hand, is the risk of a quasi-automatic search for solar and lunar alignments in any archaeological site worldwide, scanning the
horizon looking for any peculiar feature that could be useful for calendric
purposes, taking their presence for granted in all cultures and in all epochs.
It is thus unfortunately common that some scholars claim the presence of
solar or lunar alignments, on the basis of the astronomical evidence alone,
regardless of the archaeological context, usually in cases where the builders’
culture is poorly known. However, as stressed by Iwaniszeswsky (2003), «It
is very easy today, with PCs and astronomical software at hand, to investigate
astronomical elements in different cultures. Nevertheless, the danger of reaching premature and culturally biased conclusions is great, since computations
can be easily performed while historical and anthropological investigations
are more challenging. Setting a problem in its proper cultural milieu is much
more dif�cult than performing the calculations».
In fact, the existence alone of astronomical alignments in a monument
does not prove the actual intention of the builders to purposely search for
these effects, since they can be the result of chance or coincidence.
Thus, many astronomical alignments, even those claimed by famous
scholars, have been objected to on the grounds that they were not thought of
by their builders but exist only in the minds of present day scientists (Renfrew 1979; Schaefer 2006). This concern has been proven true on many
occasions and has generated, as we saw in the case of Stonehenge (but this is
certainly not the only one), a diffused mistrust of Archaeoastronomy among
professional archaeologists.
For this reason, Schaefer (2006) suggested that, in order to claim the
intentionality of an astronomical alignment, two and possibly three conditions
must be satis�ed: it must be statistically signi�cant at a level of at least 3 σ,
its intentionality must be con�rmed by archaeological evidence and, where
possible, it should be supported by ethnographic or anthropological attestations of the symbolic value of the claimed astronomical alignments. Actually,
following Schaefer (2006), the probability, respect to the “null hypothesis”
234
Man and sky: problems and methods of Archaeoastronomy
of chance coincidence, to �nd within 1 deg a single alignment corresponding
to the eight astronomically relevant directions known to most cultures (the
four cardinal directions and the ones of the sunrise and sunset at the winter
and summer solstices) in a given architectural structure is equal to 1/22, i.e.
2.08 σ: it is thus quite a signi�cant probability. Furthermore, we must take
into account other non astronomical reasons of a given orientation, such as the
slope of the ground or the choice of a south-eastern orientation of the building
in order to take advantage of the sunlight and heat (Castellani 2003).
The situation is much worst if we want to check the alignment with the
heliacal rising or setting of a bright star. There are 21 stars brighter than 2nd
visual magnitude. The corresponding heliacal rising and setting azimuths are
thus 42, covering, because of what was said before, 84° of the horizon. This corresponds to a probability of chance coincidence respect to the null hypothesis
greater than 1/5: it is obvious that it is meaningless to claim the intentionality
of an alignment solely on the basis of such low statistical evidence.
It is thus wise to avoid any excess of enthusiasm and �ights of fancy
in Archaeoastronomy (as already stressed, e.g. by Romano 1994 and Iwaniszeswsky 2003, Schaefer 2006 and many others) and rely only on well
documented archaeological, anthropological and statistical facts.
However, the statistical procedures to be followed in an archaeoastronomical analysis of a single monument are considerably different from those
employed in a survey of the alignments of a series of monuments built by
the same culture.
Below, we will illustrate these differences by using two speci�c cases
studied by the authors.
4.3.1 The case of single monument: the “Preta ’ru Mulacchio” on Monte
della Stella
The Monte della Stella is a 1131 m high mountain, belonging to the
range separating the Alento Valley from the Tyrrhenian Sea, south of the city
of Agropoli in Italy. At 1030 m above sea-level, a large, isolated outcrop of
bedrock is present. This rock (Fig. 1) is well known to local people and called
the “Preta ’ru Mulacchio”, the expression meaning in the local dialect “The
Bastard Child Rock”. The “Preta” is basically composed of three rocks that
originated for natural reasons from a single block of arenite in its upper part
and from a rough conglomerate in the lower one; between the three rocks,
two tunnels (thereafter F and G) were thus formed. However, it is easy to
see that the “Preta” was profoundly modi�ed by human intervention: large
stones were wedged into exact positions between the three original blocks or
positioned as a cover (Ienna 2005; Polcaro, Ienna 2009).
We found that F gallery has an astronomical azimuth of 359 deg and
G gallery of 240 deg. Inside the measurement precision (±1 deg), the galleries
235
A. Polcaro, V.F. Polcaro
Fig. 1 – The “Preta ’ru Mulacchio”: N-W side view, section at 1.5 m from ground, alignments and
light effects.
are thus respectively oriented to the meridian and to the sunset of the winter
solstice. The meridian alignment of F gallery let a “Sun blade” penetrate inside
at noon (Fig. 1c). The length of this beam of light obviously varies during the
year from a minimum at the summer solstice to a maximum at the winter
solstice, when it reaches exactly the end of the F gallery (Fig. 1d).
We must �rst evaluate the probability of the “Sun blade” length at the
winter solstice being equal to the length of the gallery due to chance coincidence. Since, from a statistical point of view, the “Sun blade” could have a
length equal to the one of the gallery on each day of the year, or even never
reach this value, we can infer that the probability of having the length of the
light beam at noon and the one of the gallery on a given day is ≤1/365, corresponding to 3.25 σ. Furthermore, following Schaefer (2006), the probability,
respect to the “null hypothesis” of chance or coincidence, to �nd within 1 deg
236
Man and sky: problems and methods of Archaeoastronomy
a single solar alignment in a given architectural structure is equal to 1/22, i.e.
2.08 σ. The composed probability of having, in the case of the winter solstice,
at the same time two coexisting solar alignments within 1 deg (as in our case
the meridian and the sunset) and the length of the “Sun blade” equal to the
one of the gallery is thus ≥4.38 σ, corresponding to about 1 over 180000. We
can thus conclude that the “Preta ’ru Mulacchio” withstands the statistical
test of intentionality in the alignments.
Furthermore, there is also clear archaeological evidence of the intentionality of these alignments: for instance, the triangular stone D, making the
length of the gallery equal to the one of the “Sun blade” exactly at noon of the
winter solstice has actually been purposely wedged into its position. Lastly,
modern folklore associated with the rock seems to recall very ancient fertility
rites (La Greca 1997), often connected with the winter solstice, the day of the
“rebirth” of Sun. We can thus claim that the “Preta ’ru Mulacchio” is most
probably a monument, dated to an epoch presently unknown but possibly
preceding the Greek colonization of Cilento, built in order to determine with
a high degree of precision the winter solstice for ceremonial reasons.
4.3.2 The case of surveys: the dolmens of the Wadi Zarqa valley
Statistic analysis alone can indicate the intentionality of an astronomical
alignment when this orientation is found in a statistical signi�cant sample
of structures typologically similar and having reference to the same cultural
context (see, e.g. the study by Aveni, Romano 1994, of the “mutare”, small
arti�cial mounds of soil and stones found in Veneto between the Piave and
Tagliamento rivers attributed to the Villanovan culture). The statistic tools used
in this case are exactly the same as those used in other kinds of archaeological
surveys (Fletcher, Lock 2005). However, again in this case, archaeological
and anthropological considerations are needed if we want to interpret these
alignments or consider other monuments of the same culture.
For instance, dolmens and other megalithic structures, dated to the Early
Bronze age, are very common in the whole Palestinian area (Prag 1995). These
monuments are precious evidence of the symbolism used by the populations
living in this area at the time, who did not leave us written records of their
world vision. On the other hand, it has been clearly demonstrated in many
other archaeological contexts that megalithic structures are often astronomically
oriented and that these orientations could supply useful information about the
religion of their builder. In the speci�c case of the Early Bronze age Palestinian
sites, the archaeo-topographic and archaeoastronomical studies of the megalithic monuments are scanty and only Belmonte (1997) performed a detailed
archaeoastronomical survey of two dolmen �elds (Ala Safat and Al-Matabi).
During a survey of dolmen �elds dated to the Early Bronze I in Jordan
(i.e. to the end of the 4th millennium BC), started in October of 2004 and still
237
A. Polcaro, V.F. Polcaro
in progress, we measured the alignment of a statistically signi�cant sample
of dolmens in the upper Wadi Zarqa valley (Polcaro, Polcaro 2006). The
number of dolmens aligned in angular bins of 8° was then computed in order
to increase the statistics. The results were �rst checked versus the hypothesis
of isotropic distribution in azimuth and, when a statistically signi�cant peak
was found, it was best-�tted by using Gaussians, in order to evaluate the
hypothesis of a random distribution around a �xed direction.
In this way we measured and analyzed the alignments of a random
sample of 44 dolmens (6.7% of the total and thus statistically signi�cant) in
the dolmen �eld of Jebel Mutawwaq, an Early Bronze Ia site, excavated and
described by Fernández-Tresguerres (1998), and a total of 29 other dolmens from four minor dolmen �elds in the upper Wadi Zarqa valley (where
we measured all the surviving dolmens).
Our survey shows, with a very high statistical signi�cance, that dolmens
from the Jebel Mutawwaq �eld are predominantly oriented in the meridian
direction: 24 of them (54,5%) are oriented between 168° and 192°. A smaller,
but still signi�cant number (6) seems to cluster around the alignment of 152°
(Fig. 2); this excess is best �tted by the sum of two Gaussian, one centered on
South and the second to 152°. This model has a statistical probability, evaluated by means of the reduced χ2 test, equal to 94%. The standard deviation of
both Gaussian is of 6,5°, corresponding to a random error of the alignment
of ±3,25°, most probably due to the precision achieved during the building of
the dolmens. The distribution of the whole sample of dolmens we measured in
the �elds of the Zarqa valley can be �tted by the same model (with a statistical signi�cance of 5,4 σ respect to the isotropic distribution) and its statistical probability, evaluated by means of the reduced χ2 test is equal to 99%. A
comparison with the results of the Belmonte (1997) survey of the dolmens
of the Ala Safat �eld, used as comparison sample, con�rmed the model.
Archaeological considerations lead us to conclude that these orientations were linked to the complex funerary customs of the local semi-nomadic
people, who inhabited Palestine between the end of the 4th millennium and
the beginning of the 3rd millennium BC. The related rituals were most probably performed during festivals dedicated to the god Dumuzi, identi�ed with
the Orion constellation, which coincide with the winter solstice. Actually, the
152° azimuth corresponds to the direction of the Orion constellation when
the shape of the man seen in it appears to “stand up”, i.e. he is in a vertical
position (Fig. 3). The Mesopotamian god Dumuzi is considered by ancient
Near East scholars to be a “western” god, i.e. the myth came to Sumeria from
the West (Botero, Lavander Flagan 2004). It is thus probable that he was
venerated by the shepherds of the Jordan valley and of the nearby regions.
This conclusion, reached mainly on the basis of statistical considerations,
could be considered only speculative. On the other hand, it is supported
238
Man and sky: problems and methods of Archaeoastronomy
Fig. 2 – Orientations distribution of a statistically signi�cant sample of dolmens from the Jebel
Mutawwaq site.
Fig. 3 – Reconstruction of the sky over the Wadi Zarqa at the winter solstice of 3000 BC (by using
PlanetarioV2.0).
239
A. Polcaro, V.F. Polcaro
by the analysis of other archaeological sites belonging to the same cultural
context.
For instance, archaeological excavations conducted in 1988-1991 (Aveni,
Mizrachi 1998) provided information on the geometry of Rujm el-Hiri, a
well-known megalithic monument on the central lower Golan, and on alignment associations between the architecture of this complex and astronomical
events. These studies clearly demonstrated that its north-eastern entryway is
aligned, with a remarkable precision, to the direction of the summer solstice
sunrise in the middle of the 4th millennium BC, while the two boulders, located
on the eastern section of the outermost circular stone wall of the complex, form
a sight line from the geometric centre of the complex, identifying the direction
of the equinoctial sun with an accuracy of less than 1,5°, corresponding to a
precision in time of 3-4 days. On the basis of these measurements and of the
analysis of the local environment, these authors suggest that the north-eastern entryway was used for ritual processions on the occasion of the festivals
dedicated to the god Dumuzi during the summer solstice; these rituals are well
known in the Mesopotamian context (Cohen 1993). On the other hand, the
orientation of the Rujm el-Hiri south-eastern entryway turns out to be equal
to 151°51’, thus more than 20° away from the direction of the winter solstice.
Aveni and Mizrachi (1998) evaluated many other astronomical and topographical hypotheses, but none of them �ts with the experimental data. They
thus conclude that: «The SE gate may be oriented to a place in which some
historically signi�cant episode for these people took place».
It is obvious that this kind of a conclusion is not satisfactory. In fact, the
orientation of the Southeast Gate of Rujm el-Hiri is just the same as the one
found in our survey of the Wadi Zarqa valley dolmens (Polcaro, Polcaro
in press). We can thus argue that this orientation in the Southeast Gate of
Rujm el-Hiri had a role in ceremonies dedicated to Dumuzi in occasion of the
winter solstice, similar to the one of the north-eastern Gate used for rituals
connected with the same god on the summer solstice. This �nding allows us
to interpret all the main orientation of the Rujm el-Hiri complex in a single
conceptual framework, strongly supporting the Aveni and Mizrachi (1998)
conclusions concerning the cultural role of this monument.
The study of the “Temple of Snakes” in Jebel Mutawwaq (Polcaro in
press) further con�rms the association of the 152° alignment with Orion constellation and the cult of Dumuzi; this point will be explained in detail below.
5. Conclusion: an Archaeology based on a synthesis of human and
physical science?
The examples that we have summarized show how the use of Archaeoastronomy can be extremely useful not only in studies of historical cultures,
240
Man and sky: problems and methods of Archaeoastronomy
where written sources can help to outline the astronomical knowledge and
religious customs of people, but mainly in research on prehistoric cultures.
From the �rst known Neolithic cultures it is clear that the observation of the
starry sky was a central point in the formation of cults, rituals and mythologies
of mankind. Studies on ritual and funerary practices are based mainly on translations of religious texts and interpretations made by philologists, correlated
with the analysis of data obtained from archaeological excavations.
The synthesis of these two sciences allows us to obtain a more or less
precise reconstruction of what ancient peoples thought about religion. Actually, archaeological investigation on temples and religious buildings supplies information about cult objects and the dynamics of rites performed in the sacred
buildings: these results, when put in relation to the text interpretations, clarify
the modalities, times and ideological meanings of the ceremonies. In funerary
contexts, archaeological investigation makes it possible to analyze the funerary
gifts and rituals; consequently, these elements, together with a philological
analysis, put us in a position to attempt a reconstruction of the eschatology
and the ideology of death. However, in the absence of textual references, the
excavation alone enables us to reconstruct the actions performed during the
ritual, but it does not assure the identi�cation of the innermost meaning of
the rite; in a purely “archaeological” investigation, the understanding of the
underlying mythological framework is also lost. The use of sciences such as
Geology, Paleobotany, Physical Anthropology and many others is, to date,
central to an archaeological investigation and to the subsequent analysis of
data obtained from the excavation.
On the other hand, only rarely can a physical science help us understand
the “ideology” underlying a ritual act; it can better clarify the modality and the
times of the act, however, it can never reveal to the modern scholar its surrounding superstructure. This is the great value and potential of Archaeoastronomy,
as long as it is strongly linked and continuously compared with excavation data.
A practical example can be given by the excavations of a well de�ned environment, such as a sanctuary, where the archaeological investigation, correlated with
the use of physical sciences, analyzes all the �ndings inside the sacred structure,
including equipment left, traces of rites such as accumulations of ashes or longlasting depositions of objects in a given area; the analysis of the architectural
typology can clarify cultural in�uences and correlations of the structure under
investigation with the coeval context where it was designed and built.
However, these results cannot always answer one of the �rst questions
that an archaeologist asks himself about a sacred building: to whom was it
dedicated? Who was the god or the complex of divine entities worshipped
here in the rituals reconstructed through the excavations and the subsequent
interpretation of the material �ndings? Sometime, even when textual data are
lacking, the answer can be given by the same cult equipment present in situ;
241
A. Polcaro, V.F. Polcaro
however, often many doubts remain and can be solved only by the chance
discovery of a symbol speci�cally connected with a single divinity. On the
contrary, if, during these investigations, the measurement of the orientation
of the sacred building reveals that it was aligned with a precise point of the
sky such as a particular position of a celestial body on a given day of the year,
we can gather information which is totally absent from the data collected
during the analysis previously described, but strongly indicative of the actual
purposes of the buildings.
We previously mentioned the case of Jebel Mutawwaq “Temple of the
Snakes”. A recent analysis performed by one of the authors (Polcaro in press)
on this complex, dated to the 4th millennium BC, identi�ed the orientation of the
entryways of this temple to the particular azimuth where the hero, represented
in most of cultures by the Orion constellation, “stands up”. This discovery was
the key point for the identi�cation of the deity venerated in this structure. This
god has been identi�ed in the typology of the god “dying and resurrecting”, well
known in the cultural contexts of the Near East (Dumuzi/Tammuz; Xella 2001),
and also documented in later sources (Polcaro in press). The relationship of a
god similar to Dumuzi/Tammuz with applications representing snakes and trees
on cult vessels found in the temple cell on one hand and the alignment of the
temple entryways to the particular position of the Orion constellation seasonally
appearing and disappearing in the Sky and representing the god passing from the
House of Gods to the Netherworld, found by the previously described analysis
of the Wadi Zarqa valley dolmens, on the other, is an example of the capacity
of Archaeoastronomy to support Archaeology in various cultural contexts,
providing valuable assistance in the interpretation of material data.
Andrea Polcaro
Dipartimento di Scienze Storiche, Archeologiche ed Antropologiche dell’Antichità
Sapienza Università di Roma
Facoltà di Lettere
Università degli Studi di Perugia
Vito Francesco Polcaro
Istituto di Astro�sica Spaziale e Fisica Cosmica – Roma
Istituto Nazionale di Astro�sica
Acknowledgements
We are indebted to Prof. Khaled Douglas and Dr. Gajus Sheltema who accompanied us
during part of the survey of dolmen �elds in Jordan. We also wish to thank Dr. Vittoria Caloi
(INAF-IASF Rome) for critical reading and revision of the text.
REFERENCES
Antonello E. 2008, Origini remote di miti e costellazioni: l’Orsa maggiore, in V. Kruta (ed.),
Gli occhi della notte. Celti, Etruschi, Italici e la volta celeste, Milano, Skira, 25-27.
242
Man and sky: problems and methods of Archaeoastronomy
Antonello E. (ed.) in press, Atti del 7o Convegno annuale della Società italiana di Archeoastronomia Il Cielo e l’Uomo: problemi e metodi di Astronomia culturale (Archeoastronomia,
Etnoastronomia, Storia dell’Astronomia) (Roma 2007), in press.
Aveni A.F. 1993, Gli imperi del tempo, Bari, Dedalo.
Aveni A.F. 2006, Evidence and intentionality: on method in Archaeoastronomy, in Bostwick,
Bates 2006, 57-70.
Aveni A., Mizrachi Y. 1998, The geometry and astronomy of Rujm el-Hiri, a megalithic site
in the southern Levant, «Journal of Field Archaeology», 25, 475-496.
Aveni A., Romano G. 1994, Orientation and Etruscan rituals, «Antiquity», 68, 545-563.
Belmonte J.A. 1997, Mediterranean archaeotopography and archaeoastronomy: two examples
of dolmenic necropolises in the Jordan Valley, «Archaeoastronomy», 22, S37-S43.
Bostwick T.W. 2006, Archaeoastronomy at the gates of orthodoxy: introduction to the
Oxford VII International Conferences on Archaeoastronomy Papers, in Bostwick,
Bates 2006, 1-13.
Bostwick T.W., Bates B. (eds.) 2006, Viewing the Sky through Past and Present Cultures.
Oxford VII International Conferences on Archaeoastronomy, Pueblo Grande Museum
Anthropological Papers 15, Phoenix (AZ).
Botero J., Lavender Fagan T. 2004, Religion in Ancient Mesopotamia, Chicago, University
of Chicago Press.
Castellani V. 2003, Italia: archeoastronomia e necropoli preistoriche, «Rivista di Archeoastronomia», 1, 33-48.
Cernuti S., Gaspani A. 2006, Introduzione all’Archeoastronomia: nuove tecniche di analisi
dei dati, Firenze, Tassinari.
Cohen M.E. 1993, The Cultic Calendars of the Ancient Near East, Bethesda, Maryland,
CDL Press.
Esteban C., Delgado Cabrera M. 2005, Method for the astronomical analysis of the horizon around archaeological sites, in Proceedings of the International Conference on
The Rock-cut Sacred Places of the Thracians and other Palaeo-Balkan and Ancient
Anatolian Peoples (Stara Zagora Spa, Bulgaria, 2005) (http://www.rock-cut.thracians.
org/en/c_resume.php; accessed 13 February 2009).
Fernández-Tresguerres Velasco J.A. 1998, Jebel Mutawwaq y los inicios de la edad del
Bronce en el Norte de Jordania, in J.-L. Cunchillos, J.M. Galán, J.-A. Zamora, S.
Villanueva de Azcona (eds.), Actas del Congreso El Mediterráneo en la Antigüedad:
Oriente y Occidente, Sapanu, Publicaciones en Internet II (http://www.labherm.�lol.
csic.es/; accessed 3 April 2006).
Fletcher M., Lock G.R. 2005, Digging Numbers, Oxford, Oxford University Press (2nd ed.).
Flinders Petrie W.M. 1880, Stonehenge, Plans, Description and Theories, London, Edward
Stanford.
Fisher V.B. 2006, Ignoring Archaeoastronomy: a dying tradition in American Archaeology,
in Bostwick, Bates 2006, 103-113.
Freeman P.R. 1976, A Bayesian analysis of the megalithic yard, «Journal of the Royal Statistical
Society», Series A, A139, 20-55.
Gaspani A. 2006, Il GPS in archeoastronomia, «Rivista di Archeoastronomia», 4, 135-196.
Gaspani A., Cernuti S. 1997, L’astronomia dei Celti, Aosta, Keltia Editrice.
Hawkins G. 1965, Stonehenge Decoded, London, Doubleday & Co.
Hoskin P. 2001, Tombs, Temples and their Orientations, W Sussex, Ocarina Books Ltd.
Ienna D. 2005, Simbologie e rituali di fecondità nel Cilento montano, «Annali Storici di
Principato Citra», 3, 11-58.
Iwaniszewski S. 2003, Archaeoastronomical analysis of Assyrian and Babylonian monuments:
methodological issues, «Journal for the History of Astronomy», 24, 79-93.
243
A. Polcaro, V.F. Polcaro
Judge W.J. 1984, New light on Chaco Canyon, in D.G. Noble (ed.), New Light on Chaco
Canyon, 1-12, Santa Fe, School of American Research Press.
Kendall W.S. 1974, Hunting quanta, «Philosophical Transactions of the Royal Society London», A276, 231-66.
La Greca A. 1997, Appunti di storia del Cilento, Acciaroli, Centro di Promozione culturale
del Cilento.
Lanciano N. 2006, Strumenti per i giardini del cielo, Roma, CNIS.
Lieske J.H., Lederle T., Fricke W., Morando B. 1977, Expressions for the precession
quantities based upon the IAU /1976/ system of astronomical constants, «Astronomy
& Astrophysics», 58, 1-16.
Lockyer N. 1894, The Dawn of Astronomy, Kessinger Publishing (Facsimile edition 1997).
Lockyer N. 1906, Stonehenge and Other British Stone Monuments Astronomically Considered, Kessinger Publishing (Facsimile edition 2003).
Lockyer N. 1909, Surveying for Archœologists, London, Macmillan and co.
Massimino P. 2002, Planetario V2.0 (http://ntserver.ct.astro.it/cgiplan/; accessed 7 February
2008).
Moscati P. in press, Archeoastronomia: metodi e strumenti, in Antonello in press.
Pettinato G. 1998, La scrittura celeste, Milano, Mondadori.
Polcaro A. in press, Jebel Mutawwaq Dolmens: cult of ancestors in Eb I Wadi Az-Zarqa valley, in Proceedings of 6th International Conference of the Archaeology of the Ancient
Near East (ICAANE) (Rome 2008), in press.
Polcaro A., Polcaro V.F. 2006, Early Bronze age dolmens in Jordan and their orientations,
«Mediterranean Archaeology and Archaeometry», 6, 3, 166-171.
Polcaro A., Polcaro V.F. in press, L’orientamento della Porta SE del complesso megalitico
di Rujm el-Hiri, in Antonello in press.
Polcaro V.F., Ienna D. 2009, The Megalithic complex of the “Petra ’ru Mulacchio” on the
Monte della Stella, in Cosmology across Cultures (Granada 2008), ASP Conference
Series Volumes 409, 370-374.
Prag K. 1995, The Dead Sea dolmens: death and landscape, in S. Campbell, A. Green (eds.),
The Archaeology of Death in the Ancient Near East, Oxbow Monograph 51, Oxford,
Oxbow Books.
Renfrew C. 1979, Problems in European Prehistory, Cambridge, Cambridge University
Press.
Romano G. 1994, Archeoastronomia italiana, Padova, CLEUP.
Ruggles C.L.N. 1999, Astronomy in Prehistoric Britain and Ireland, New Haven and London,
Yale University Press.
Schaefer B.E. 1993, Astronomy and the limits of vision, «Vistas in Astronomy», 36, 311361.
Schaefer B.E. 2006, Case study of three of the most famous claimed archaeoastronomical
alignements in North America, in Bostwick, Bates 2006, 27-56.
Simon J.L., Bretagnon P., Chapront J., Chapront-Touzé M., Francou G., Laskar J.
1994, Precession formulae and mean elements for moon and planets, «Astronomy &
Astrophysics», 282, 663-683.
Sinclair R.M. 2006, The nature of Archaeoastronomy, in Bostwick, Bates 2006, 1326.
Somerville B. 1912, Prehistoric monuments in the outer Hebrides and their astronomical
signi�cance, «Journal of the Royal Anthropological Institute», 42, 15-52.
Thom A. 1978, Megalithic Lunar Observatories, Oxford, Clarendon Press (1st ed. 1971).
Vitagliano A. 2008, Solex V10.02 (http://chemistry.unina.it/~alvitagl/solex/; accessed 7
February 2008).
244
Man and sky: problems and methods of Archaeoastronomy
Xella P. 2001, Quando un dio muore. Morti e assenze divine nelle antiche tradizioni mediterranee, Verona, Essedue.
Walker C. (ed.) 1997, L’astronomia prima del telescopio, Bari, Dedalo.
Williams J.G. 1994, Contributions to the Earth’s obliquity rate, precession and nutation,
«Astrophysical Journal», 108, 711-724.
ABSTRACT
Archaeoastronomy is a discipline devoted to the study of the astronomical observations preceding the invention of the telescope. It is an interdisciplinary science, requiring the
knowledge of astronomers, archaeologists, linguists, anthropologists and architects. It has
highlighted the great importance that ancient civilizations attributed to celestial phenomena
and demonstrated how the analysis of the testimonies of this interest can greatly help us in the
understanding the past history of mankind. However, we must avoid the mistake of believing
that it is possible to study the impact of celestial phenomena on ancient cultures without taking
into account their context: unfortunately, this error is still common to date. This paper illustrates
the evolution of Archaeoastronomy since the beginning of the 20th century, its basic principles and the modern methodologies for Archaeoastronomy measurements and data analysis.
Moreover, the proofs needed to claim the actual intentionality of an astronomical alignment
are discussed, showing the potential of Archaeoastronomy, as long as it is strongly linked to,
and continuously compared with, excavation data, and combined with Archaeology in various
cultural contexts, thus providing valuable assistance in the interpretation of material data.
245
Archeologia e Calcolatori
20, 2009, 247-259
DIGITIZATION AS A SCIENCE
1. Introduction
The birth of this article is closely related to the processes that have
been going on for the past few decades that have brought about changes in
the Humanities and have in�uenced the activities of institutions involved in
the Humanities and the practical activities arising from them. These processes include the formation of a network society (Castells 2005), the birth
of new paradigms in science theory, the development of interdisciplinarity
among sciences, the increased need for education in the Humanities and the
development of digital technologies.
The situation is perhaps chie�y characterized by the digital technologies developed over the past few decades that are increasingly in�uencing all
aspects of human life. These technologies provide new means of documentation and communication, and offer opportunities to create new methods
of scienti�c research and models of practical activity in order to optimize
pre-existing methods of scienti�c research as well as to develop interdisciplinary research. They change the processes of accumulation, storage, accounting, study of sources of the Humanities and the spreading of scienti�c
information. At the same time, the role of the Humanities, institutions and
researchers in these processes changes as well as the attitude of society
towards science and the institutions fostering it. However, many problems
related to the practical aspects of digitization1 have yet to be solved.
We can af�rm that one of the most important sources of these problems
is the lack of scienti�c research on digitization. In many countries digitization
is basically perceived just as a practical �eld of activity and it is conducted
only on a practical basis2. Following this approach, the impression is created
1
The term “digitization” is mostly used in this work in the sense of application of computer technologies in the environment of cultural heritage, the Humanities and Social Sciences. On
the one hand, application of digital technologies in natural (not man made) spaces is suf�ciently
studied in the contexts of other sciences; on the other hand, explication of the study results of this
article beyond cultural (man made) spaces would be incorrect considering the basic education of the
author. Moreover, it seems that digitization is becoming a practical and scienti�c problem namely
in cultural (man made) space. But, of course, application of some conclusions given in the article is
also possible beyond cultural spaces.
2
In different countries the relationship between digitization practice and scienti�c research
and the relationship between self-educated persons and professionals participating in digitization is
different and depends on the general level of digitization of the cultural heritage in the country. In
late 2006-early 2007, during the “Digital Preservation Europe” project a comparison of the situation
of scienti�c research on digitization of cultural heritage in different countries was made. The study
247
R. Laužikas
that no speci�c theoretical knowledge is necessary for digitization and that
this can be done by any specialist who has at least elementary training on
how to press the buttons on a scanner or digital camera. Therefore, some
digitization projects having poorer resources and less-skilled staff become a
mere scanning of analogical documents and, after a project is completed, even
its users hardly know what they should do with the scanned images since
they are not linked to each other by any structure, their scanning resolution
and �le formats are different, and no plans for long-term storage or further
project development are foreseen strategically.
Broader approaches are much more suitable when:
1) Digitization is considered to be a method suitable for documentation, storage, scienti�c research, communication. If digitization is considered to be a
method then, along with its practical application, it can also be comprehensible in the context of scienti�c research where the basis of scienti�c research
is a method theory (Popper 1959). For instance, methods like mathematical
statistics are already included in the Classi�cation of Study and Research
Areas, Fields and Branches.
2) Another case in which we may identify a scienti�c character in digitization,
is the empirical and experimental �xing of objective phenomenon of reality
that could be investigated by this new science. In this way, the sciences which
originated from the practical activities of “memory institutions” – libraries,
archives, museums – are de�ned. Nowadays they are also acknowledged as
independent research disciplines and academic subjects.
Consequently, the subject of this article is digitization as scienti�c
research. The aim is to provide the answers to the following questions: can
digitization be comprehended as a kind of scienti�c research? What is the
purpose of scienti�c research on digitization? Can the science of digitization
have special terminology and methods?
2. Digitization as a science?
This article will not study any conceptions or paradigms of modern
science. There is plenty of special literature on this subject (Popper 2001;
Chalmers 2005). For a description of digitization as a science we will use,
�rst of all, the aforementioned theoretical model, according to which the
showed that Lithuania, Serbia and Turkey fall into the last but one cluster. Only Bulgaria, Latvia and
Ukraine are worse (in the last cluster). Absolute leader in this �eld is the United Kingdom. Germany
and Holland are in the second cluster (Laužikas 2007). In these European countries, as well as in the
USA and Australia, scienti�c research (especially applied research) on digitization is at a high level.
The most tangible results include scienti�cally reasonable references, rules, and standards intended
for digitization practitioners as well as methods and training programs in Universities.
248
Digitization as a science
process of conversion of digitization, as a practical activity, into scienti�c
research may be analyzed and described in the same way as the conversion
of museum studies, as the �eld of practical activity, into museology. That is,
due to certain speci�c practical activities, objective and empirically observable phenomenon emerges and scienti�c research is necessary to perceive
it. Therefore, descriptions of the object of scienti�c research on digitization
given in this section are based on Friedrich Waidacher’s model for the de�nition of museology (Waidacher 2007). Waidacher’s approach is basically
positive, and is founded on the concept that only phenomena soundly based
on empirical and experimental experience may be called scienti�c. Naturally,
the model of development of museum studies, as a practical activity, in the
science of museology may only hypothetically be applied to modelling the
development of other practical activities towards a science. Therefore, we
will try to further analyze the concepts introduced into the �eld of theories
of other areas of science as well.
2.1 Occurrence of a scienti�c problem
In order to answer the question of when a practical �eld of activity
becomes a science, �rst of all we have to determine whether its adequate
development, solution of its practical problems «requires theoretical knowledge meeting the highest standards of development in that �eld» because
theoretical knowledge «helps to assess empirical data, to scrap emotional
ballast, to foresee proper methods for problem solving» (Waidacher 2007).
Are there any problems in digitization, as a practical activity, the solving of
which requires theoretical knowledge? In this case we should give an af�rmative answer. Consequently, digitization, as a practical �eld of activity,
acquires the features of a science. Therefore, in the following paragraphs we
will try to describe the subject of digitization as scienti�c research, to give its
de�nition, its links to other sciences and practical activities, and the issues of
terminology and methods.
2.2 Possible object of the science of digitization
The object of the science of digitization would be an objective �eld of
reality, as a part of general cognition, that originated from the practical application of digital technologies and that is determined and studied empirically
and experimentally by digitization as a science.
At �rst sight, it may seem that the object is obviously the applied aspects
of computerized science because it is a new �eld of reality that did not exist
before computers came into existence. On this basis, the de�nition of so-called
e-Science was created (De�ning e-Science 2008). But it is clear that, regardless
of whether we use a computer or not, the object of a speci�c science (history,
249
R. Laužikas
archaeology, museology) and its problems remain the same. Only the aspects
of information management change. Information systems grounded on digital
technologies work like a tool to serve the needs of a scienti�c discipline and
expand its methodological base, but this does not necessarily give rise to a
new science (“digital history”, “digital archaeology”).
Other potential objects are “born digital” and “digitized” data. They
also did not exist before computers came into existence. In this case, born
digital data, i.e. data existing entirely in the digital environment and having
no equivalents in an analogue world, should be mentioned. However, data and
information have always existed and became a subject of scienti�c research on
information and communication a long time ago. From the scienti�c standpoint of a process as well as the semiotic school, we can �nd few differences
between the data functioning in analogue and digital environment. This situation is explained quite well and its scienti�c character “eliminated” by Arkadij
Sokolov’s theory of “the effect of information glasses” (Соколов 2002).
One more aspect that could be an object is the methods applied to
the practical activity of digitization. But the methods are general, borrowed
from the sciences of mathematics, mathematical statistics, informatics and
computer science. After all, it does not make much difference whether a threedimensional scanner is used for making a geodetic topographic survey or for
scanning a heritage object; similarly, calculation of correlation coef�cients
for astronomical and historical data and calculation of the same correlation
made by hand on paper and by computer do not differ methodologically.
Therefore, what is the �eld of reality suitable for potential scienti�c
research, which is studied by digitization? It is already clear that the aforementioned elements – digital tools, institutions, hardware and software,
methods, data, information, people, etc. – are not intrinsically separate objects
of research on digitization as a science and they may be equally successfully
analyzed. They are present not only in the environment of cultural heritage
and the Humanities but in natural, technological environments as well and
not only in digital but also in analogue environments. But it is relevant for
us that in the practical activity of digitization they are not present separately
but as a closed set of interrelated elements. Therefore, what remains to be
done is to explore their relation that may be an actual object of research on
digitization as a science.
This relation (and the object of research on digitization as a science at
the same time) may be called emulativity. In digitization, it is a speci�c relation
between man and reality when people select from reality and/or arti�cially
generate the objects, on the basis of which they create emulative systems in
a digital environment, emulating and imitating the activity of natural systems operating in reality (that operated in the past or will operate in future).
Emulativity is a speci�c phenomenon induced by digital technologies, virtual
250
Digitization as a science
world and Internet and may be studied in many ways including personality
psychology.3 but in this article we will limit our comments to that part of
emulativity which is related to the application of computer technologies to
creation4, heritage protection, the Humanities and Social Sciences; we will
study theoretical interpretations and practical realizations of emulativity in
the above mentioned �elds only.
It is important to note that emulative systems are not copies of systems
existing in reality; but are as independent, dynamic and freely evolving as
the systems of reality that they emulate These systems have all the features
of evolving systems determined by Ilya Prigogine (Пригожин, Стенгерс
1986; Пригожин 2002; Prigogine 2006):
a) these systems evolve;
b) evolution of systems is based on an objective time line which ensures irreversibility of processes;
c) variability of system components which lasts for a long time causes changes
in the whole system;
d) evolution of a system is a process that can be forecast only in part;
e) sometimes an evolving system experiences disturbances that change it essentially (system mutations);
f) the smoother the system is, the higher its level of self-organization and the
less it responds to mutational effect;
g) both systems (that of reality and emulative) evolve at different speeds;
h) two systems (that of reality and emulative), the evolution of which started
in different points of space and time, increasingly recede from each other;
i) two systems (that of reality and emulative) are not inter-integrating.
In this context, the emulative system appears to be a perdurant object5
while digitization as a science (thanks to digital technologies, by the way)
acquires the latest paradigm de�ned by I. Prigogine; it is not con�ned to ideal3
Where personality psychology is mentioned, psychological phenomena caused by activity
in virtual media typical of many modern people (such as transfer of a part of real life or personality
into virtual environments) are kept in mind (Suler 2004).
4
Creation and creativeness in this article are perceived not in the classic sense – like an artistic
activity of some kind – but in the widest sense – like any creating activity by a man, an individual’s
inclination to new, original or innovatory arrangement, modelling or thinking of something, thanks
to which new things are born from knowledge and experience.
5
Endurantism and perdurantism are two opposing philosophical theories investigating
persistence of objects with regard to time and they were formed during the last decades of the 20th
century. Endurantists af�rm that objects are three-dimensional entities, they have spatial parts and
wholly exist at each moment of their existence. Perdurantists af�rm that objects are four-dimensional
entities (the fourth dimension and component of objects is time) and they exist at each moment of
their existence only partially. The origin of these philosophical theories may be linked to A. Einstein’s
general and special relativities. Endurantism is more suitable for Newton’s descriptive space of physics
and it is problematic in description of Einstein’s space-time objects (Hales, Johnson 2003).
251
R. Laužikas
ized and simpli�ed situations but seeks to re�ect and cognize the complexity
of the real world through emulative systems (Prigogine 2006).
Consequently, the object of digitization, like museology, applied to creation, heritage protection, the Humanities and Social Sciences is immaterial and
independent of changes in digital technologies, institutional, legal or otherwise.
Technologies may only help or disturb the implementation of emulativity.
But emulativity of cultural heritage, like an object of the science of museology-museality, is related with material, reality witnessing objects that, on the
basis of appropriate theoretical assumptions, are selected and transferred to a
museum or digital emulative system. Objecti�cation of museality as well as of
emulativity is conducted by interaction with material objects. But in this case
emulativity has one essential feature, which makes it different from museality.
In museology the object is taken from reality, is transferred to a museum and
becomes an exhibit. During this process the utilitarian function of the object
vanishes and the museum function appears and increases (Mensch 1992).
Whereas during the process of digitization, neither the object itself nor its
copy is transferred to the emulative system, but the emulant, which operates
in other, arti�cial, non-reality system, is created by means of recoding on the
basis of the object existing in reality. This problem is related to the treatment
of the relation of the new object, like sign (in the sense of semiotics), existing
in other systems with an object of reality.
In museology, treatment of an exhibit (the new object) as an icon is
more acceptable, i.e. it is a denotation (Peirce 1894). Whereas digitization of
cultural heritage is a transfer of data of an object existing in reality to another,
arti�cial system by means of recoding. During the recoding conversion of the
analogue system into the discrete system what usually causes the increase in
the level of data structuralization occurs, but there is an unavoidable loss of
data. The quantity of the lost data depends on the intensity of simpli�cation
or idealization of the emulative system being created compared to the system
existing in reality. Consequently, the emulant is by no means an iconic sign.
We can assert that it is an index because its links with an object of reality are
direct rather than conventional as it would have to be if an emulant were a
sign of a symbolic nature (Peirce 1894). Regardless of the option of digitization technology: the object’s digital photograph (index I is created), three-dimensional scanning (index II is created) or the description by database �elds
(index III is created) even if we do not belong to any cultural or subcultural
group creating conventional symbols, we will be able to recognize easily that
the digitized object of reality is, for example, a car and not a house.
2.3 Possible trends of scienti�c research on digitization
Emulativity phenomenon may be studied from different aspects – historical, philosophical, sociological, psychological, fundamental, applied, etc. This
252
Digitization as a science
fact lays the foundations for the systematization of digitization as a science.
We can exclude historical, fundamental and applied research on digitization.
Historical research is a type of research, the goal of which is to establish the
alternation of emulativity like phenomenon and other objects and processes
related to this phenomenon in time and its in�uence on public life. Basically, it
answers the following questions: Who/what? Where? When? What were they
doing? Why? What were the after-effects? Fundamental research is an experimental and theoretical activity seeking to recognize the essence of emulativity
as a phenomenon of reality without having any intention at the time of using
the results for any speci�c purpose. One of the goals of fundamental research
is to systemize the �eld of reality by conceptions, to formulate general conclusions and trace the consistent patterns. Applied research is experimental and
theoretical works of cognition are intended for the achievement of speci�c
practical goals of digitization and for solving practical tasks of digitization.
Applied research creates the conditions for the application of results of fundamental research6 to a speci�c activity of digitization.
More serious historical or fundamental research on digitization requires
signi�cant human resources and many research sources. This kind of full
research is possible in the countries where the digitization of the scienti�c
data of cultural heritage and of the Humanities, like a practical activity, has
been conducted for a long time (for 30-40 years) and where application of
digital technologies in the �elds of cultural heritage and the Humanities has
been a separate academic subject or even a separate university specialty for
at least two decades (in the United Kingdom, Italy, France, USA, Australia,
Germany, etc.).
In other countries it is more meaningful to conduct applied research on
digitization science, i.e. about digital documentation, studies, communication.
This kind of research should solve practical problems of digitization, seek
practical goals and give methodical instructions.
2.4 Interdisciplinarity of research on digitization
On the basis of the inductive theory of science conception we can af�rm
that in the modern world there exists new, objective, empirically �xable and
experimentally approvable phenomenon induced by the development of digital
technologies that may be called emulativity. This phenomenon is a basis for
the origin of scienti�c research on digitization and becomes an object of such
research. During the study of the phenomenon of emulativity interdisciplinary
�eld of knowledge on this phenomenon appears and interdisciplinary scienti�c
theories are created on the basis of the accrued knowledge.
6
The de�nitions of fundamental and applied research are formulated on the basis of the
terms of the Law on Science and Studies of the Republic of Lithuania.
253
R. Laužikas
There are, therefore, no doubts that digitization research is interdisciplinary. First of all, it is linked by general relations with speci�c sciences
investigating the groups of emulated objects in the real environment as well
as with practical activities (librarianship, archivistics, museology, history,
archaeology, heritage protection, etc.). Another large group of general relations is that with information and computer sciences. Through the links with
these sciences, the technological possibilities of the practical application of
emulativity are analysed. Models of the ef�cient interaction of specialists in
information technologies and the Humanities that ensure the origin of highquality emulative systems are created. In concrete �elds of applied research
there appear to be speci�c relations with some concrete sciences or practical
activities. In fact, when analyzing the scienti�c data of digital sciences of heritage and the Humanities from the applied point of view, we cannot avoid links
with mathematical statistics, science methodology, content analysis, etc.; since
they are necessary for recoding, information management and communication
links with semiotics, sciences of communication and information.
2.5 Terminology of the science of digitization
In the context of interdisciplinarity, the issue of the terminology of digitization as a science should be determined. Science usually uses three types of
terms: classi�able, comparative and quantitative (Waidacher 2007). At �rst
sight, it may seem that in the digitization of the sciences of cultural heritage
and the Humanities we may not need a separate terminology because we can
use the one which is approved by libraries, museums, archives and specialists in information technologies. But this is not so. A speci�c, scienti�cally
reasonable terminology of digitization is being created and developed but,
naturally, the development of terminology is closely related to the development
of fundamental research on digitization which has not yet reached a suf�cient
level. Perhaps the most signi�cant international example of terminology in
this �eld is the 23 new terms described and used in ISO 21127:2006 standard
“Information and documentation. A reference ontology for the interchange
of cultural heritage information”. Moreover, almost all major institutions
conducting projects of digitization or digitization activities have constructed
more or less extensive glossaries of digitization terms (Preservation Solutions
1998-2007; NEDLIB 1998-2008; Reference Model 2002; UNESCO 2003;
California Digital Library 2005; eSciDoc 2007; British Library Glossary
2008; CSA Glossary 2008; North Carolina ECHO 2008).
2.6 Methods of the science of digitization
Moreover, an insuf�ciently de�ned situation can be seen when reviewing methods applied in digitization as a science. When talking about methods
254
Digitization as a science
we can give two basic opinions. The �rst involves the repudiation of separate
methods in the science of digitization and the second, thinking that digitization
may have speci�c methods of scienti�c research. The �rst opinion af�rms that
the methods of other researches related to heritage and information technologies
are used in research on digitization. Historical research uses historical methods
while fundamental and applied research use general methods (typical of many
sciences) – empirical induction, theoretical critical deduction, etc. or the methods
of separate, related sciences in the �eld of communication research – research
of the sciences of communication and information and educology, expression
of emulativity in society – sociology and psychology, etc. The second opinion
supposes that new speci�c methods originating on the basis of interdisciplinarity
and comparativism of sciences may be applied to the research of emulativity as a
speci�c phenomenon of reality. We can af�rm that a proper example of the group
of such speci�c methods could be webometry – methods intended for studying
digital emulative information offered in the Internet (Thelwall 2004).
However, the issue of scienti�c methods can also be dealt with in other
contexts. Until now, classic, inductive theory of science conception was followed in the article. But we would be wrong if we did not try the emulativity
theory (as existence of independent phenomenon which is a basis of digitization as a science) with other approaches towards science, for example,
deductivistic falsi�ability, one of Karl Raimund Popper’s scienti�c theories.7
According to Popper one of the most important requirements for the empirical theoretical system is its difference from other similar systems. This difference may be best determined through different speci�c methods applied to
different systems. It can be af�rmed that speci�c method is one of the most
important criteria for describing science; therefore, epistemology of science
may be identi�ed with the theory of scienti�c method.
Popper suggests that we adopt conventional methodological rules that
would ensure the veri�ability (falsi�ability) of scienti�c statements: empirical science may be described via its own methodological rules in the same
way like a game of chess may be described via its own rules. Can we, in this
context, treat the methodological rules determined by digital technologies
as an example of methodological rules of primary universal level? Can we
derive from them singular methodological rules of the secondary level? The
answer could be af�rmative. Methodological rules determined by digital
technologies are justi�ed by universal laws of mathematics and logic. But, at
the same time, due to the application of digital technologies, they go beyond
the limit of the sciences of mathematics and logic (as well as of information
and computer science) and seep into other sciences and many �elds of public
7
This theory was enunciated for the �rst time in 1934 in K.R. Popper’s book Logik der
Forschung (The Logic of Scienti�c Discovery).
255
R. Laužikas
life. The spread of digital methodological rules do not signi�cantly change the
universal methodological assumptions of speci�c sciences (i.e. these rules do
not destroy the formed system of sciences) but it in�uences and transforms
the singular methods applied in these sciences.
In addition, Popper formulates three requirements which must be satis�ed by a new scienti�c theory. First of all, a theory must originate from a
simple, new, promising and enticing idea that allows us to determine relations
among things that, at �rst sight, are unrelated. But a theory must be independently tested, i.e. it must explain not only already known facts but it should
also make it possible to predict new, still unknown phenomena. And �nally,
a theory must withstand the new and strict empirical and experimental tests
in the future (this is the so-called empirical success of a theory). If singular
forecasts created by the deductive method on the basis of a universal theory
are not proved in the future empirically and experimentally, these forecasts
are non-falsi�able which means that the universal theory, from which these
forecasts originated in a logical manner, is non-falsi�able too. Consequently,
the theory is rejected. The theory of existence of emulativity phenomenon
perfectly satis�es the �rst two requirements. Acknowledgment of this phenomenon allows us to determine universal relations among many different things
starting with an individual’s psychology and ending with phenomena generated by globalization. Due to strictly mathematically and logically motivated
technological emulativity basis – digital technologies – all singular propositions, hypotheses and forecasts originated from this theory are empirically
and experimentally tested. But the ability of a theory to stand up against the
third requirement may only be guessed.
3. Conclusions
1) In many countries digitization is basically perceived just as a practical �eld
of activity and it is performed according to this perception. We suggest that
a broader approach would be more suitable by investigating the scienti�c
character of digitization.
2) Digitization is considered to be a method suitable for documentation, storage, scienti�c research, and communication. If digitization is considered to be a
method, then, next to its practical application, it can also be comprehensible in
the context of scienti�c research where the basis of scienti�c research is a method
theory. For instance, methods like mathematical statistics are already included
in the Classi�cation of Study and Research Areas, Fields and Branches.
3) Another case where we could search for the scienti�c character of digitization is empirical and experimental �xing of objective phenomenon of reality
that could be investigated by the new science. According to this concept, sciences which originated from the practical activity of “memory institutions” like
256
Digitization as a science
libraries, archives and museums are de�ned. They are now also acknowledged
as independent research disciplines and subjects of academic studies.
4) The object of digitization research may be called emulativity. In digitization
it is a speci�c relation between man and reality when people, on the basis
of special criteria, select from reality and/or arti�cially generate the objects,
on the basis of which they create emulative systems in a digital environment
emulating and imitating the activity of natural systems operating in reality
(that operated in the past or will operate in future). Emulativity is a speci�c
phenomenon induced by digital technologies, virtual world and Internet and
may be studied in many senses including personality psychology.
5) Emulativity phenomenon may be studied from different aspects – historical,
philosophical, sociological, psychological, fundamental, applied, etc. This lays
the foundations for the systematization of digitization as a science.
Rimvydas Laužikas
Institute of Library and Information Science
Vilnius University
REFERENCES
AHDS Case Studies 2003, London, AHDS (http://www.ahds.ac.uk/creating/case-studies/index.
htm; accessed 12 September 2007).
British Library Glossary of Digital Preservation Terms 2008, The British Library Board
(http://www.bl.uk/reshelp/atyourdesk/docsupply/publisher/blejournal/glossary/index.
html; accessed 25 February 2008).
California Digital Library. Preservation Glossary 2005, The Regents of the University of California (http://www.cdlib.org/inside/diglib/glossary/?�eld=glossary&action=search&query=
preservation; accessed 25 February 2008).
Castells M. 2005, Tinklaveikos visuomenės raida (The Rise of the Network Society), Vilnius.
Chalmers A.F. 2005, Kas yra mokslas? (What is This Thing Called Science?), Vilnius, Apostrofa.
CSA Glossary ProQuest 2008 (http://www.csa.com/discoveryguides/cyber/gloss.php; accessed
25 February 2008).
De�ning e-Science 2008, Glasgow, National e-Science Centre (http://www.nesc.ac.uk/nesc/de�ne.html; accessed 25 February 2008).
Dictionary of Computing Terms (HTML) 2004, Needham, TechTarget (http://whatis.techtarget.
com/de�nition/0,,sid9_gci211948,00.html; accessed 20 January 2008).
Dublin Core Metadata Initiative 1995-2008 (http://dublincore.org/; accessed 16 February
2008).
eSciDoc Project Glossary 2007 (http://www.escidoc-project.de/JSPWiki/Wiki.jsp?page=Glossary;
accessed 16 February 2008).
Hales S.D., Johnson T. 2003, Endurantism, Perdurantism, and Special Relativity, «The
Philosophical Quarterly», 53, 213, 524-539 (http://www.bloomu.edu/departments/philosophy/pages/content/hales/articles/sr.html; accessed 25 February 2008).
Hutchinson Encyclopaedia 2000, Abingdon, Helicon Publishing, (http://www.tiscali.co.uk/reference/dictionaries/computers/data/m0005831.html; accessed 16 February 2008).
257
R. Laužikas
LauŽikas R. 2007, Digital preservation researches. European situation, Vilnius (http://www.
digitalpreservationeurope.eu/publications/presentations/Lauzikas_Digital_preservation.
pdf; accessed 12 August 2008).
Manzuch Z., Lauzikas R., Petrauskiene Ž., Glosiene A. 2006, Outline of training principles and objectives. Deliverable 2.1. Workpackage 2, task 2.1., Vilnius (http://www.
digitalpreservationeurope.eu/publications/reports/dpe_research_roadmap_D72.pdf;
accessed 16 February 2008).
Mensch P. van 1992, Towards a Methodology of Museology, PhD thesis, University of
Zagreb, Amsterdam, Reinvardt Academie (http://www.xs4all.nl/~rwa/icofomhi.htm;
accessed 14 March 2008).
NEDLIB Networked European Deposit Library Glossary 1998-2008 (http://nedlib.kb.nl/
glossary.pdf; accessed 25 February 2008).
North Carolina ECHO, Exploring Cultural Heritage Online Glossary 2008 (http://www.
ncecho.org/guide/glossary.htm; accessed 25 February 2008).
Peirce Ch.S. 1894, What Is a Sign?, in The Peirce Edition Project, Indianapolis, USA, Peirce
Edition Project, 2005-2006 (http://www.iupui.edu/~peirce/ep/ep2/ep2book/ch02/
ep2ch2.htm; accessed 15 May 2008).
Popper K.R. 1959, The Logic of Scienti�c Discovery, New York, Basic Books.
Popper K.R. 2001, Rinktinė (Logik der Forschung), Vilnius, Pradai.
Preservation Solutions Australia Glossary of Digital Preservation Terms 1998-2007 (http://
www.preservationsolutionsaustralia.com.au/parbica12/J0604-071005WS7.pdf; accessed 25 February 2008).
Пригожин И. 2002, От существующего к возни-кающему (From Being to Becoming),
Москва.
Prigogine I. 2006, Tikrumo pabaiga: laikas, chaosas ir nauji gamtos dėsniai (End of Certainty), Vilnius.
Пригожин И., Стенгерс И. 1986, Порядок из хаоса: Новый диалог человека с природой
(Order out of Chaos: Man’s new dialogue with nature), Москва, Прогресс.
Reference Model for an Open Archival Information System (OAIS) De�nitions 2002, Consultative Committee for Space Data Systems (http://public.ccsds.org/publications/
archive/650x0b1.pdf, accessed 16 February 2008).
SAMDOK - Museerna Och Samtiden 2005, Stockholm, Nordiska Museet (http://www.museif.a.se/svenskamuseer/intressegrupper/samdok.html; http://www.nordiskamuseet.
se/samdok/; accessed 06 October 2007).
Соколов A.B. 2002, Общая теория социальной коммуникации, Санкт-Петербург: Михайлов
(http://www.ecsocman.edu.ru/db/msg/278088.html; accessed 25 February 2008).
Suler J. 2004, The Psychology of Cyberspace, «International Journal of Applied Psychoanalytic Studies», 1, 359-362 (http://www-usr.rider.edu/~suler/psycyber/cybaddict.html;
accessed 25 February 2008).
Thelwall M. 2004, Link Analysis: An Information Science Approach, San Diego, Academic
Press (http://linkanalysis.wlv.ac.uk/; accessed 10 January 2008).
UNESCO Guidelines for the Preservation of Digital Heritage 2003 (http://unesdoc.unesco.
org/images/0013/001300/130071e.pdf; accessed 25 February 2008).
Waidacher F. 2007, Bendrosios muzeologijos metmenys, Vilnius, Lietuvos Nacionalinis
Muziejus.
258
Digitization as a science
ABSTRACT
The purpose of this paper is to give answers to the following questions: can digitization be comprehended as a kind of scienti�c research? What is the possible object of scienti�c
research on digitization? Can the science of digitization have a particular terminology and
methods? The paper focuses also on the discussion about the object of digitization research
which may be called emulativity, i.e. a speci�c phenomenon induced by digital technologies,
the virtual world and the Internet which may be studied in many senses including personality
psychology. Possible trends of scienti�c research on digitization, interdisciplinarity, terminology
and methods of the science of digitization are also discussed, from the perspective of digitization as a science. In many countries digitization is basically perceived as just a practical �eld
of activity and performed according to this perception. We suggest that a broader approach
would be more suitable by investigating the scienti�c character of digitization, aimed at the
empirical and experimental �xing of objective phenomenon of reality that could be investigated
by the new science.
259
Archeologia e Calcolatori
20, 2009, 261-276
SPATIAL PATTERN OF ARCHAEOLOGICAL SITE DISTRIBUTIONS ON
THE EASTERN SHORES OF LAKE URMIA, NORTHWESTERN IRAN
1. Introduction
The use of archaeological site distribution patterns in order to account
for an archaeological landscape is a relatively new experiment in archaeology.
Even though statistical theories and models in relation to site distribution
patterns have evolved since the middle of the 80s, little attention has been
paid to the potential for utilizing it as an explanatory method for the analysis
of an archaeological landscape (Hodder, Orton 1976; Orton 1982).
This article presents a model for an archaeological landscape in relation to distribution patterns of archaeological sites through the use of spatial
processes. Needless to say, a spatial process encompasses a wide range of
various parameters and this article is con�ned to one of them, in other words, understanding distribution pattern through the use of nearest neighbor
analysis.
Presented here are the results of a study to locate high-potential areas
for archaeological sites in a largely surveyed area on the eastern shores of
Lake Urmia northwestern Iran, including details of the analysis process. The
project used environmental and archaeological data from over 118 known
sites in the region and the results corresponded well with known sites in the
study area. Generally, it is assumed that the selection of sites by the original
inhabitants was at least partially based on a set of favorable environmental
factors, such as distance to water or topographic setting. Another assumption
is that modern day GIS layers consistently characterize changes from the
prehistoric condition of the region suf�ciently well for them to be used to
help discover additional sites.
2. Study area
The setting of this study spans an area of 18000 square kilometers and
it includes parts of the cities of Charoymak, Hashtroud, Maraghe, Malekan,
Bonab, Ajabshir, Oskou, Azarshahr, Marand, Tabriz, Bostanabad in Eastern
Azerbaijan province, and parts of Miyandoab city in western Azerbaijan. The
area lies within E 47 16” to E 45 11” and N 36 53” to N 38 29”. The rivers
which �ow through this area are connected to two basins of Mazandaran
Sea and Urmia Lake which include Garangou, Aidogmoush, Zarrine Roud,
Simine Roud, Talkhe Roud, So� Chai, Shabestar and Tasouj.
261
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
Fig 1 – Map showing the study area of this research in the eastern parts
of Urmia Lake, northwestern Iran.
Lake Urmia is a saline lake some 140 km long and 15-50 km wide
located at an elevation of 1280 m above sea level in the northern part of the
Zagros Chain. The lake constitutes an internal drainage basin fed by local
rivers such as Zarrine Roud and Simine Roud. Most of the basin represents
the areas left by the recession of the lake and is characterized by saline alluvial soils.
The area in which Lake Urmia is located is a remarkable zone according
to its geological evolution complexity and geomorphologic variability (Darvishzadeh 2004). Lake Urmia is like a great �at depression. Ecosystem and
human settlements of the marginal lake regions have always been affected
by the patterns caused by the water level �uctuations of the Lake. Great
variability in water level occurred in the Pleistocene as re�ected in the wider
alluvial terraces around the lake (Kelts, Shahrabi 1985).
The main elevation in this area is Sahand heights – above 2000
meters – in the eastern part of the Lake. In the northern part lie Mishadoagh mountain and a range of adjacent mountains such as Takhat Solyiman,
Bozkosh, Sabalan, and Gharedagh to the north and northeast. Underneath
these heights there are valleys, plains, plateaus and in-between roads. Similarly,
major faults of Azerbaijan can be identi�ed here which give rise to a lot of
geological phenomena of the region (Alayi Taleghani 2003).
Despite the fact that there is enough rain due to snow and cold weather
and despite the presence of the stony and steep slopes of Sahand, the area is
not covered with lots of plant. However, small wild almond trees in Shorkat
area near Urmia could be seen (Figs. 1 and 2).
262
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
Fig. 2 – Topography and archaeological site distributions map of eastern
Lake Urmia shores.
Shabestar
Oskou
Azarshahr
Tabriz
Ajabshir
Bonab
Malekan
Miyandoab
Maraghe
Hashtroud
Charoymak
Bostanabad
Marand
Total
Islamic Historical Iron Bronze Chalcolithic Neolithic
8
2
5
6
8
2
4
2
1
1
1
1
2
2
2
1
2
2
2
5
3
2
4
8
1
2
3
4
2
1
2
6
6
4
3
1
7
6
1
4
4
2
18
28
13
11
38
2
2
2
1
1
3
3
1
2
2
2
3
2
51
56
29
45
75
13
Tab. 1- Chronological distribution of sites observed during the survey
project in the eastern shores of Lake Urmia.
263
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
The long-term Lake Urmia archaeological project is run by the University of Tehran in collaboration with Cultural Heritage and Tourism Organization (CHTO). The project has undergone a systematic �eld survey and by
the end of the 2006 �eld season, about 1000 km2 have been �eld-walked.
The study area for this project composes some 670 km2, from which a total
of 67 survey quadrats in 13 separate �elds were selected providing a number of observations with which a spatial analysis could be performed. The
survey resulted in discovering traces of some 118 archaeological sites from
the different cultural periods. Tab. 1 indicates the frequency of sites and their
chronology discovered during the survey project (Tab. 1).
3. Material and methods
3.1 The technique
Every point distribution is the result of a certain spatial process at a given
time and a given space. The distribution of points (archaeological sites) on the
landscape may have various patterns. They may take the form of clusters or
they may be dispersed in a consistent distribution or their distribution may
be entirely random without any speci�c pattern.
There are three general categories of geographical patterns conventionally used as benchmark to describe how points structure spatially. The �rst
category is cluster (aggregate) pattern when points of similar properties cluster together. Next, the disperse pattern is when points of similar properties
are apart from each other. In the extreme case of disperse pattern, a uniform
pattern is a pattern in which every point is surrounded by points of different
property. Finally, the third category is the random pattern in which there does
not seem to be any structural pattern.
With spatial archaeology using the three categories and together with
nearest neighbor analysis calculated from a geographical pattern of points
it is possible to construct a number of patterns that characterize different
types of archaeological site distributions in landscape and thus it is possible
to detect spatial pattern from the point distributions and changes in point
patterns at different times (Fortin, Dale 2005, 32-35). This comparison is
carried out within a framework of a spatial statistic system and its outcome
is to arrive at a pattern that shows how the sites under investigation have
formed. At the beginning of the analysis, it is crucial to determine the number
and forms of the sites. For this reason, in the 2005 and 2006 survey seasons,
we �rst overlaid the study area with a regular square grid (100×100 m), and
counted the number of points falling in each square. Using precision military
global positioning system (GPS) receivers with real time 5 m accuracy, aerial
photography, a sighting compass and landmarks on the horizon, we were able
to survey entire grids and mark all the desired archaeological sites.
264
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
3.2 GIS database
The GIS database covers the majority of the eastern Urmia Lake shores
and its immediate environs. The current basic raster and vector layers of the
GIS database include: elevation (derived from elevation data), aspect (derived from the elevation data), slope (derived from the digital elevation data),
land use/land cover maps (derived from spot image data), geology (generated
from 1:25.000 geology map of the upper part of the region), faults (from the
same 1:50.000 geology map), hydrology (from the three 1:50.000 maps and
1:25.000 maps), modern roads (from 1:50.000 and 1:25.000 maps), ancient
roads (from project information and old maps), archaeological sites and
�eld survey transects (from project surveys and other sources). Additional
derived data layers showing different distance categories, or buffer zones,
from roads, streams, faults, archaeological sites, and ancient roads were then
generated from the data above. Additional data have recently been added
that were derived from the 1:25.000 maps, including reclassi�cations and
distance measurements from sites, ancient roads, and hydrology. In all there
are currently over 118 point, vector, and raster data layers in the database.
Archaeological sites and basin characteristics were calculated using the data
sets compiled as layers in GIS system.
To delineate boundaries of the sampling sites, a 50 m horizontal and
vertical resolution Digital Elevation Model (DEM) and the river network
were derived from 1:25.000 digital topographic map from the National
Cartographic Centre of Iran; latitude and longitude coordinates of the 16
sampling sites were recorded in the �eld using a Global Positioning System
unit, and then imported into GIS, where they were matched to the nearest
point in the DEM. Each delineated feature was individually characterized in
terms of topography (average altitude and slope), soils, river network and
land use. Spatial features of these types of data sets included normalized
difference vegetation index, land cover, elevation, slope, aspect, and total
length of rivers.
Data on each of these variables were then extracted for “buffer zones”
consisting of the area included in a circle of 3 km diameter centered on
georeferenced points. Three kilometers is the minimum diameter in which
at least one point was found in the study area. Land cover of the study area
was obtained from the survey data. The study area land cover map had 8
classes (pixel values correspond to class numbers). The hectares of each class
were calculated for each “buffer zone”, overlaying the “buffer zone” grid to
the land cover grid. Elevation, slope and aspect data on elevation, slope and
aspect of the study area were obtained from the Digital Elevation Model
(DEM). The elevation was divided into the following four classes: low (350
ft) to very high (10500 ft). Slope was divided into the following four classes:
265
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
�at (0), low (0-15), medium (15-30) and high (30-54). Utilizing the above
data for each “buffer zone”, the following variables were calculated: number
of pixel of each elevation class, average and S.D. of elevation; number of pixel
of each aspect class, average and S.D. of slope. Total length of rivers in the
study area was obtained from digital map. Applying a new intersection of
“buffer zones” with study area hydrographic network, the total length of the
rivers in each “buffer zone” was calculated (for more details of the technique
see Warren, Asch 2000).
More precise data regarding the presence of watercourses smaller than
rivers (streams, springs and brooks) were recorded in the �eld, since they
were not detectable from satellite images. All GIS databases were developed
using ArcView 3.2. Five categories of obsidian material (in each quadrat) were
determined as a function of the percentage of the land use patterns: lower
(0-3 pieces), low (4-7 pieces), medium (8-12 pieces), high (13-16 pieces) and
very high (> 17 pieces). Each �nd spot corresponded to a sampling point
where obsidian distributions were determined by the project, as described in
detail elsewhere (Niknami et al. in press). Knowledge of the environmental
variables in�uencing activities of original inhabitants is used to produce GIS
layers representing the spatial distribution of those variables. The GIS layers
are then analyzed to identify locations where combinations of environmental
variables match patterns observed at known sites.
3.3 Statistical analyses
We tested the null hypothesis that the spatial pattern of archaeological
sites did not differ from complete spatial randomness to describe an array of
points that are distributed independently (Lee, Wong 2003). Nearest neighbor
analysis is commonplace in the analysis of point pattern. The nearest neighbor
distance for an event in a point pattern, is the distance from that event to
the nearest event, also in the point pattern. Nearest neighbor calculates the
statistic R which is the ratio of the observed average distance between nearest neighbors of a point distribution (robs) and the expected average distance
(rexp) between nearest neighbors as determined by a theoretical pattern. For
each pattern, the shortest distance among all neighbors becomes the nearest
distance which is then averaged using all points. In its simplest form, the
nearest neighbor statistic R compares the observed robs, with the expected,
rexp (random), nearest neighbor distances and identi�es whether points are
random (R≅), completely clustered (r= 0.0, in which all points lie on top of
each other) or dispersed (R= 2, in which points distribute in a square lattice,
or R= 2.149, which is the theoretical value for the most dispersed pattern,
being that of a triangular lattice). The nearest neighbor general formula can
be computed by the following process (Clark, Evans 1954):
266
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
where
di is the nearest neighbor distance for point i and n is the number of points,
A, is the area of the study region.
The key test statistic for evaluating the signi�cance between an observed
and random distribution is based upon the standardized Z score:
If ZR > 1.96 or ZR < -1.96, it can be concluded that the calculated difference between the observed pattern and the random pattern is statistically
signi�cant given that α = 0.05. Alternatively, if -1.96 < ZR < 1.96, we can
conclude that the observed point pattern, although it may look somewhat
clustered or somewhat dispersed visually, is not signi�cantly different from a
random pattern, and we will fail to reject the null hypothesis.
4. Results
Results from the nearest neighbor analysis suggested that all sites from
the observed chronologies were aggregated (Tab. 2).
The mean nearest neighbor distance indicates a highest value for the
Iron Age sites while the Chalcolithic sites experiencing the lowest values of
mean distance. Values of nearest neighbor statistic for Islamic sites were nearly
signi�cant (p= 0.054), suggesting an aggregated pattern, but for the Neolithic
sites indicating a less signi�cant pattern of aggregations. Nearest neighbor
267
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
Variate
Islamic
Historical
Iron
Bronze
Chalcolithic
Neolithic
N
51
56
29
45
75
13
Robs
69.12
63.73
78.29
70.10
46.49
73.34
Rexp
76.45
79.22
88.36
95.40
54.21
84.50
R
0.90
0.81
0.88
0.73
0.85
0.86
Z
-1.83
-1.40
-2.49
-3.21
-5.34
-0.58
p
0.054
**
***
***
***
0.26
Tab. 2 – Nearest neighbor statistics for archaeological sites in eastern Urmia region. The parameter R
represents the mean nearest neighbor distance (subscripts obs= observed, exp= expected). Values of R
signi�cantly different than unity (p<0.05) are either clustered (<1.00) or uniformly distributed (>1.00).
R= observed x nearest neighbor distance/expected x nearest neighbor distance (r obs /r exp ).
*p <0.05 **p <0.01 ***p <0.001.
distances for the Historical, the Iron Age, the Bronze Age and Chalcolithic
sites were signi�cantly different from 1.0, indicating a more aggregated pattern for those sites.
5. Discussion
Point pattern analysis is seen as an important tool for describing, interpreting, and analyzing spatial distribution features of the archaeological
phenomena (Conolly, Lake 2006, 162).
Analysis of archaeological settlement pattern is a brilliant approach as
far as site distribution and settlement pattern is concerned. This approach has
carved a special niche for itself both on intellectual and practical levels in the
development of analytic tools such as GIS within archaeology. For instance,
in the case of settlement pattern analysis, regular spacing of sites has been
taken to re�ect either form of competition between settlements, the existence of site catchments, or a combination of both as a result of demographic
growth from an initial random distribution. By contrast, clustering of sites
may result from a number of factors, but localized distribution of resources
and the emergence of polities or regional centers have often be highlighted
(Ladefoged, Pearson 2000).
Interpretations of spatial pattern, especially in landscape scale, provide
insight into the underlying mechanisms responsible for the pattern (Bradley
2000). We propose that spatial clustering of archaeological sites is expected
for at least two fundamental reasons: land quality and cultural and socio-economic factors. Land quality can be associated with several important features
of habitation area such as land environmental characteristics, i.e. elevation,
slope, soil structure, availability and persistence of food and water sources
as well as quality or quantity of connection networks. Cultural interactions
predominantly relate to complex hierarchical social and economic factors
practiced by local populations. The clustering of sites results in a clumping
268
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
pattern of sites at a relatively smaller spatial scale (Schwarz, Mount 2006,
180-181). Spatial aggregation of sites may be evident because sites in each
cultural period are distributed in a small range relative to the spatial scales
that we examined. At our study region people traveled within a range from
maximum 2 km in Neolithic to 3-5 km in the late Islamic period, assuming a
perfectly home range movements of local site habitants. Home range dynamics would clearly result in aggregated spatial pattern of archaeological sites.
The home range traveling of populations is best viewed as a circumscribed
network of sites in any given period.
Land preference also helps to explain the aggregated pattern of sites,
although the factors most responsible for distribution patterns remain generalized. Over their entire geographical range, sites are known to occur in a wide
range of habitat types from coastal plains, alluvial plains and piedmonts. Our
recent research results from an intensive survey and modeling effort, based
on classi�cation and predictive modeling of archaeological site distribution
using GIS device in the Central Zagros region (Niknami, Saeedi 2006), indicated that densities of sites were related to the environmental variables of
the region such as elevation, soil classes and distance to resources. We found
that people mainly during prehistory preferentially selected their settlement
areas at a moderately elevated part of the region (1500-2000 above sea level),
and at a moderate cover of perennial vegetation as well as a short distance
from the water supplies. Thus the selection of sites by ancient inhabitants
may be driven, in part, by the physical characteristics of the land and water
resources, which themselves may follow a clustered pattern.
Cultural, social and economic factors help to explain the aggregated
pattern of archaeological sites and the strong association between site distributions and behaviorally derived factors (Kvamme 1993). A comprehensive
model for social structure of the interest is not available, but in some extent
the cultural pattern of some excavated site and economic connection of them
are paramount. Over the years archaeologists have developed a number of
theoretical models to explain the composition of archaeological sites based
on both basic economic principles and analogies to ethnographic examples.
In these models pastoral groups perform various activities in a patterned
manner, leading to the remains of most structured and organizational evidence of different types. A basic distinction within many models concerns
the acquisition of raw material and access to the necessary needs by mobile
groups. These models suggest that mobile groups often acquire the goods they
need (pottery and stone for tools) from contacting peoples by including raw
material extraction within their other subsistence activities and transport such
goods and materials to the places year round. Worn out and broken tools are
discarded and replaced with new ones either as groups encounter sources of
new material on the landscape or make contact with other groups (Daniel
269
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
2001). We also documented here traces of residentially stable populations
which we assume were connected to their sedentary system of agriculture
and their cultivated lands. Unlike mobile groups, stable populations often
either directly make use of locally available materials or acquire their needs
through trade.
However, access to high quality goods even for sedentary peoples may
be tempered by their degree of mobility, whereas an intermediate distance
covered during trips may allow them to directly access supplies and a greater
range of non-local and or higher quality materials (Barton et al. 2002, 170).
Although this perspective has not been thoroughly dealt with in our research,
our analyses point out some interesting connections to these models that highlight important details on how the pastoral and residential populations in our
study area integrated various aspects of social contacts within the organization
of their cultural system. Here we would note that like the land quality model
mentioned before, the social behavior of ancient eastern Urmia inhabitants
may have been bounded by an aggregated pattern imposed on the connection
networks to form a relatively short distance structure (see below).
As was explained earlier, the most important type of archaeological
object occurring in the study area is obsidian artifacts (Niknami et al. in
press). These obsidian sites are known to have played an important role in
the maintenance of the economic characteristics and for the people in the
region, and as such were likely to have played an important role in structuring behavior at the regional level. A visual examination of regression lines
measuring relationships between obsidian site size and distance to obsidian
source reveals that there is a tendency for the large sites, i.e. the largest sites
containing class 4 and class 5 obsidians, to be located close to obsidian sources,
suggesting that clustering around a source can be viewed as a behavioral trend
of people making the least effort to obtain more valuable materials (Fig. 3). To
explore this idea further, proximity to possible layers of ancient trade roads
was calculated using a cost-distance function, the result was similar where
high values indicate areas that are proximate to accessible routes. Thus if we
were to think about access to a short distance water source in a similar way
as we might model access to trade routes, then sites in this layer with high
values might be preferentially chosen for clustering if being close to water
sources was important. For this reason, the resulting layers demonstrate how
the area along the drainage lines that are aggregated close to water sources
produce values that are higher. Hence, in some cases at least, it would appear
that following the drainage line could serve a dual purpose, providing access
to water and several obsidian sites.
The geographical features of the area in the eastern parts of Urmia Lake
have two distinctive geographical characteristics that are entirely different
from each other. These parts include a �at alluvial area which was irrigated
270
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
Fig. 3 – Clustered pattern of sites mentioned in the text based on the
model on site size variables.
by several permanent rivers and a network of seasonal rivers while the other
part includes mountainous areas which extend across from northeast, centre,
and southeast of the area. The geography of the environment is such that we
can infer that the low laying valleys in mountainous areas could have affected
the free movement of the people in the past and therefore, the movement of
the people naturally followed the natural course of the rivers. Plant features
of the area coupled with abundance of water sources made for a relative
density of population.
However, it is very dif�cult to see any difference between environmentderived behaviors and cultural behaviors which humans exhibit in trying
to adapt to the environment (Fry et al. 2004, 98). For example, settlement
271
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
patterns in the region show that most sites by Urmia Lake and along a wide
range of connecting roads were formed in prehistory. The close proximity
of the sites and their assembling in areas where there might be fresh water
show distribution patterns in which we cannot exclude the possibility of their
having economic relations with each other. While, for the later periods, even
though there are still no valid sources of archaeological records on hand, it
can be surmised that historical population movement within this area might
have been related to socio-economic and political factors more than environmental. It is self-evident that inevitable environmental factors are inextricably
intertwined with socio-political factors in terms of their effect on forming site
distribution structures (Gaffney, Van Leusen 1995, 375).
Thus, it can be said that despite the potentialities and limitations of
the environment, modes of living and economy might have had irrefutable
role. At the same time, sites of later periods are dispersed mostly in areas
away from the coasts of the lake and areas with average heights. It appears
that in this period, the increase in water control management together with
optimization of food production systems made it possible to bene�t from
sources away from the lake. In addition, a streak of Salina around Talkhe
Roud river was never able to attract inhabitation at any time. Another crucial
and relevant point here is that the accumulation of clustering settlements in
this area occurred in places with potential for subsistence, and technological
development in terms of securing sources for a reasonable population. The
alluvial landscape around the lake guaranteed arable areas for agriculture.
Suitable mineral soil centers that were close to each other gave rise to pottery
production and processing. Besides sites such as Darvish Baghal, Yanik Tepe,
Hasanlu, Sis and Kozeh Konan where this kind of economic relationship can
be clearly seen, there are patterns with similar subsistence relationships which
can be seen in other sites. The water source system follows a linear pattern
to the east of Urmia Lake. For a better understanding of the relationship of
settlement distribution patterns and water resources, we produced layers using
GIS where the proximity of sites to water resources was taken into account
(Niknami, Chaychi 2008). Besides securing access to water resources, linear
distribution of water resources also made it possible for sites to connect. In
addition, a signi�cant tendency of archaeological sites here is the fact that
the bigger places tend to be distributed close to water resources more than
the smaller ones. Distance estimation along with site distribution pattern is
another important issue to be considered.
It seems that the socio-economic trend in the clustering of archaeological
sites in the eastern Urmia region is consistent with the distribution of obsidian
sources and obsidian trades. In the eastern Urmia region, there are three obsidian sources from which the obsidian artifacts were obtained and utilized by
the nearest populations. Interestingly, no long-distance trade of obsidian was
272
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
Fig. 4 – Proximity measurements of archaeological sites from possible ancient road networks.
practiced; in fact, as we have recently concluded (Niknami, Chaychi 2007),
all of the obsidian sites that were exploited had an average distance of ca. 70
to 75 km from the sources. This short distance reinforces the hypothesis that
the later inhabitants of these sites traveled a short distance to access the raw
material. This �nding also suggests that much of the trade in obsidian might
have occurred here within an internal exchange system, however, so far there
is no evidence regarding exploitation of obsidian from other sources. This is
illustrated in Fig. 4. In this �gure it can be seen that almost all obsidian sites were
located very close to the trade route system implying a socio-economic structure
for the region. This assumption may account for the behavioral pattern of site
distributions however, demonstrating this point will require further study.
In summary, our �ndings related to land quality and socio-economic and
cultural factors as the fundamental baselines for archaeological site clustering
are consistent with the statements that are found in archaeological literature.
For example, Hodder and Orton (1976, 85) maintained that «…clustering
is due to the localization of resources...localized resources may include a
preferred soil type, a linear resource such as river and a point resource such
a well or geological outcrop». This is actually the same line of conclusions
that in recent years the analytical approaches applied by Lock and Harris
(2006, 44-52), Ridges (2006, 130-135) and Whitley (2006, 372-373) have
proved to be the most applicable and acceptable.
Again, archaeological challenges in the region such as those that this
project encountered may be comprehended by considering the effect of socio273
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
economic and political behaviors on the formation of archaeological sites,
although it is very dif�cult to observe such behaviors by the conventional
method alone (Pickering 1994).
6. Conclusions
It has been shown that point pattern correlates with those sites that are
most organized and regular in distribution. As a method for describing the
spatial pattern with regional data set nearest neighbor analysis provides a
useful means of identifying generalization about the distribution of archaeological sites. We hypothesized factors driving the aggregated pattern of sites,
land characteristics, and social and economic interactions resulting in a home
range contacting. The relationship between location, degree of clustering and
morphology implies that the effects of positive spatial autocorrelation are
present. For this reason, future studies should involve statistical measures
of spatial autocorrelation to ensure that both the location of sites and their
attributes are considered (Woodman 2000). This type of work could advance
the understanding of spatial processes across both local and regional scales.
It has also been shown that spatial statistical analysis using ground
survey data within a GIS offers quantitative methods from which an understanding of archaeological site distribution pattern can be surmised.
Analytical models of distribution patterns used in this research could
show an adequate capability for the model to study the spatial characterizations of settlements from different time periods in the eastern parts of Urmia
Lake. Nevertheless, effective use of the methods and their analytical approach
will involve consideration of diverse perspectives (Church et al. 2000).
In this paper, site distribution analysis is proposed as an approach to
discovering the spatial relationship of observed archaeological data. Therefore,
this approach has the potential for explaining a wide range of theoretical and
practical foundations of the behaviors which archaeology deals with.
Acknowledgements
The authors gratefully acknowledge the preceding work required to develop the ArcView Extensions by Lee J. Wong, D.W.S. These are available from: USGS Planetary GIS web
server (PIGWAD).
Kamal Aldin Niknami
Department of Archaeology
University of Tehran
Ahmad Chaychi Amirkhiz
Fatemeh Farshi Jalali
Iranian Cultural Heritage and Tourism Organization, Tehran
274
Spatial pattern of archaeological site distributions on the eastern shores of Lake Urmia
REFERENCES
Alayi Taleghani M. 2003, Geomorphology of Iran, 3rd ed., Tehran, Ghumes (in Persian).
Barton C.M., Bernabeu J., Aura J.E., Gracia O., La Roca N. 2002, Dynamic landscapes,
Artifact taphonomy, and landscape modeling in the western Mediterranean, «Geoarchaeology: An International Journal», 17, 155-190.
Bradley R. 2000, An Archaeology of Natural Place, London, Routledge and Kegan Paul.
Church T., Brandon R.J., Burgett G.R. 2000, GIS application in archaeology: method in
search of theory, in Wescott, Brandon 2000, 135-155.
Clark P.J., Evans F.S. 1954, Distance to nearest neighbor as a measure of spatial relationships
in populations, «Ecology», 35, 445-453.
Conolly J., Lake M. 2006, Geographical Information Systems in Archaeology, Cambridge,
Cambridge University Press.
Daniel I.R. 2001, Stone raw material availability and early archaic settlement in the southeastern United Stated, «American Antiquity», 66, 237-265.
Darvishzadeh A. 2004, Volcanoes and Volcanic Outcrops, Tehran, The University of Tehran
Press (in Persian).
Fortin M.J., Dale M. 2005, Spatial Analysis (A Guide for Ecologists), Cambridge, Cambridge
University Press.
Fry G.L.A., Skar B., Jerpasen G., Bakkestuen V., Erikstad L. 2004, Locating archaeological
site in the landscape: a hierarchical approach based on landscape indicators, «Landscape
and Urban Planning», 67, 97-107.
Gaffney V., Van Leusen P.M. 1995, GIS environmental determinism and archaeology, a parallel text, in G. Lock, Z. Stančič (eds.), Archaeology and Geographical Information
Systems: An European Perspective, London, Taylor and Francis, 367-362.
Hodder I., Orton C. 1976, Spatial Analysis in Archaeology, Cambridge, Cambridge University Press.
Kelts K., Shahrabi M. 1985, Holocene sedimentology of hyper saline Lake Urmia, Northwestern Iran, «Paleogeography, Paleoclimatology and Paleoecology», 54, 105-130.
Kvamme K.L. 1993, Spatial statistics and GIS: an integrated approach, in J. Andersen, T. Madsen, I. Scollar (eds.), Computing the Past: Computer Application and Quantitative
Methods in Archaeology. CAA 1992, Aarhus, Aarhus University Press, 91-102.
Ladefoged T.N., Pearson R. 2000, Forti�ed castle on Okinawa Island during the Gusuku
period, AD 1200-1600, «Antiquity», 74, 404-412.
Lee J., Wong D.W.S. 2003, Statistical Analysis with ArchView GIS, Willy, New York.
Lock G., Harris T. 2006, Enhancing predictive archaeological modeling: integrating location,
landscape, and culture, in Mehrer, Wescott 2006, 41-62.
Maschner H.D.G., Stein J.W. 1995, Multivariate approaches to site location on the Northwest
Coast of North America, «Antiquity», 69, 61-73.
Mehrer M.W., Wescott K.L. 2006 (eds.), GIS and Archaeological Site Location Modeling,
London, Taylor and Francis.
Niknami K.A., Chaychi A.A. 2007, Geochemical analysis of obsidian and the pattern recognition of sites spatial distribution in the Chalcolithic of the Eastern Lake Urmia,
northwestern Iran, «Geochimica et Cosmochimica ACTA», 71 (15), 718.
Niknami K.A., Chaychi A.A. 2008, A GIS technical approach to the spatial pattern recognition
of archaeological site distribution on the eastern shores of Lake Urmia, northwestern
Iran, in Proceedings of the International Archives of the Photogrammetry, Remote
Sensing and Spatial Information Sciences, Vol. XXXVII, Part B4, Beijing, 167-172.
Niknami K.A., Chaychi A.A., Glascock M.D. in press, Provenance studies of Chalcolithic
obsidian artifacts from Lake Urmia, northwestern Iran using WDXRF analysis, «Archaeometry».
275
K.A. Niknami, A.C. Amirkhiz, F.F. Jalali
Niknami K.A., Saeedi M.R. 2006, A (GIS)-based predictive mapping to locate prehistoric site
locations in the Gamasb River Basin, Central Zagros, Iran, in S. Campana, M. Forte (eds.),
From Space to Place, BAR International Series 1568, Oxford, Archaeopress, 249-255.
Orton C. 1982, Stochastic process and archaeological mechanism in spatial analysis, «Journal
of Archaeological Sciences», 9, 1-7.
Pickering M. 1994, The physical landscape as a social landscape, a Garawa example, «Archaeology in Oceania», 29, 149-161.
Ridges M. 2006, Regional dynamics of hunting and gathering: an Australian case study using
archaeological predictive modeling, in Mehrer, Wescott 2006, 123-143.
Schwarz K.R., Mount J. 2006, Integrating spatial statistics into archaeological data modeling,
in Mehrer, Wescott 2006, 167-189.
Warren R.E., Asch D.L. 2000, A predictive model of archaeological site location in the Eastern
Prairie Peninsula, in Westcott, Brandon 2000, 5-32.
Wescott K.L., Brandon R.J. (eds.) 2000, Practical Application of GIS for Archaeology,
Philadelphia, Taylor and Francis.
Whitley T.G. 2006, Predictive modeling in a homogeneous environment: an example from
the Charleston Naval Weapons Station, South Carolina, in Mehrer, Wescott 2006,
335-394.
Woodman P.E. 2000, A predictive model for Mesolithic site location on Islay using logistic
regression and GIS, in Hunter-Gatherer Landscape Archaeology: The Southern Hebrides Mesolithic Project 1988-1998, Vol. 2, Archaeological Fieldwork on Colonsay,
Computer Modeling, Experimental Archaeology and Final Interpretations, Cambridge,
McDonald Institute for Archaeological Research, 445-464.
ABSTRACT
The Lake Urmia survey project carried out from 2004 to 2006 in northwestern Iran
was aimed at obtaining a reliable overview of the occurrence of archaeological sites as well as
to identify the spatial pattern of such sites across the area. This paper explores archaeological
approaches to regional scale in dynamic landscape. Regional interpretation and the spatial
statistical methods used to describe sites distribution, orientation, and pattern are often most
reliant on point data. This paper also demonstrates how point pattern analysis offers quantitative information to the spatial process modeling of the natural and cultural landscape,
which will aid at establishing a baseline from which other attributes of higher measurements
for archaeological elements can be con�dently mapped, described and modeled within a GIS.
Point pattern analysis of archaeological sites has involved the advantages of visualization and
iteration offered by a GIS. Therefore the signi�cance of this study is three-fold. 1) it applies
spatial analysis within a GIS to the understanding of archaeological site distributions. 2) it uses
quantitative methods that are now available within a GIS to assess inferences concerning the
survey data collected from the study area. Finally, this study offers insight into a methodology that is suitable to the spatial examination of more complicated surface data in landscape
archaeology concept.
276
Archeologia e Calcolatori
20, 2009, 277-290
PREDICTIVE MODELLING OF ROMAN SETTLEMENT
IN THE MIDDLE TIBER VALLEY
1. Introduction
The aim of this research is to apply and evaluate the potential of predictive modelling as a means to further understanding ancient settlement in the
middle Tiber valley. This area is one of the most intensively surveyed regions
of the Mediterranean yet even here the extent of archaeological knowledge
is uneven and some areas have yet to be subject to any systematic survey at
all.
Since 1997, the area has been the focus of the British School at Rome’s
Tiber Valley Project, under the direction of Dr. Helen Patterson. The overall
goal of the project is to study the changing landscape of the middle Tiber valley
from protohistory to the medieval period (Fig. 1). It examines the impact of
the growth, success and transformation of the city of Rome on the history of
settlement and economy in the river valley (for project aims and results, see
Patterson 2004; Patterson et al. 2004b; Coarelli, Patterson 2008).
2. The dataset
The data used in this analysis have been generated through a restudy
of the material from John Ward-Perkins’ South Etruria Survey carried out
between the 1950s and 1970s, and their integration with data from more
recent �eld work and numerous published surveys and excavations. The data
were collected and integrated by two Leverhulme-funded fellows, Helga Di
Giuseppe and Robert Witcher; the restudy of the South Etruria survey material
was undertaken by twelve ceramic specialists (Patterson et al. 2004a, and
papers in Coarelli, Patterson 2008). The data are housed in a relational
database, which includes over 5500 �ndspots. As well as the management
and archiving of data, this systemisation also opens up potential for spatial
analyses (Kay, Witcher 2005; Witcher, Kay 2008). Each record includes
spatial coordinates that enable visualisation within a GIS. The precision of
�eld recording for the bulk of sites is 100 metres, and this relatively coarse
resolution is re�ected in the predictive models developed below.
3. Background of application
The process of data collation emphasised that, whilst most areas have
produced some evidence of human activity, not all areas have been subject to
277
S.J. Kay, R.E. Witcher
Fig. 1 – Location of Tiber Valley Project study area (black line), main
�eld surveys (in grey) and predictive model case study area (boxed,
see Fig. 2).
the same level of systematic study. For example, it became apparent that there
was a marked contrast in the numbers and chronological development of sites
on either side of the river Tiber (Patterson et al. 2004c). In order to assess
whether this was a genuine pattern, or a product of uneven archaeological
attention, a small �eld survey was undertaken in the Sabina Tiberina on the
east bank (Di Giuseppe et al. 2002). The results suggest that the contrasting
patterns of ancient settlement on either bank of the Tiber are likely to be a
product of different histories of, and approaches to, landscape archaeology.
In particular, the Corese survey was able to document higher densities of
settlement than previously identi�ed in the Sabina Tiberina, including sites
from periods that have traditionally been dif�cult to recognise due to limited
quantities of material culture (for example, the late antique).
278
Predictive modelling of Roman settlement in the middle Tiber valley
Since the South Etruria survey commenced in the 1950s, some areas have
been lost to quarrying and development, and many individual sites have been
destroyed by erosion. It seems likely that many undiscovered sites have also
been permanently lost. There are also several areas in South Etruria which
were, and which remain, inaccessible, including military training areas and
the Vatican Radio antenna farm. Predictive modelling offers the possibility to
explore the potential archaeological signi�cance of these different gaps and
inconsistencies. Indeed, such work is of critical importance if we are to evaluate the signi�cance of existing settlement patterns and trends. Furthermore,
predictive modelling also has the potential to respond to a question of critical
importance – what percentage of past settlement does �eld survey actually
identify? (Witcher in press).
4. Theoretical perspectives on predictive modelling
The majority of published applications of predictive modelling concern North American case studies (see papers in Wescott, Brandon 2000;
Mehrer, Wescott 2006; for brief introductions, see Lock 2003, 168-70;
Chapman 2006, 157-159). In Europe, applications of the technique have
concentrated on northern countries, particularly the Netherlands, Germany
and France (Lock, Stančič 1995; García Sanjuán, Wheatley 2002; van
Leusen, Kamermans 2005; Verhagen 2007).
Some of this work is driven by speci�c research questions, but much
concerns Cultural Resource Management where predictive modelling has come
to form part of the planning process. There exist very few published applications of predictive modelling in southern Europe (see van Leusen 2002, 146149); as well as Gaffney and Stančič’s (1991) seminal study of the Croatian
island of Hvar, there has also been work by Kamermans (2000) in the Agro
Pontino to the south of Rome, by Stančič and Veljanovski (2000) on the
Croatian island of Brač, and by Rua (2009) in southern Portugal. Closely
related GIS applications include work by van Hove (2004) on “taskscapes”
in Calabria and applications of Historic Landscape Characterization (HLC)
in Greece and Turkey by Crow and Turner (in press).
Of all the analytical techniques that have �ourished since the widespread adoption and use of spatial technologies (for overview, see Wheatley,
Gillings 2002), predictive modelling has been the most heavily critiqued,
particularly from a European perspective. Ebert (2000), and more recently
Wheatley (2004), have outlined a number of criticisms of inductive or datadriven predictive modelling. These criticisms can be grouped as two main
points: 1) “prediction as explanation”; and 2) environmental determinism.
First is criticism of predictive modelling as explanation. However, predictive modelling does not aim to explain patterns, rather it aims simply to
279
S.J. Kay, R.E. Witcher
identify patterns. It is the task of the archaeologist to explain and interpret
those patterns, not the model. The second criticism is that predictive modelling is “anti-historical” because it «assumes [patterns are] wholly a product of
the immediate surroundings of the individuals and communities» (Wheatley
2004). This argument relates to the observation that most variables used within
predictive models are environmental (for example, slope, distance to water,
etc.) and that social and cultural considerations are excluded. As a result, the
approach is deemed to be “environmentally deterministic”: constraints of the
physical environment replace human agency. However, this wider argument
is built on a confusion of correlation with causation. In common with any
other statistical technique, it is inherent in predictive modelling that statistical
association does not imply a causative relationship between variables. This
returns to the �rst point: predictive modelling as descriptive not explanatory; it does not inherently exclude the agency of knowledgeable individuals
or societies to structure their lives. Indeed, Wheatley (2004) himself notes
that «this is not to deny that correlative predictive models may be telling us
something about the behaviour of people in the past». North American applications have produced relatively powerful models based on environmental
variables; it would be wrong to dismiss this predictive power on the grounds
of how the results are (mis)interpreted.
In general, these arguments betray a series of broader misplaced and
latent concerns. Firstly, that any attempt to involve environmental variables
in an archaeological study is “determinism” by another name. Secondly,
that quanti�cation and statistical analyses are reductionist and, thirdly that
“prediction” is antithetical to free agency. Brie�y, these may be rebutted with
the following responses: discussion of environment does not presuppose
determination (for much more subtle approaches, including environmental
affordance, see Ingold 2000); statistical analyses, if appropriately used,
become rigorous, repeatable investigations to support – not replace – interpretation; and, thirdly, as such studies merely describe, it is the responsibility
of the archaeologist, not the models, to ensure that individuals are granted
appropriate agency and that societies are given cultural autonomy. The best
solution is to place less emphasis on “prediction” per se, and to foreground
the approach as exploratory data analysis and pattern recognition, in other
words, a form of data modelling and characterisation.
In the context of the current research, some other speci�c criticisms
should also be addressed. Firstly, that predictive modelling is concerned only
with sites and has failed to take broader theoretical developments about offsite activity into account. Whilst this is certainly a valid criticism, in relation
to the present case study, the vast majority of data used here derive from
site-based survey conducted �fty years ago, long before such theoretical and
methodological developments. Whilst not ideal, it would be wrong to discard
280
Predictive modelling of Roman settlement in the middle Tiber valley
these data as inadequate; indeed, as emphasised above, many of these sites
no longer exist and thus these data form a unique documentary record which
cannot be re-collected. A related issue is criticism that the technique deals
only with a simple binary – site or no-site – and the possibility of more than
one site per unit of land is not addressed (in the current study, South Etruria
survey sites were recorded to the nearest 100 m, resulting in a spatial recording unit of 10000 m2 which could theoretically contain more than a single
site). Whilst recent high-intensity survey suggests that more than one site per
10000 m2 is de�nitely a possibility in this area (Di Giuseppe et al. 2002), the
precision of the original survey recording of 100 m precludes more detailed
consideration at a higher resolution.
A further criticism has noted that many applications lack suf�cient
archaeological data and as a result fail to differentiate between sites of different dates and types. For example, in his study of the island of Brač, Stančič
(2000) used 29 sites covering four centuries across 395 km². The present
application uses 288 villas dating to the �rst century AD to train the model
and then tests it against a reserve of a further 288 �rst century villas across
a total area of 1100 km².
A �nal issue concerns the anachronistic nature of much environmental
data used. It is important to include variables that are as chronologically
relevant as possible; hence in the present application, modern land use was
excluded from the �nal and most powerful model. However, such data should
not be dismissed entirely. Whilst they may not necessarily inform about
past settlement decisions, they may well shed light on recovery processes (in
particular, visibility, see Terrenato, Ammerman 1996). Indeed, predictive
modelling can be seen as an heuristic tool for exploring data and identifying
in�uencing factors (such as post-depositional or recovery bias) that present
signi�cant problems for �eld surveyors.
5. Methodology
As described above, the site data are stored in a relational database and
are linked, via SQL commands, with ESRI ArcView; the predictive models
are developed using the Arc-WofE extension (data have been continuously
migrated since the projects inception and are now analysed through ESRI
ArcGIS; future analysis will make use of ArcSDM3.1, Sawatzky et al. 2004).
The Weights of Evidence (WofE) methodology is part of a larger group of
multi-criteria decision-making techniques and is commonly used, for example,
for prospective mapping of mineral deposits. Goodchild (2007, 2008) provides an archaeological adaptation of multi-criteria decision-making which,
rather than predict site locations, seeks to model agricultural productivity
and population in the middle Tiber valley.
281
S.J. Kay, R.E. Witcher
The WofE model uses statistical associations between known sites called
training points (in this case, early imperial villas) and different map themes
(such as geology, aspect and slope) in order to calculate a set of weights. It
is therefore an inductive approach. These weights are then used to evaluate
every possible combination of the different map layers in order to produce a
single map (a unique conditions grid) showing probability of the presence of
a site. The variables which the model identi�es as important are considered
for any signi�cance in understanding ancient land use or perception of the
landscape (for an archaeological application of WofE, see Hansen n.d.; for
an alternative predictive methodology, also applied in the middle Tiber valley,
see Espa et al. 2006).
The study area comprises c. 1100 km2 in the middle Tiber valley, to the
immediate north of the city of Rome (Fig. 1). A Digital Elevation Model was
derived from contours and spot-heights from the Istituto Geogra�co Militare
1:25.000 map series. From this, maps of slope, aspect and topographical form
(ridge, peak, valley, etc.) were derived. Other themes include geology, modern
land use and rivers. Proximities to three “cultural” variables were also considered:
Roman consular roads, contemporary Roman towns and the city of Rome.
For each theme, its relative weight (or in�uence) on site location is calculated by the WofE extension, by taking into account the spatial extent of
each theme’s attributes (for example, categories of geology) and the number
of training sites present on each. Statistics evaluate the signi�cance of the
association between these sites and each theme and its individual attributes.
For example, for geology, there is a strong aversion to alluvial areas; for
topography there is strong preference for ridges and other convex topographical forms such as hilltops; an aversion to areas less than 100 m from
watercourses; and an aversion to slope greater than �fteen degrees. The individual attributes of different themes can be categorised into varying numbers
of classes (for example, four or eight classes of aspect) to assess the effects
of this generalization on statistical association; similarly, various �lters were
used to derive topographical features generalized to different spatial scales
(generally, see Wood 1996-2008). In each case, the classi�cation producing
the strongest association was used. Statistics were also calculated for themes
based on proximity or distance. As the size and number of classes affects the
output, these had to be carefully de�ned. Weights were graphed to identify
signi�cant cut off points. In the case of rivers, a simple binary theme of <100
m and >100 m to nearest watercourse was used; for proximity to roads, three
categories were used (<1 km, 1-3 km, >3 km); for proximity to towns, three
categories were used (<5 km, 5-10 km, >10 km); and for proximity to Rome,
four bands were used (<20 km, 20-30 km, 30-40 km, >40 km).
On the basis of these statistics, different combinations of themes were
used to generate unique combination grids, or probability surfaces (Kay,
282
Predictive modelling of Roman settlement in the middle Tiber valley
Witcher 2005, tav. 1). The model was developed as an exploratory process,
with various themes introduced and excluded from the model in order to
identify those combinations which were most predictive. The WofE extension
includes a number of tests to ensure that the statistical assumptions of the
model are not violated; in all the examples described here, these assumptions
were upheld.
6. Results
The best (i.e. most powerful) model achieved with the environmental
and cultural coverages listed above utilised just three environmental themes:
geology (ten classes), topography (six classes) and slope (three classes). Particularly high probability combinations were level to gently sloping ground
located on the tops of tufo ridges and spurs. The resulting probability surface
is illustrated in Fig. 2. Darker shades indicate higher probability (for example, the narrow, fertile ridges in areas A and B); lighter shades indicate lower
probability, most notably, the alluvial soils of the Tiber �oodplain show up
as pale areas.
The predictive model produced a highly complex and fragmented mosaic, in which areas of very low probability sit next to areas of high probability.
These results may suggest the very careful localised positioning of sites in
relation, particularly, to topographical form. The signi�cant in�uence of the
strongly dissected topography is re�ected in the thin, parallel strips of land
alternating between high and low probability.
Fig. 3 shows the cumulative percentage of background cells (i.e. random)
and site cells (i.e. the reserve villa sites) against the posterior probability value.
This demonstrates that both the random and the site groups comprise large
numbers of low probability cells and fewer of higher probability. However,
the slower accumulation of site cells indicates that a greater percentage of
sites occur on higher probability cells. Overall, the model has moderate predictive power, but clearly offers a better-than-chance method of predicting
site location. It effectively predicts c. 20% of villas in just c. 6% of the area,
weakening to c. 53% of villas in c. 26% of the area.
The environmental and cultural themes used in the model have possible signi�cance in terms of both past human behaviour (for example, site
location preference) and archaeological recovery (for example, visibility).
For example, people may have avoided building sites in valley bottoms due
to �ooding and on steep slopes due to erosion. However there are also postdepositional possibilities: alluvium may cover sites located in valley bottoms,
whilst the lack of cultivation on steep slopes (there is little use of terracing in
this area) means sites are less likely to be discovered if they did exist. It is, of
course, not straightforward to distinguish between past settlement location
283
S.J. Kay, R.E. Witcher
Fig. 2 – Predictive model for early imperial villas
in the middle Tiber valley. For location, see Fig. 1.
The river Tiber (in black) runs north-south. A =
Central Ager Faliscus; B = area west of Veii; C =
Ager Foronovanus.
Fig. 3 – Comparison of cumulative percentages of background and sites
cells against WofE posterior probability.
284
Predictive modelling of Roman settlement in the middle Tiber valley
decisions and post-depositional and recovery issues. Of the themes used in
the model, both cultural and environmental, it is clear that environmental
themes have more predictive power. However, this is not to argue that they
are more important in general than cultural factors, but that of the themes
selected here, they have a more important role to play in prediction of where
sites may be found today.
Land use and distance to Rome were employed in alternative models
and both found to have high predictive power. However, both were excluded
from further analysis as land use mapping refers to the modern landscape
and seemed highly likely to re�ect archaeological visibility (for example, pasture was low probability and vineyards high). Similarly, whilst it is possible
that villa density was higher closer to Rome, archaeological activity/survey
intensity has generally been much higher closer to the city. The current model
therefore concentrates on those themes most clearly free of post-depositional
and recovery problems. However, future work will attempt to use these and
other themes speci�cally to distinguish between site location, post-deposition
and recovery issues.
The model obviously predicts where sites might be found if the same
survey methodology were employed again. As such, the model replicates
existing biases (for example, surveyors may have concentrated their work
in areas of high visibility where they believe they will achieve better results).
Nonetheless, it still highlights potential unevenness in survey data. For example, the intensity of survey in the central Ager Faliscus (marked A on Fig.
2) and to the west of the city of Veii (B) is known to be particularly low. On
the basis of their environmental similarity with other areas, the model suggests the probability of �nding villas in these areas is high. However, these
existing biases can be addressed through the integration of new and more
systematic �eldwork into the model. Indeed, this addresses another of the
criticisms made by Wheatley (2004), that predictive models are self-ful�lling
prophesies as they reinforce existing biases – however, if modelling is treated
as an iterative process, with new results added in, models can be constantly
re�ned (Rua 2009). With the current model, it is noticeable that there is
some difference in probabilities between the two banks of the Tiber in the
top third of Fig. 2. Survey in both areas is relatively limited and the model is
therefore more strongly in�uenced by discoveries in the southern half of the
study area. However, the area on the west bank (B) in southern Etruria is of
a similar nature in terms of topography, geology, land use, etc. to the better
surveyed areas to its immediate south. In contrast, the area to the east of the
river (C) is relatively unlike other surveyed areas of the Sabina Tiberina on
the eastern bank of the Tiber. The addition to the model of results from recent
survey work in this area (Gabrielli et al. 2003; Verga 2007) may improve
con�dence in the strength of this patterning.
285
S.J. Kay, R.E. Witcher
Perhaps the most striking result is the similarity between early imperial
villa location and some modern settlement as revealed by visualising 1:10.000
Carta Tecnica Regionale maps over the probability model (Kay, Witcher
2005, tav. 2). The model, based on Roman villas, also distinguishes very precisely between nucleated medieval centres on the one hand (low probability),
and their suburbs and sprawling discontinuous developments of the last thirty
years on the other (high probability). Modern land use was explicitly excluded
from the analysis and there is unlikely to be any correlation as a result of the
preferential discovery of material during house construction, as the bulk of the
data used pre-date such suburban developments. This might suggest possible
similarities in the landscape perceptions, valuations or motivations in�uencing
the settlement location decisions of both Roman villas and modern suburban
settlement. Speci�cally, in contrast with Etruscan and Medieval settlement,
these are open sites with little need or desire to nucleate. Most notably, they
are on ridges. There are advantages to this, such as drainage and expansive
vistas, but also disadvantages such as exposure to wind and inaccessibility of
water. In the latter context, the widespread presence of Roman cisterns in this
area is interesting. But probably most important is the fact that roads tend
to follow the ridges. The tufo landscape across much of this area has created
narrow ridges, divided by steep valleys. The consular road, the Via Flaminia,
follows such a ridge and avoids the need to cross any river for more than
thirty kilometres north of the Milvian Bridge outside Rome (Fig. 1). However,
this is only the most impressive example of countless other ridge roads (that
is, non-consular roads) which were excluded from this preliminary model
because they are unevenly mapped and so may have skewed results.
Finally, the model of early imperial villa location was applied to samples of
sites from other periods. Prediction of Etruscan and mid-republican sites was as
ef�cient as the prediction of sites of imperial date on which the model was based.
Further work is required to interpret this situation, but two (not necessarily
mutually exclusive) explanations for this similarity in site location parameters
can be postulated. First, that settlement in all three periods is similarly located
(despite such signi�cant events as the construction of consular roads and the
economic pressures resulting from the emergence of the imperial metropolis of
Rome). Second, that these patterns are largely the product of post-deposition
and recovery, for example issues of visibility, which may effectively homogenise
differences between the settlement preferences in different periods.
Assessment of the unevenness of the data is vital if other aspects are to
be explored and developed. For example, work by Goodchild (2007, 2008;
also Goodchild, Witcher in press) on the agricultural production potential
in the middle Tiber valley explores issues such as subsistence regimes, population and carrying capacities of land units through the use of historical and
comparative evidence, as well as archaeological data. These issues can only
286
Predictive modelling of Roman settlement in the middle Tiber valley
be reliably addressed through assessment of the completeness or otherwise of
existing patterns. Predictive modelling is one method which may help improve
understanding of the character of archaeological datasets.
7. Conclusion
In summary, the predictive power of the �nal model does not compare
to that produced by some of the North American models. For example, Dalla
Bona’s (2000, 94) model of sites in northern Ontario located c. 84% of known
sites within areas of high archaeological potential which comprised just c.
16% of the area. However, some key differences between North American
and European models can be identi�ed. Firstly, most US models deal with very
few sites. It is possible that there was greater selectivity of prime landscape
locations, whereas in a full and intensively exploited landscape such as that
on the doorstep of imperial Rome, it would seem likely that choice was more
about compromise. Further, in comparing the results presented here with North
American models, it is apparent that in the hinterland of ancient Rome we are
dealing with a more complex agricultural and territorial empire capable of signi�cantly altering the environment and its potential to support large, sedentary
populations (for example, cisterns for irrigated agriculture or inter-regional
exchange). Pressures to supply the metropolis with agricultural goods and the
desire or political need to live near Rome may have meant that environmental
variables were increasingly less in�uential on settlement location over time.
Lower predictive power may be one reason for the lack of popularity
of such work in the Mediterranean, but a more probable explanation is the
very different developmental pressures and Cultural Resource Management
processes. In particular, there are few areas (in Italy at least) about which absolutely nothing at all is known archaeologically; further, the archaeological
record is densely-distributed; agricultural and developmental pressures are
great, and the extent of areas to be assessed is comparatively small and can
be subject to more intensive reconnaissance.
This study is a preliminary attempt to evaluate the possibilities of predictive modelling in the middle Tiber valley. In particular, it makes use of a
generic modelling package; whilst this provides a useful initial framework,
future work will seek to move away from a “blackbox” approach and seek to
increase control over the process. Nonetheless, the initial results suggest that
that predictive modelling is a useful heuristic tool to explore site location preferences and archaeological recovery issues in this part of the Mediterranean.
Acknowledgements
This study draws upon the results of the Tiber Valley Project, and in particular on research conducted by Leverhulme fellows, Helga Di Giuseppe and Robert Witcher; the project
287
S.J. Kay, R.E. Witcher
is directed by Helen Patterson of the British School at Rome. The authors would like to thank
all their project colleagues and the former Director of the British School, Andrew WallaceHadrill. The Tiber Valley Project draws together scholars and ceramic specialists from twelve
British universities and many Italian institutions whose work is gratefully recognised here.
Thanks also to Helen Goodchild who read and commented on an earlier draft. Any mistakes
or misinterpretations in the present article are the responsibility of the authors.
Stephen J. Kay
The British School at Rome
Robert E. Witcher
Department of Archaeology
Durham University
REFERENCES
Chapman H.P. 2006, Landscape Archaeology and GIS, Stroud, Tempus.
Coarelli F., Patterson H. (eds.) 2008, Mercator Placidissimus. The Tiber Valley in Antiquity.
New Research in the Upper and Middle River Valley, Quaderni di Eutopia 8, Roma,
Quasar.
Crow J., Turner S. in press, Unlocking historic landscapes in the Eastern Mediterranean using
historic landscape characterisation, «Antiquity».
Dalla Bona L. 2000, Protecting cultural resources through forest management planning
in Ontario using archaeological predictive modelling, in Wescott, Brandon 2000,
73-100.
Di Giuseppe H., Sansoni M., Williams J., Witcher R. 2002, The Sabinensis Ager revisited:
a �eld survey in the Sabina Tiberina, «Papers of the British School at Rome», 70, 99150.
Ebert J.I. 2000, The state of the art in “inductive” predictive modelling: seven big mistakes
(and lots of smaller ones), in Wescott, Brandon 2000, 129-134.
Espa G., Benedetti R., De Meo A., Ricci U., Espa S. 2006, GIS based models and estimation methods for the probability of archaeological site location, «Journal of Cultural
Heritage», 7, 3, 147-155.
Gabrielli R., Guidi A., Santoro P. 2003, Il progetto Galantina, in J.R. Brandt, X. Dupré
Raventós, G. Ghini (eds.), Lazio e Sabina 1, Roma, De Luca, 109-114.
Gaffney V., Stančič Z. 1991, GIS Approaches to Regional Analysis: A Case Study of the
Island of Hvar, Ljubljana, Znanstveni Institut Filozofske Fakultete.
García Sanjuán L., Wheatley D.W. (eds.) 2002, Mapping the Future of the Past. Managing
the Spatial Dimension of the European Archaeological Resource, Seville, Universidad
de Sevilla.
Goodchild H. 2007, Modelling Roman Agricultural Production in the Middle Tiber Valley,
Central Italy, University of Birmingham, Unpublished PhD thesis (http://etheses.bham.
ac.uk/175/).
Goodchild H. 2008, Modelling the productive potential of the middle Tiber valley, in
Coarelli, Patterson 2008, 769-796.
Goodchild H., Witcher R.E. in press, Modelling the agricultural landscapes of Republican
Italy, in J. Carlsen, E. Lo Cascio (eds.), Agricoltura e scambi nell’Italia tardo repubblicana, Bari-Roma, Edipuglia.
Hansen D.T. 2004, Describing GIS applications: Spatial statistics and weights of evidence extension in ArcView in the analysis of the archaeology sites in the landscape (http://www.
giscafe.com/technical_papers/Papers/paper054/, accessed 15/07/2004).
288
Predictive modelling of Roman settlement in the middle Tiber valley
Ingold T. 2000, The Perception of the Environment. Essays on Livelihood, Dwelling and
Skill, London-New York, Routledge.
Kamermans H. 2000, Land evaluation as predictive modelling: a deductive approach, in
Lock 2000, 124-146.
Kay S., Witcher R.E. 2005, The Tiber Valley Project. The role of GIS and databases in �eld
survey data integration and analysis, «Archeologia e Calcolatori», 16, 113-137.
Lock G. (ed.) 2000, Beyond the Map. Archaeology and Spatial Technologies, Amsterdam,
IOS Press.
Lock G. 2003, Using Computers in Archaeology: Towards Virtual Pasts, London,
Routledge.
Lock G., Stančič Z. (eds.) 1995, Archaeology and Geographical Information Systems: A
European Perspective, London, Taylor and Francis.
Mehrer M.W., Wescott C.L. (eds.) 2006, GIS and Archaeological Site Location Modeling,
London, Taylor and Francis.
Patterson H. (ed.) 2004, Bridging the Tiber. Approaches to Regional Archaeology in the
Middle Tiber Valley, Archaeological Monographs of The British School at Rome 13,
London, The British School at Rome.
Patterson H., Bousquet A., Di Giuseppe H., Felici F., Fontana S., Witcher R., Zampini
S. 2004a, Le produzioni ceramiche nella media Valle del Tevere tra l’età repubblicana
e tardo antica, «Rei Cretariae Romanae Fautores Acta», 38, 161-170.
Patterson H., Di Giuseppe H., Witcher R.E. 2004b, Three south Etrurian “crises”: �rst
results of the Tiber Valley Project, «Papers of the British School at Rome», 72, 1-36.
Patterson H., Di Giuseppe H., Witcher R.E. 2004c, Progetto Tiber Valley. La Sabina e le
due rive a confronto, in A. Guidi, S. Ponchia (eds.), Ricerche archeologiche in Italia
e in Siria, Padova, Sargon, 67-88.
Rua H. 2009, Geographic Information Systems in archaeological analysis: a predictive model
in the detection of rural Roman villae, «Journal of Archaeological Science», 36, 2,
224-235.
Sawatzky D.L., Raines G.L., Bonham-Carter G.F., Looney C.G. 2004, ArcSDM2: ArcMAP
extension for spatial data modelling using Weights of Evidence, logistic regression, fuzzy
logic and neural network analysis (http://www.ige.unicamp.br/sdm).
Stančič Z., Veljanovski T. 2000, Understanding Roman settlement patterns through multivariate statistics and predictive modelling, in Lock 2000, 147-156.
Terrenato N., Ammerman A.J. 1996, Visibility and site recovery in the Cecina Valley Survey,
Italy, «Journal of Field Archaeology», 23, 91-109.
van Hove D. 2004, Time and experience: taskscapes within GIS, «Internet Archaeology», 16
(http://intarch.ac.uk/journal/issue16/vanhove_index.html, accessed 06/09/ 2007).
van Leusen P.M. et al. 2002, Understanding digital archaeological landscapes, in P. Attema,
G.J. Burgers, E. van Joolen, M. van Leusen, B. Mater (eds.), New Developments in
Italian Landscape Archaeology, BAR International Series 1091, Oxford, Archaeopress,
125-152.
van Leusen M., Kamermans H. (eds.) 2005, Predictive Modelling for Archaeological Heritage Management: A Research Agenda, Nederlandse Archeologische Rapporten 29,
Amersfoot, National Service for Archaeological Heritage.
Verga F. 2007, Ager Foronovanus I, Forma Italiae, vol. 44, Firenze, Leo S. Olschki Editore.
Verhagen Ph. (ed.) 2007, Case Studies in Archaeological Predictive Modelling, Archaeological
Studies Leiden University 14, Amsterdam, Leiden University Press.
Wescott K.L., Brandon R.J. 2000, Practical Applications of GIS for Archaeologists: A Predictive Modelling Kit, London, Taylor and Francis.
Wheatley D. 2004, Making space for an archaeology of place, «Internet Archaeology», 15
(http://intarch.ac.uk/journal/issue15/wheatley_index.html, accessed 15/07/2004).
289
S.J. Kay, R.E. Witcher
Wheatley D., Gillings M. 2002, Spatial Technology and Archaeology, London, Taylor and
Francis.
Witcher R.E. in press, Missing persons? Models of Mediterranean regional survey and ancient
populations, in A. Bowman, A. Wilson (eds.), Settlement, Urbanisation and Population,
Oxford Studies in the Roman Economy 2, Oxford, Oxford University Press.
Witcher R.E., Kay S.J. 2008, The Tiber Valley Project: the database and Geographical Information System, in Coarelli, Patterson 2008, 417-423.
Wood J. 1996-2008, Landserf (http://www.landserf.org).
ABSTRACT
This paper discusses the results of an inductive predictive modelling experiment on
Roman settlement data from the middle Tiber valley, Italy. The study forms part of the British
School at Rome’s Tiber Valley Project, which since its inception in 1997 has been assessing
the changing landscapes of the Tiber Valley from protohistory through to the medieval period.
The aim of this present study is to broaden understanding of settlement patterns via predictive
modelling, and in particular to evaluate unevenness in �eld survey coverage, survey bias and
past settlement location preferences. The predictive modelling method chosen was an application of the statistical Weights of Evidence extension for ESRI ArcView. The results highlight
associations between Roman settlement and environmental themes that provide moderate
predictive potential and suggest that further experimentation might prove valuable.
290
Archeologia e Calcolatori
20, 2009, 291-307
ACTION GIS: UN MODELLO PREDITTIVO
DEL MOVIMENTO ANTROPICO IN UN PAESAGGIO ANTICO.
IL CASO DI STUDIO ARCHEOLOGICO DELLA VAL D’ALPONE (VR)
1. Premessa
In questi ultimi anni i GIS hanno trovato ampia applicazione in ambito
archeologico: per la loro capacità sia di simulare in digitale un paesaggio antico, attraverso l’applicazione di modelli predittivi e quantitativi che indagano
le possibili strategie di localizzazione di siti archeologici in un territorio, sia
di favorire lo sviluppo di ipotesi sulle dinamiche del comportamento e sui
meccanismi decisionali dell’uomo del passato.
La ACTION-based GIS, maturata all’incrocio fra il tecnicismo dei
Sistemi Geogra�ci Informativi e gli indirizzi più recenti dell’antropologia
nord-americana, sembra rappresentare una terra promessa: oltre ad offrire la
già acquisita e accattivante prospettiva da Realtà Virtuale con una simuland
anisotropica a quattro dimensioni (x,y,z, tempo) e ospitarvi vecchi e nuovi
strumenti (dai Poligoni di Thiessen ai nuovi tool delle “super�ci di costo” o
di “visibilità”), essa immette nella scena un attore sociale nuovo (e politico)
sempre più complesso, con capacità tipicamente umane, come soggetto centrale
dei cambiamenti sociali (De Guio 2000, 19). Gli attuali modelli spaziali digitali sono il prodotto evoluto di un lungo percorso metodologico e scienti�co
iniziato negli anni ’60, in corrispondenza della nascita della New Archaeology:
si documenta in questo momento un grande sforzo di rinnovamento indirizzato soprattutto verso le analisi quantitative e/o geometriche (Forte 2002,
95). I modelli possono essere de�niti come delle rappresentazioni idealizzate
di osservazioni e, in particolar modo quelli computazionali, capaci di ridurre
drasticamente il tempo di veri�ca che determinati condizionamenti/variabili
hanno sulle scelte dell’attore sociale. Oggi con il GIS è possibile crearne di
nuovi e più complessi nel tentativo di indagare, con sempre maggior profondità, la palinsestica grammatica spaziale di un paesaggio archeologico.
A Marcos Llobera, docente del corso di Archeologia del paesaggio
ed esperto in Sistemi Informativi Geogra�ci dell’Università di Washington,
dobbiamo, in un contributo molto recente (Llobera 2000), un riesame puntuale del concetto di movimento rispetto soprattutto alle nuove potenzialità
tecnologiche del GIS in questo ambito. Secondo Llobera il movimento deve
costituire una speci�ca routine dei Sistemi Informativi Geogra�ci per lo studio
delle dinamiche di spostamento in un paesaggio antico (Forte 2002, 110).
Sono le attività quotidiane, quindi anche il movimento da luogo a luogo per
reperire risorse o per soddisfare un bisogno, che portano alla formazione di
291
A. Casarotto, A. De Guio, F. Ferrarese
Fig. 1 – Posizionamento indicativo dell’area di indagine.
un paesaggio organizzato secondo i principi e le categorie culturali di una
società estinta, intendendo per paesaggio un tutto dinamico in perenne trasformazione, un contesto di luoghi “fatti” da preesistente naturale e costruito
antropico, creati e sperimentati attraverso il movimento stesso.
Monitorando l’andamento e la morfologia degli antichi sentieri è
possibile capire quale concezione l’uomo avesse dello spazio in cui stava e
ricostruire le mappe cognitive che spiegano quella particolare organizzazione,
amministrazione e gestione del territorio.
2. Introduzione
«Comprendere il paesaggio vuol dire decodi�carne
tracce di vita e segni che ne trascendono la mera
�sicità, trascinandolo in metaspazio tale per cui,
citando Louis Kahn, esso divenga “quel luogo
in cui il bambino, mentre cammina, può vedere
qualcosa che può fare da grande”»
Cocchiarella 2006, 35
Indagando il contesto speci�co della Val d’Alpone (Lessinia orientale
in provincia di Verona, Fig. 1) è stato creato, in ambiente GIS (Idrisi32 e
ArcGIS 9.0), un modello predittivo comportamentale in grado di dare una
probabilità di presenza di sentieri antichi, ottimali dal punto di vista dei costi
292
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Fig. 2 – Scena �nale del DTM a 5 m della Val d’Alpone con tinte altimetriche e
lumeggiamento, prodotto dall’unione di due DEM: uno derivato dall’unione di
sette TIN convertiti in formato raster dell’area d’indagine e uno, meno raf�nato,
ottenuto con un algoritmo più semplice (INTERCON) che comprende zone fuori
area d’indagine ma dentro il minimo raster rappresentabile.
topogra�ci, che collegano due siti archeologici della stesa fase o un sito con
particolari morfologie del paesaggio (dorsali, creste, fondovalle, �umi, pascoli,
etc.). Come presupposto fondamentale, è necessario connotare il soggetto
movente dal carattere ottimizzante attribuito al comportamento antropico,
che lo porta a seguire tendenzialmente la regola e la strategia della minima
spesa energetica per raggiungere qualsiasi tipo di target. In questo modo è
stato possibile inizialmente ridurre le variabili in gioco e considerare solo
293
A. Casarotto, A. De Guio, F. Ferrarese
quelle di tipo topogra�co per creare, con un metodo quantitativo, un modello
del movimento. Ovviamente qualsiasi simulazione computazionale è un’approssimazione dei processi che interessarono il mondo reale; gli algoritmi
usati e le variabili considerate nell’analisi determinano la natura dei risultati
(Scheneider, Robbins 2007).
Dopo la preelaborazione dei dati e la georeferenziazione di carte
tematiche dell’area d’indagine – carta dei sentieri CAI in scala 1:20.000;
carta topogra�ca IGM 1:25.000; carta CAI turistica per escursionisti in scala
1:25.000; Carta Archeologica del Veneto (Capuis et al. 1990) – è stato creato
un database digitale (FileMakerPro 8.5) che cataloga tutti i siti editi nella
Carta Archeologica del Veneto, implementato nel GIS e associato al tematismo
vettoriale, in formato punto, dei siti archeologici.
Per il calcolo dei costi topogra�ci del movimento è stato necessario
costruire il DTM della valle con risoluzione a 5 m ottenuto con un metodo di
interpolazione TIN constrained da isolinee con tunnel edge removal, parabolic
shape di Idrisi32. L’unico problema che si è riscontrato in tale ambiente è stata
la grande mole di dati da elaborare, insostenibile per il software Idrisi32 e
per le macchine a disposizione: per superare l’impasse è stata divisa l’area di
studio in 7 porzioni delle quali è stato calcolato il TIN, trasferito in formato
raster per avere il DTM e quindi uniti i 7 DTM. Questo �le �nale, unendo
porzioni dislocate in modo non sempre allineato, presenta anche una serie di
pixel senza quota, necessari per completare il raster stesso (un raster, essendo
formato da righe e colonne, è per forza di forma rettangolare o quadrata).
Pertanto, si è deciso di completare la scena realizzando un DTM con algoritmo
più semplice, in grado di gestire tutte le isolinee in un unico calcolo (modulo
INTERCON di Idrisi32). Questo DTM è stato utilizzato per assegnare un
valore di quota alle celle (pixel) fuori area d’indagine ma dentro il minimo
raster rappresentabile (Fig. 2).
Su queste basi di dati sono state condotte le analisi spaziali e comportamentali, per la ricostruzione virtuale del paesaggio antico e del movimento
antropico nella Val d’Alpone.
3. VARCOST e PATHWAY analysis
La dif�coltà del movimento in genere dipende da frizioni anisotropiche (come la pendenza) e da frizioni isotropiche (come l’uso del suolo e altri
elementi qualitativi del paesaggio reale). L’Anisotropic Cost è, in questo caso,
il costo necessario per affrontare la pendenza (slope). Il suo indice di valore
varierà e dipenderà dalla direzione con la quale si affronta la pendenza (aspect,
dà la direzione di massima pendenza).
L’Isotropic Cost qui considerato è il costo richiesto per attraversare,
in formato digitale, indici che esprimono l’uso del suolo (land use): terreni
294
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Fig. 3 – Sentiero calcolato dal GIS: ottimale dal punto di vista dei costi affrontati, congiunge due siti archeologici della stessa fase: il sito archeologico
del Monte Biron e il sito archeologico del Monte Madarosa.
adibiti a pascoli, boschi, prati, vegetazione in evoluzione etc. avranno ognuno
un proprio valore di costo. Il costo che è necessario per affrontare un’area
di particolare destinazione di uso del suolo sarà uguale in qualsiasi direzione
si decida di attraversarla. Tali informazioni sono state ottenute dalla carta
Corine Land Cover del Veneto. Questa carta è la rappresentazione dell’uso
del suolo attuale, ricavata da dati Landsat nel 1991 con una risoluzione
a 500 m; non avendo dati più raf�nati a disposizione, è stata considerata
un’approssimazione della situazione ambientale in antico.
Con il modulo VARCOST di Idrisi32 è possibile combinare i valori di
questi due tipi di costo isotropico e anisotropico e produrre una super�cie
295
A. Casarotto, A. De Guio, F. Ferrarese
Fig. 4 – Confronto fra sentieri che congiungono i siti archeologici dell’età del Ferro della Purga di
Bolca con il sito del Monte Soeio e delle Tre Punte di Prealta. Andamento del sentiero CAI confrontato
con gli andamenti di due sentieri calcolati dal GIS: uno ottimale dal punto di vista delle pendenze
affrontate, l’altro ottimale dal punto di vista delle pendenze affrontate coniugate però con il tipo di
super�cie attraversata. Base raster: VARCOST image del sito della Purga di Bolca.
di costo energetico costituita da indici numerici, associati ad ogni pixel, che
corrispondono al coef�ciente dell’energia antropica necessaria per affrontare
la pendenza, la distanza e il tipo di terreno in quel punto, con valori che progressivamente aumentano allontanandosi dai punti sorgente (siti archeologici).
È un modello, questo, che fa esplicito riferimento alla Site Catchment Analysis
sviluppata da Vita-Finzi e Higgs (1970) per l’analisi del “bacino di cattura”
296
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Fig. 5 – Confronto fra i sentieri che congiungono i siti archeologici dell’età del Ferro della Purga di
Bolca con il sito del Monte Soeio e delle Tre Punte di Prealta. Base raster: Corine Land use dell’area
d’indagine.
di risorse di un sito. Il principio è lo stesso, cambiano le variabili misurate.
Nel modello statistico predittivo di Vita-Finzi e Higgs la variabile calcolata
è la presenza di risorse che decade in modo monotono man mano che ci si
allontana dal sito; qui la variabile misurata è il costo energetico, il quale
aumenta in modo tendenzialmente monotono man mano che ci si allontana
dal sito perché aumentano le distanze e le pendenze affrontate. Inoltre, ugualmente alla Site Catchment Analysis, in presenza di un paesaggio anisotropico
(quindi come quello della nostra valle) a seconda della direzione intrapresa
si percorreranno distanze diverse a parità di costi e di tempo.
Successivamente caricando nell’operatore di distanza PATHWAY la
super�cie di costo prodotta e il target da raggiungere, è possibile calcolare
297
A. Casarotto, A. De Guio, F. Ferrarese
il percorso ottimale di minimo costo che collega un sito archeologico con
qualsiasi altro punto dell’area d’indagine (Fig. 3).
Si è scelto di calcolare e visualizzare due tipi di percorsi: quelli ottenuti
considerando solo l’anisotropic friction, cioè la pendenza e la direzione di
massima pendenza, e quelli ottenuti considerando oltre all’anisotropic friction anche l’isotropic friction dovuta all’uso del suolo. Oltre a questi virtual
pathways sono stati editati e monitorati anche i sentieri CAI (Club Alpino
Italiano) che interessano la Val d’Alpone, soprattutto quelli che corrono sulle
dorsali est e ovest. La maggior parte dei siti archeologici dell’età del Bronzo e
dell’età del Ferro si colloca in cresta (probabilmente per un fattore difensivo e
di controllo sul territorio) e i sentieri CAI, essendo su dorsale, li intercettano e
li collegano. Per tal motivo si pensa che in corrispondenza o in prossimità di
questi corressero un tempo i sentieri antichi che collegavano i siti archeologici
della stessa fase. Dopo aver prodotto una folta rete sentieristica virtuale
sono stati messi a confronto i vari pro�li altimetrici dei sentieri. Particolare
è il confronto, indicato sia in Fig. 4 che in Fig. 5, di tre tipi di sentieri che
congiungono i siti archeologici dell’età del Ferro della Purga di Bolca con il
sito del Monte Soeio e delle Tre Punte di Prealta: un tratto del sentiero CAI
n. 19, il sentiero calcolato dal GIS ottimale dal punto di vista delle pendenze
affrontate e il sentiero calcolato dal GIS ottimale dal punto di vista delle pendenze affrontate coniugate però con il tipo di super�cie attraversata. È stato
altamente confortante notare come quest’ultimo sentiero potenziale molto
spesso coincida o si avvicini al sentiero CAI attuale.
4. Applicazione della funzione dell’energia metabolica spesa
durante il cammino
Secondo quanto proposto da M. Llobera (2000) e da A. Minetti
(2002), si è tentato di applicare la funzione dei costi topogra�ci ai pro�li
altimetrici dei sentieri visualizzati dal GIS.
Il gra�co in Fig. 6 rappresenta il costo topogra�co misurato nel rapporto fra energia e pendenza: all’incremento della pendenza corrisponde un
aumento dell’energia spesa (la pendenza è calcolata in gradi). Esso mostra
che l’optimum gradient per camminare alla minima spesa energetica non è 0
ma -10% (≈ -5,71°) quindi in leggera discesa. I valori da +30° a +49° sono
derivati da un individuo che sale una scala mobile.
È stata ricostruita la funzione matematica che sottende a tale gra�co,
leggendo i valori dei punti di cambiamento di pendenza della sua curva: in
ambiente Excel (Visual Basic Eitor) si è creata una funzione che fornisce l’indice di energia in funzione dell’angolo affrontato. Moltiplicando tale indice
per la distanza percorsa con quell’angolo di pendenza, si ha l’ammontare di
energia spesa per tutto il tragitto in questione.
298
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Fig. 6 – Costo topogra�co misurato nel rapporto fra energia e pendenza: all’incremento della
pendenza corrisponde un aumento dell’energia spesa (la pendenza è calcolata in gradi). L’optimum
gradient per camminare alla minima spesa energetica non è 0 ma -10% (≈ -5,71°) quindi in leggera
discesa (Llobera 2000, 71).
Fig. 7 – Energia metabolica necessaria per percorrere i sentieri di Fig. 4: il sentiero che considera
anche l’uso del suolo è più conveniente energeticamente rispetto al sentiero che considera solo la
pendenza e, a parità di distanza planimetrica, più conveniente anche del sentiero CAI, per la cui
percorrenza occorre una quantità maggiore di energia, perché più lungo rispetto agli altri.
299
A. Casarotto, A. De Guio, F. Ferrarese
È possibile così produrre dei gra�ci degli andamenti dell’energia metabolica necessaria per sostenere il cammino lungo vari pro�li altimetrici,
sapendo che non basta la friction anisotropica della pendenza per determinare
l’andamento del percorso ottimale per muoversi da un sito ad un altro.
Il GIS, infatti, interpreta come “ottimale” la combinazione tra distanza
ed energia spesa senza essere in grado di discriminare la salita e la discesa,
cioè il verso della percorrenza. Dal gra�co di M. Llobera (Fig. 6), infatti, è
possibile osservare come la pendenza ottimale, in cui il costo energetico è
minimo, si aggiri intorno al -10% (= -5,71°) e come a pendenze via via inferiori (quindi lungo tratti in discesa sempre più ripidi) l’energia aumenti in
modo continuo.
Grazie alla funzione riportata in Fig. 6, infatti, è possibile convalidare
sentieri virtuali per testare la loro attendibilità topogra�ca: si è potuto effettivamente osservare come il percorso calcolato dal GIS, che considera oltre alla
frizione di slope anche la frizione di land use, sia conveniente energeticamente
rispetto a quello che considera solo la frizione anisotropica della pendenza
(Fig. 7). Tale funzione potrà essere utilizzata per calcolare l’energia metabolica
necessaria a sostenere il cammino in qualsiasi tipo di sentiero e strada antica e
in qualsiasi contesto ambientale per studiare ancora più a fondo le dinamiche
del movimento antropico in un paesaggio antico.
5. Limiti dello strumento GIS per questo tipo di analisi
Ad in�uenzare le scelte dell’attore sociale, oltre ai fattori statistici e
quantitativi con esiti facilmente predicibili sul piano comportamentale, intervengono altri tipi di condizionamenti dif�cili da tradurre numericamente.
Se infatti il calcolo dei costi topogra�ci è di fatto un’elaborazione geometrica, meno prevedibile è l’impatto percettivo (visivo, uditivo, olfattivo e
tattile) che alcune caratteristiche dei luoghi possono aver avuto sul soggetto
movente. Se si immaginasse un paesaggio totalmente neutro e naturale gli
indici del movimento dipenderebbero solo dai valori altimetrici del modello
digitale del terreno, cioè dalla morfologia dell’area indagata. L’uomo però
segue tendenzialmente la meta-regola comportamentale della minima spesa
energetica e si lascia condizionare dalla sua capacità negoziabile di produrre
eventi soggettivi: ad in�uenzare le scelte di locomozione possono intervenire
la presenza nel paesaggio di particolari strutture come fossati, terrapieni,
necropoli, torrenti, aree ad elevata concentrazione di risorse che deviano il
percorso atteso del movimento.
Lo stesso Llobera attribuisce enfasi a tutti i fattori �sici, mentali, antropologici, sociali e comportamentali che possono caratterizzare e in�uenzare
le scelte individuali e collettive del movimento umano in un ecosistema e nel
corso del tempo, affermando che i costi possono avere una duplice origine: il
300
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
costo dovuto alla topogra�a (Topographic Cost) e il costo dovuto alla presenza
di determinate caratteristiche del paesaggio (costo qualitativo del paesaggio
o Landscape Feature Cost). Il limite del GIS sta proprio in questo: in quanto
macchina è in grado di operare soltanto su valori quantitativi e numerici: è
dif�cile trasformare in quantità qualcosa che in realtà è qualità, rendere oggettivo ciò che è soggettivo. In questo senso si sta cercando di rendere il GIS
un Mind-GIS più adatto per ricostruire la percezione del paesaggio non solo
nella sua �sicità ma anche nella sua qualità: l’obbiettivo ultimo di un’analisi
archeologica e spaziale infatti deve essere la ricostruzione di una realtà virtuale
che sia simulazione della mappa mentale e cognitiva antica.
6. Viewshed Analysis
Per Viewshed Analysis si intende l’analisi della visibilità, cioè dell’estensione del campo visivo umano a partire da un punto di osservazione.
È un’analisi fondamentale per lo studio di un paesaggio archeologico e per la
sua possibile ricostruzione percettiva. È possibile infatti determinare che cosa
e quanto si poteva osservare da un determinato punto scorgendo l’orizzonte.
Quanto può rientrare in un campo visuale, sia partendo da un’area sommitale
sia da una regione piana, corrisponde alla simulazione di un paesaggio antico. Dal punto di vista informatico una tipica viewshed corrisponde ad una
griglia in cui ogni cella ha un valore di visibilità, rappresentante il numero di
punti di osservazione dai quali si può rilevare l’orizzonte prescelto. In senso
strettamente tecnico e basilare, l’analisi di visibilità si applica su un DEM o
DTM, un modello di elevazione del terreno, calcolando, in base all’altimetria
del punto di osservazione e dell’area osservata, quali regioni rientrano nel
campo visuale (Forte 2002, 100-101).
Anche nel caso di studio della Val d’Alpone, è stata avviata una “GIS
Analysis” in Idrisi32 usando il modulo VIEWSHED. È stata selezionata l’immagine raster del DTM come orizzonte visivo e come punto d’osservazione
uno o più siti archeologici. Abbiamo impostato a 1,50 m l’altezza ipotetica
dell’osservatore e a 8000 m il raggio visivo. Il GIS ha calcolato così il campo
visivo del singolo sito assegnando ai vari pixel del DEM valori booleani di “0”
(ai pixel invisibili da quel sito), “1” (ai pixel visibili da quel sito) e “2” (alla
location, cioè al punto da dove parte lo sguardo dell’osservatore). Mentre per
il calcolo del bacino visivo di più siti archeologici di una stessa fase il GIS ha
dato a ciascun pixel dell’immagine raster valori proporzionali che indicano
da quanti punti di osservazione (siti archeologici) quel pixel è visibile.
Possiamo così intuire il “bacino di controllo” di ogni sito e vedere quali
di essi hanno la magnitudo maggiore per ipotizzare una loro localizzazione
territorialmente strategica. Procedendo in questo modo, però, consideriamo
solo un punto di quel sito, o meglio, consideriamo quel sito come un punto
301
A. Casarotto, A. De Guio, F. Ferrarese
Fig. 8 – Bacino visivo di tutti i siti archeologici dell’età del Bronzo (intesi come
cerchi di 200 m di raggio) calcolato dal GIS: risulta molto controllato il versante
est della valle e il fondovalle, questo perché la maggior parte dei siti si colloca
sul versante ovest.
(5x5 m). Occorre infatti tracciare un poligono o un cerchio di pertinenza del
sito (si è scelto un’area buffer di 200 m di raggio) e considerare tutti i punti
che formano la sua area. Stabilito il raggio visivo, sarà possibile calcolare e
visualizzare la view catchment area (il bacino visivo) di quel sito.
La stessa metodologia è stata usata per calcolare il bacino visivo di tutti
i siti dell’età del Bronzo, considerando ora i siti non più come punti ma come
cerchi di 125.600 m2. Risulta così un controllo visivo maggiore del versante est
della valle, soprattutto perché la maggior parte dei siti archeologici noti dell’età
del Bronzo è localizzata sulla dorsale ovest della Val d’Alpone (Fig. 8).
302
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Fig. 9 – Immagine raster prodotta con l’algoritmo OVERLAY che sottrae
due immagine di viewshed: quella della viewshed di 13 siti del Bronzo (punti
gialli) posizionati sul versante ovest della valle e quella della viewshed di
13 siti random (punti verdi) posizionati sul versante ovest della valle presi
all’interno dell’area del bacino idrogra�co dell’Alpone.
Si può inoltre cercare di avvalorare l’ipotesi di un posizionamento strategico, per il controllo del territorio, di alcuni siti archeologici. Occorrerebbe
calcolare il bacino di visibilità di alcuni punti campione scelti con modalità
random (casualmente: per evitare vizio campionario) nello spazio d’indagine.
Se l’intensità del loro campo visivo è minore dell’intensità del campo visivo
dei nostri siti, si può confermare l’idea di partenza, cioè che la localizzazione
dei siti archeologici è strategica. Si tratta di un metodo statistico che analizza
gli esiti attoriali, scegliendo a suo rischio e pericolo le variabili in gioco, senza
pretesa di “mettersi nella testa dell’antico” (modo empatetico cognitivo). Si è
303
A. Casarotto, A. De Guio, F. Ferrarese
così scelto di fare l’analisi della visibilità di 13 siti dell’età del Bronzo che si
trovano sul versante ovest e di 13 siti random anch’essi posizionati sul versante ovest e all’interno dell’area del bacino idrogra�co dell’Alpone (Fig. 9).
Il risultato ha confermato l’idea di partenza: i siti archeologici noti hanno un
controllo visivo sul territorio maggiore (controllano 5484 ettari) rispetto ai
siti campione scelti casualmente (controllano 1594 ettari).
7. Conclusioni
Questo progetto GIS si è dimostrato utile soprattutto per la metodologia
d’indagine adottata, oltre ad aver prodotto risultati molto confortanti. I tipi
di dati a nostra disposizione risultano ancora troppo incompleti per avanzare
risposte oggettive ad ipotesi iniziali. Occorrerà incrementare le informazioni
e raf�nare le variabili in gioco per dimostrare gli assunti di partenza. Per
esempio, in futuri sviluppi, si dovrà cercare di rendere più complessa e più
articolata la carta dell’uso del suolo (nel nostro caso di studio abbiamo usato
solo i valori che indicano la presenza o l’assenza del bosco), introducendo
altri dati riferibili al paleoambiente e al paesaggio antico. Inoltre occorrerà
aggiungere altre variabili che indipendentemente dai costi topogra�ci possono condizionare il movimento, come la presenza di elementi apotropaici e di
features qualitative del paesaggio.
Quello che però è altamente confortante è l’aver osservato in ambiente
ArcGIS, tramite il confronto con le carte CAI georeferenziate, come i sentieri
calcolati dal GIS (soprattutto quelli che considerano la friction isotropica
dell’uso del suolo) molto spesso ripercorrano o si avvicinino a tratti di mulattiere, di strade, di carrarecce o di sentieri CAI effettivamente esistenti. Per
esempio, sono stati monitorati due sentieri prodotti dal GIS che tengono in
considerazione oltre alla pendenza anche la friction isotropica dell’uso del
suolo (Fig. 10):
1) Il sentiero che congiunge il sito archeologico dell’età del Ferro delle Tre
Punte di Prealta con il sito archeologico dell’età del Ferro della Purga di Bolca
lungo 12.835 m: per i primi 4541 m coincide o si avvicina al sentiero CAI n.
20; per i successivi 1441 m si avvicina e spesso coincide con il sentiero (giallo)
segnalato dal CAI; per i successivi 1327 m si avvicina ad una mulattiera (gialla)
segnalata dal CAI e inoltre si avvicina al sentiero CAI n. 19; per i successivi
371 m coincide con il sentiero CAI n. 19; per i successivi 695 m si discosta dal
sentiero CAI n. 19 di circa 300 m e ripercorre una mulattiera (gialla) segnalata
dal CAI; per 2070 m ripercorre pari pari il sentiero CAI n. 19; per gli ultimi
1100 m si discosta dal sentiero CAI n. 19 di soli 250 m circa.
2) Il sentiero che congiunge il sito archeologico dell’età del Ferro della Purga
di Bolca con il fondovalle lungo 18.276 m: per i primi 737 m si avvicina al
sentiero CAI n. 21, seguendolo parallelamente a 200 m circa; per i successivi
304
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Fig. 10 – I sentieri calcolati dal GIS molto spesso, nel loro andamento, coincidono con quelli
del CAI, con mulattiere o strade.
305
A. Casarotto, A. De Guio, F. Ferrarese
1096 m si avvicina o coincide con il sentiero CAI n. 21; per i successivi 2496 m
abbandona il sentiero CAI n. 21 e ripercorre una strada asfaltata importante;
per i successivi 1297 m si discosta di circa 200 m dalla strada e resta ancora
parallelo; per i successivi 3484 m coincide con la strada asfaltata importante
già incrociata prima; per i successivi 473 m si discosta dalla strada; per i
rimanenti metri coincide con la strada provinciale.
È stato prodotto quindi un modello predittivo ripetibile in altri contesti
ambientali e, nella Val d’Alpone, si è potuta dare una probabilità di presenza
di sentieri, che andrà veri�cata a terra, per vedere se esiste una coincidenza
o meno con sentieri reali moderni o antichi. Inoltre, dopo aver applicato la
funzione dell’energia metabolica del gra�co dei costi topogra�ci proposto
dall’antropologo M. Llobera, si è potuto convalidare maggiormente l’attendibilità dei pro�li topogra�ci ottenuti con il GIS, vista la loro convenienza
energetica per il movimento antropico. Si è così potuto provare come lo
strumento GIS, oltre ad essere indispensabile per l’archiviazione e l’elaborazione del dato, è utilissimo per lo sviluppo della ricerca stessa. Ad oggi,
infatti, per un eventuale progetto di investigazione archeologica su scala
territoriale della valle, potrà essere sfruttata la strategia operativa che qui
viene proposta, utile perché offre all’archeologo un particolare orizzonte
d’attesa: egli saprebbe, cioè, orientarsi su dove veri�care la presenza o meno
di sentieri e strade antiche, riducendo così drasticamente i tempi, i costi e
l’invasività della ricerca.
Anita Casarotto, Armando De Guio
Dipartimento di Archeologia
Università degli Studi di Padova
Francesco Ferrarese
Dipartimento di Geogra�a “G. Morandini”
Università degli Studi di Padova
BIBLIOGRAFIA
Capuis L., Leonardi G., Pesavento Mattioli S., Rosada G. (eds.) 1990, Carta archeologica
del Veneto, Vol. II, Foglio 49, Modena, Franco Cosimo Panini, 96-99; 117-152.
Cocchiarella L. 2006, Paesaggio: sguardo, forma, immagine, in Cocchiarella et al. 2006,
25-40.
Cocchiarella L., Giordano A., Zanchetta C. (eds.) 2006, Frames: frammenti di architettura
e paesaggio, Padova, Cortina.
De Guio A. 1996, Archeologia della complessità e pattern recognition di super�cie, in E. Maragno (ed.), La ricerca archeologica di super�cie in area padana. Atti del Workshop
(Villadose 1994), Villadose (RO), Linea ags Edizioni, 275-313.
De Guio A. 2000, Power to the people? “Paesaggi di potere” di �ne millennio…, in G. Camassa, A. De Guio, F. Veronese (eds.), Paesaggi di potere, problemi e prospettive. Atti
del seminario (Udine 1996), Roma, Quasar, 3-29.
306
ACTION GIS: un modello predittivo del movimento antropico in un paesaggio antico
Ferrarese F. 2008, I modelli digitali del terreno, Corso di geomatica, Università di Padova,
a.a. 2008/09 (presentazione in pdf).
Forte M. 2002, I Sistemi Informativi Geogra�ci in archeologia, Roma, Mondo GIS.
Gibson E. 2007, Archaeology of movement and interaction in a Mediterranean landscape,
«Journal of Mediterranean Archaeology», 20, 1, 61-87.
Llobera M. 2000, Understanding movement: a pilot model towards the sociology of movement,
in G. Lock (ed.), Beyond the Map. Archaeology and Spatial Technologies, Amsterdam,
IOS Press, 65-84.
Llobera M., Sluckin T. 2007, Zigzagging: theoretical insights on climbing strategies, «Journal
of Theoretical Biology», 249, 206-217.
Lock G., Stančič Z. 1995, Archaeology and Geographical Information Systems, London,
Taylor & Francis.
Minetti A., Moia C., Roi G., Susta D., Ferretti G. 2002, Energy cost of walking and
running at extreme uphill and downhill slopes, «Journal of Applied Physiology», 93,
1039-1046.
Scheneider K., Robbins P. (eds.) 2007, GIS and Mountain Environments, Explorations in
Geographic Information Systems Technology 5, Clark University, Worcester, Unitar
(CD-Rom).
Vita-Finzi C., Higgs E.S.C. 1970, Prehistoric economy in the Mount Carmel area of Palestine:
Site Catchment Analysis, «Proceedings of the Prehistoric Society», 36, 1-37.
ABSTRACT
This paper proposes a predictive theoretical model of ancient human movement in the
Alpone Valley (VR). The aim of this study is to calculate, using GIS tools, the optimal pathways
to move from an archaeological site to another considering a series of frictions, like topography
or land use, that can affect movement. The reliability of these virtual ancient paths is tested
using a mathematical function of metabolic energy created in Visual Basic editor: it facilitates
the choice of the best frictions for the model to simulate the archaeological landscape and
its possible human perception. The results are compared to verify if there is any correlation
between present and past pathways using topographic maps. This GIS methodology is useful
for an archaeological survey because it gives a preliminary presence probability of ancient
paths in a landscape.
307
Archeologia e Calcolatori
20, 2009, 309-329
UN MODELLO GIS MULTICRITERIO PER LA COSTRUZIONE
DI MAPPE DI PLAUSIBILITÀ PER LA LOCALIZZAZIONE
DI SITI ARCHEOLOGICI: IL CASO DELLA COSTA TERAMANA
1. Introduzione
Il presente lavoro ha lo scopo di fornire un quadro delle dinamiche
insediative relative ai siti forti�cati nella provincia teramana, in Abruzzo, con particolare attenzione alla fascia costiera, compresa fra i �umi Tronto e Vomano.
Dopo una ricognizione dei siti ancora esistenti, sono state considerate
le zone con siti di dubbia localizzazione, ovvero le aree che allo stato attuale
non presentano emergenze archeologiche, ma delle quali si trovano indicazioni nelle fonti storiche. Tali informazioni documentali, però, non consentono
una esatta localizzazione dei siti, mentre per ognuno di essi è possibile solo
individuare uno spazio, più o meno circoscritto, all’interno del quale si può
ipotizzare, con una data plausibilità, la presenza di elementi difensivi. Tale
plausibilità decresce mano a mano che ci si allontana dalla zona citata nelle
fonti, ma non è possibile ricavare dai documenti storici altre informazioni
che consentano una maggiore precisione nella localizzazione.
Attraverso alcune variabili legate al territorio e alle caratteristiche
insediative dei siti esistenti, si possono identi�care, all’interno di un dato raggio
di distanza dai punti indagati, delle porzioni molto piccole di territorio con
livelli di maggiore o minore plausibilità di presenza dei siti incerti. Le variabili
considerate riguardano sia aspetti geo-morfologici, come la distanza dai siti
noti, dai �umi e dal mare, che la intervisibilità, ovvero la caratteristica precipua di tali insediamenti che sfruttavano posizioni sopraelevate o comunque
con maggiori possibilità di controllo visivo del territorio.
La tecnologia GIS consente di tradurre in variabili quantitative tutti questi
elementi e di gestire la loro distribuzione territoriale. L’utilizzo di modelli di
dati speci�ci (raster), assieme ad apposite tecniche di somma pesata di variabili (combinazione lineare pesata), permette la costruzione di una mappa di
plausibilità. All’interno di ciascuna area citata nelle fonti storiche si ottiene una
distribuzione di valori che rappresentano la diversa possibilità di presenza degli
elementi non più evidenti. Di particolare utilità è risultato anche l’utilizzo di un
sistema di ponderazione delle variabili generato da esperti, basato sulla tecnica
della comparazione a coppie (Pairwise Comparison), che rientra nell’ambito
delle tecniche decisionali multicriterio (Multicriteria Decision Analysis).
In questo lavoro, in cui è stato utilizzato il modulo ArcMap di ArcGIS
9.2, parleremo di “siti noti” in riferimento alle torri e alle forti�cazioni che
sono ad oggi ancora esistenti, o comunque che presentano delle evidenze
309
S. Di Zio, D. Bernabei
strutturali, mentre indicheremo come “siti incerti” gli insediamenti per i quali
non si hanno tracce ma che sono riportati nei documenti storici e per i quali
si vogliono costruire le mappe di plausibilità.
2. Inquadramento territoriale e dinamiche insediative
2.1 Caratteri �sici della costa teramana
Limiti naturali della zona presa in esame sono i �umi Tronto e Vomano,
rispettivamente con�ne settentrionale e meridionale, il complesso del Gran
Sasso e Monti della Laga, che ne costituisce il limite occidentale e il Mare
Adriatico, estremo limite orientale. Il quadro ambientale del versante medioadriatico è caratterizzato da un’alternanza di �le quasi parallele di rilievi
montuosi e collinari, i cui livelli altimetrici digradano verso il mare, e di valli
�uviali, che si allargano in prossimità della costa. Dunque, ad un’orogra�a
caratterizzata in senso longitudinale va a sovrapporsi una rete idrogra�ca con
corsi d’acqua trasversali ai rilievi, che dalla catena appenninica scendono al
mare con uno schema solitamente de�nito “a pettine”. I maggiori corsi d’acqua nella fascia costiera teramana, procedendo da nord verso sud, sono: il
Tronto, che per molti secoli ha segnato il con�ne con le Marche, il Vibrata e il
Salinello (secondo alcuni separatisi in epoca storica), il Tordino e il Vomano,
estremo limite meridionale della provincia.
2.2 Inquadramento territoriale e toponomastica antica
L’attuale provincia teramana costituiva in antico la parte meridionale
della Regio V o Picenum unitamente alle Marche (Fig. 1). Questa denominazione deriva dalla ben nota riorganizzazione territoriale augustea, con cui
vennero stretti saldamente i rapporti tra le Marche e la provincia teramana,
in considerazione delle antiche af�nità che univano Piceni e Pretuzi. L’idrogra�a della zona è stata oggetto di numerosi studi (Buonocore, Firpo 1998)
e se per alcuni idronimi l’identi�cazione è stata semplice, per altri c’è ancora disaccordo. Nel noto passo pliniano relativo al territorio piceno i nomi
Vomanum, Truentum, Albula e Tessuinum non offrono dif�coltà, in quanto
identi�cabili con gli omonimi odierni Vomano, Tronto, Albula e Tesino (gli
ultimi due a nord del Tronto).
Tra Truentum (attuale Martinsicuro) e Castrum Novum (attuale Giulianova) scorrono oggi i �umi Salinello e Vibrata. Qui i pareri si dividono: alcuni
studiosi sostengono l’identi�cazione dei due �umi (separatisi solo recentemente)
col Batinus antico (Alfieri 1949), altri ritengono che l’idronimo Batinus sia
da riferire all’attuale �ume Tordino (Cerulli 1968). Fra Castrum Novum e
Hadria (attuale Atri) scorrono il Tordino e il Vomano; ora, se del Tordino non
si conosce de�nitivamente l’idronimo antico, l’identi�cazione del Vomano apre
310
Un modello GIS multicriterio
Area del
teramano
costiero
Regione Abruzzo
Fig. 1 – Area di indagine: il teramano costiero.
Fig. 1 – Area di indagine: il teramano costiero.
il campo ad ulteriori discussioni. Un’ipotesi riconosce nel �ume attuale l’antico
Matrinus sulla base di ritrovamenti archeologici avvenuti alla foce del Vomano; secondo altri il �ume risulterebbe essere l’antico Comara, descritto nella
Tabula Peutingeriana, ipotesi resa possibile dalla varietà delle denominazioni
simili assunte in periodi successivi dal Vomano (Alfieri 1949).
2.3 Dinamiche insediative dei presidi militari
Nell’ambito di questo studio, ai �ni della de�nizione del modello GIS,
concentriamo l’analisi sulle dinamiche insediative dei siti forti�cati, rintracciati
attraverso la lettura delle fonti storiche1.
Sono stati individuati e indagati diversi siti, con attestazioni a volte risalenti all’Alto Medioevo. La caratteristica orogra�a a pettine della provincia
teramana è stata la causa principale del sistema difensivo abruzzese. Gli impianti
difensivi cambiano a seconda della loro ubicazione ma, sempli�cando, possiamo
dire che risentono di due fattori principali: l’orogra�a e l’idrogra�a (Rongai
1985). Un sistema di castellazione vera e propria si trova nella zona montuosa,
la cui struttura edilizia risulta differenziata dall’importanza del centro, dall’asperità del terreno e dalla visibilità del territorio circostante. Scendendo sulle
1
Nel quadro delle fonti utilizzate, fondamentale per lo studio della zona è risultato il Catalogus Baronum (Jamison 1972; Cuozzo 1984), una sorta di catasto feudale in cui sono indicate
le terre assegnate e i relativi servizi feudali, compilato fra la �ne del regno di Ruggero II e l’inizio
del regno di Guglielmo II, poi trascritto nel XIV secolo nel Registro Angioino n. 242. È costituito
da tre parti, delle quali la prima (databile fra il 1150 e il 1168) riguarda la spedizione organizzata
per contrastare le minacce al Regno di Sicilia dopo l’alleanza fra Corrado III di Germania e l’imperatore bizantino Alessio Comneno, mentre le altre due la zona della Capitanata (scritte fra il 1175
e il 1240).
Fig. 2 – Siti noti e fiumi del
teramano costiero.
Fig. 3 – Aree relative ai siti
incerti.
311
S. Di Zio, D. Bernabei
dorsali collinari, la tipologia difensiva predilige riquali�care i piccoli e medi
centri, circondandoli di mura e, a volte, dotandoli di torri d’avvistamento, nel
periodo in cui più forte si fa il pericolo di minacce esterne. In�ne, troviamo una
nutrita schiera di torri costiere ubicate in luoghi strategicamente favorevoli per
il controllo diretto del mare, degli sbocchi �uviali e dei centri dell’entroterra.
L’uso delle torri lungo la costa, attestato sin dall’antichità (Staffa 2002),
rimane durante tutto il periodo medievale caratterizzato dalle periodiche
migrazioni dei popoli germanici, dalle incursioni saracene e dalle continue
lotte per l’acquisizione del potere da parte delle dominazioni successive.
Un’importante opera di riquali�cazione delle strutture costiere fu operata da
Svevi e Angioini, a partire dal XV secolo, che ristrutturarono e ricostruirono
ex novo torri a difesa delle loro coste (Rongai 1985), dall’architettura facilmente riconoscibile. Le torri sono costruite a forma di tronco di piramide ad
un solo piano, con zona superiore chiusa da merlatura con caditoie sorrette
da beccatelli, funzionante da piazzola per i mezzi d’artiglieria. Seppure molte
delle torri costiere si presentino come costruzioni degli ultimi secoli del periodo medievale, non è azzardato ipotizzare che molte delle stesse insistano
su strutture preesistenti, continuandone la funzione difensiva. Va sottolineato
che queste torri erano il punto focale del territorio circostante, che, attraverso
i borghi murati e turriti, era impegnato a fornire rifornimenti e uomini ai
presidi militari in considerazione del numero della popolazione.
3. Raccolta dati e costruzione del database GIS
Un modello di dati GIS si basa essenzialmente sull’integrazione di due
tipi di informazioni: le informazioni geogra�che e le informazioni descrittive,
cioè attributo. Le prime sono legate alla localizzazione geogra�ca degli oggetti
del territorio, che si esprime attraverso la misura della latitudine e longitudine
dell’elemento considerato. Le informazioni alfanumeriche, invece, prescindono dal posizionamento sulla super�cie terrestre e dalla localizzazione di altri
elementi, simili o diversi, presenti sullo stesso territorio e possono riguardare
qualunque aspetto quali-quantitativo legato all’oggetto analizzato.
Le due tipologie di informazione sono diverse ma integrate, per cui
nella modellizzazione degli oggetti del mondo reale non si può prescindere dal
considerarle congiuntamente. La parte attributo viene tipicamente organizzata
in una tabella a doppia entrata, mentre per la parte geogra�ca si utilizza una
carta geogra�ca digitale. I software GIS in genere utilizzano due principali
formati di dati geogra�ci noti come vettoriale e raster (in questo studio faremo
uso di entrambi i formati) e i dati all’interno del database geogra�co vengono
organizzati in strati informativi sovrapponibili, chiamati layer.
L’analisi della distribuzione spaziale dei siti noti ha costituito il primo
passo per lo studio della zona in esame e, successivamente, per la determinazio312
Un modello GIS multicriterio
ne di dati utili alla ricostruzione delle dinamiche insediative dei siti incerti. La
costruzione delle variabili per la realizzazione delle mappe di plausibilità non
può che partire dall’analisi dei siti noti, dato che le caratteristiche del territorio,
assieme alla distribuzione spaziale di torri e forti�cazioni ancora esistenti,
forniscono un primo importante elemento per lo studio in questione.
Così, attraverso un ricevitore GPS, durante la ricognizione dell’area di
studio sono state rilevate le coordinate geogra�che dei siti noti. Partendo da
queste è stato possibile costruire uno strato informativo vettoriale (di tipo
puntuale) contenente i 26 siti della ricognizione, ovvero un layer di punti che
rappresentano il modello dei siti noti (Fig. 2). Il sistema di proiezione utilizzato è l’UTM (Universal Transverse Mercator), zona 33 nord, con riferimento
European Datum 1950 (Ellissoide Internazionale 1924). Durante la ricognizione sono state compilate le schede tecniche dei siti, contenenti dati relativi
alla toponomastica, alla lettura e all’analisi delle fonti storiche. Ogni parte
della scheda tecnica è stata convertita in un attributo della tabella relativa al
layer dei siti noti, che accoglie non solo le coordinate geogra�che dei siti, ma
anche tutte le informazioni attributo che sono state ricavate in situ o dalle
fonti documentali, costituendo di fatto un database geogra�co completo.
È nota l’importanza della vicinanza alle fonti di approvvigionamento
di acqua per la costruzione delle strutture oggetto di studio, per cui un dato
da considerare risulta quello dei principali corsi d’acqua della zona in esame.
Partendo da una carta IGM, attraverso una digitalizzazione a video, è stato
generato il layer vettoriale lineare relativo ai principali corsi d’acqua.
L’analisi dei siti noti evidenzia come, pur trattandosi di una zona costiera,
gli insediamenti rilevati si posizionano sulle principali alture, a conferma del
fatto che il controllo del territorio imponeva comunque una predilezione per le
zone sopraelevate. Così, questi insediamenti si concentrano su fasce parallele che
formano le alture che separano le valli scavate dai �umi (Fig. 2). Questo ci porta
a considerare un altro importante dato, ovvero quello relativo alla quota del terreno. In tal senso il dato migliore è sicuramente il modello DTM (Digital Terrain
Model), cioè un raster che fornisce il dato sulla quota per porzioni quadrate di
territorio (pixel). La dimensione dei pixel determina la risoluzione del raster e
in questo studio abbiamo utilizzato un DTM con risoluzione 20 metri.
Nella classe dei siti incerti, che quindi non presentano evidenze archeologiche, distinguiamo due diverse tipologie: quelli che possono essere spiegati con
l’abbandono dell’abitato o con uno sviluppo di un centro maggiore nelle vicinanze e quelli per i quali risulta dif�cile proporre una interpretazione plausibile in tal
senso. In questo studio abbiamo focalizzato l’attenzione sulla seconda tipologia
di sito e, nel teramano costiero, possiamo annoverare le seguenti cinque aree:
1) Casale S. Benedetto, nella zona di Tortoreto;
2) Colle di S. Donato, compreso nel comune di Tortoreto;
3) Monte Falcone, nel comune di Morro d’Oro;
313
Fig.11––Area
Areadidiindagine:
indagine:ililteramano
teramanocostiero.
costiero.
Fig.
S. Di Zio, D. Bernabei
Fig. 2 – Siti noti e �umi del teramano costiero.
Fig.
Fig.22––Siti
Sitinoti
notie efiumi
fiumidel
del
Fig. 3 – Aree relative ai siti incerti.
Fig.
Fig.3 3– –Aree
Areerelative
relativeaiaisiti
siti
4) Casale,
da localizzarsi
nella frazione di Casal Thaulero,
teramano
costiero.
incerti.
teramano
costiero.
incerti.nel comune di
Roseto;
5) Foce del Gomano, nei pressi della foce del �ume Vomano2.
Partendo dalla carta IGM sono state individuate tali aree e, al �ne di
considerare una suf�ciente porzione di territorio per ognuna di esse, abbiamo
considerato un cerchio di 1500 m di raggio, ovvero un’area circolare di circa
7 km2. Tecnicamente è stato creato un apposito layer in formato vettoriale (di
tipo areale), costruendo dei cerchi centrati sul relativo toponimo identi�cato
sul layer IGM (Fig. 3). Per ogni località, la porzione di territorio che cade
dentro il relativo cerchio costituisce l’area dove concentrare l’analisi, ovvero
la zona sulla quale vogliamo costruire la mappa di plausibilità.
4. Approccio multicriterio
I metodi di Analisi Multicriterio (MCA-Multi Criteria Analysis) si
utilizzano quando, di fronte a un problema decisionale, si ha la necessità di
2
In riferimento alla Foce del Gomano, facciamo notare che si tratta di una tipologia leggermente diversa dalle altre, essendo riconducibile a un punto che si rapporta alle dinamiche degli
insediamenti portuali e non delle torri o forti�cazioni.
314
Un modello GIS multicriterio
dover scegliere tra più soluzioni alternative oppure quando bisogna creare
un ordinamento di importanza tra tutte le alternative possibili (Malczewski
1999). In questo ultimo caso l’ordinamento deve basarsi su criteri ben de�niti, che le alternative devono rispettare. Nel nostro caso vogliamo creare
un ordinamento fra i pixel di territorio (le nostre alternative), in base ad una
scala di plausibilità di presenza del sito incerto.
Il solo dato delle fonti non è suf�ciente per costruire una mappa di
plausibilità, ed è per questo che risulta utile integrare queste informazioni, di
tipo storico, con tutte le altre che sono state rilevate sul campo o che derivano
da analisi spaziali, con un approccio multicriterio. Una volta creato il database geogra�co, infatti, è possibile sfruttare una enorme quantità di dati che
risultano utili ai �ni del nostro studio. Il GIS fornisce un modello organico
per razionalizzare e gestire i dati disponibili ma, cosa ancora più importante,
offre delle funzionalità di analisi spaziale che creano informazioni nuove, non
desumibili dalle fonti e non rilevabili sul campo.
L’integrazione delle informazioni storiche, dei dati rilevati e dei risultati
delle analisi spaziali fornisce nuove variabili che costituiscono la base per il
calcolo delle mappe di plausibilità. In un’ottica “multicriteriale spaziale” si
tratta di costruire un modello per la generazione di una mappa di plausibilità,
che tenga conto di tutte le variabili che sono legate alle dinamiche insediative
dei siti analizzati.
Ogni variabile tecnicamente costituisce una mappa (criterion map) e
l’uso di tecniche di sovrapposizione (overlay) consente di integrare le variabili
attraverso l’impiego di un opportuno sistema di pesi, che in genere sono forniti da uno o più esperti. Le alternative sono di tipo spaziale e rappresentano
singole porzioni di territorio (ad es. celle quadrate di 20 m di lato) su cui
le variabili assumono un dato valore. L’alternativa, quindi, è un luogo ben
de�nito dove si andrà a calcolare un valore di plausibilità per la presenza dei
siti incerti.
Ogni variabile all’interno di ogni alternativa verrà pesata e il valore
di plausibilità �nale terrà conto sia del valore “oggettivo” risultante da ogni
variabile, che di quello “soggettivo” relativo al peso attribuito ad esso dall’esperto. Quindi, in questo lavoro seguiamo un modello che integra informazioni di tipo quantitativo, desumibili dalle analisi spaziali, e informazioni
di tipo soggettivo, che intervengono nella de�nizione dei pesi da assegnare
alle variabili.
5. Le variabili dell’Analisi Multicriterio
5.1 Analisi di intervisibilità
È noto che l’aspetto di visibilità di un luogo è stato per molto tempo un
elemento fondamentale nella scelta dei luoghi per l’impianto di un insedia315
S. Di Zio, D. Bernabei
Fig. 4 – Siti noti e aree di intervisibilità (X1).
Fig. 4 – Siti noti e aree di intervisibilità (X1).
mento urbano (Pecere 2006) e, nel caso dei siti forti�cati, che prevedevano
un controllo del territorio a scopo difensivo, tale aspetto diventa fondamentale.
L’analisi di intervisibilità fa parte di una categoria più generale di analisi
GIS nota come viewshed analysis. Questa comprende sia lo studio del campo di osservazione di un individuo che si trova in un determinato punto del
territorio (analisi del campo visivo), che le relazioni di visibilità fra un certo
numero di siti (analisi di intervisibilità). Nel primo caso si determinano le
zone di territorio visibili da un uomo che si trova, ad esempio, su un’altura,
mentre nel secondo caso si parte da un insieme di punti, ad esempio delle
torri, e si calcolano le porzioni di territorio che sono visibili dal complesso
di tali punti.
In entrambi i casi si parte da un modello digitale del terreno (DEM o
DTM) per generare una griglia in cui ogni cella reca un numero che indica
la presenza o meno di visibilità a partire dai punti di osservazione prescelti
(Forte 2002). Nei software GIS è possibile �ssare una serie di parametri come
l’altezza dell’osservatore, il raggio di osservazione, che in genere si aggira
intorno ai 18 km, e l’angolo di osservazione, che normalmente viene posto
a 360° cioè tutte le direzioni possibili. Dalle caratteristiche morfologiche del
316
Fig. 5 – Distribuzione dei siti rispetto all’esposizione.
Un modello GIS multicriterio
territorio desunte dal DTM, il GIS genera una mappa raster di tipo dicotomico, cioè con soli due possibili valori: 1 indica una cella di territorio visibile, 0
indica una cella non visibile. Si noti che la intervisibilità, o reciproca visibilità,
viene in molti casi sottovalutata, ma nell’analisi archeologica questo fattore è
importante per lo studio dei sistemi difensivi che, oltre alla funzione militare,
avevano uno scopo “propagandistico”, quindi dovevano essere facilmente
visibili dalle zone circostanti (Rongai 1985).
L’analisi di intervisibilità fra i siti noti viene dunque utilizzata al �ne di
ricavare elementi utili per la determinazione dei siti incerti. La de�nizione delle
aree di reciproca visibilità fra i siti noti offre indicazioni molto importanti
sulla possibile localizzazione degli insediamenti che, insistendo sullo stesso
territorio, dovevano essere necessariamente in rapporto di visibilità con gli
altri siti tuttora esistenti.
Partendo da un DEM abbiamo calcolato una mappa di intervisibilità
(Fig. 4), con pixel quadrati di lato 20 m, considerando la rete di punti costituita
dai siti noti: nell’ambito del nostro modello, chiameremo questa variabile X1.
Per tutte le variabili utilizzeremo un sistema di punteggi standard, che vanno
da minimo 0 a massimo 10. Per quanto riguarda l’intervisibilità, possiamo
assegnare punteggio massimo, cioè 10, alle zone visibili e punteggio molto
basso, ovvero 1, ai pixel non visibili.
5.2 La costa
Una delle funzionalità GIS che permette la creazione di valore aggiunto
ai dati esistenti è quella relativa alla creazione di aree di rispetto, o buffer. Si
tratta di aree che si estendono attorno ad una primitiva geometrica vettoriale
(area, linea o punto) in modo che tutti i punti del territorio che si trovano ad
una distanza inferiore a un certo raggio dalla primitiva fanno parte del buffer
stesso. Con i buffer multipli si creano aree adiacenti con valori di distanza
che possono anche essere variabili.
Data l’importanza che la linea di costa rappresenta in questo tipo di
analisi, il primo elemento da considerare è la distribuzione spaziale dei siti
noti in relazione alla distanza dalla costa. Generando un buffer multiplo che
parte dalla linea di costa e si estende verso l’interno è possibile calcolare quanti
siti noti ricadono all’interno di ogni fascia di distanza. Abbiamo scelto una
distanza fra i vari anelli di 2 km, generando un buffer multiplo con 6 zone
(2, 4, 6, 8, 10 e 12 km dal mare). La distribuzione dei siti noti in relazione
alla distanza dalla costa risulta la seguente: 2 siti da 0 a 2 km dalla costa; 5
siti da 0 a 4 km; 8 siti da 0 a 6 km; 13 siti da 0 a 8 km; 17 siti da 0 a 10 km
e 25 siti �no a 12 km dalla costa.
Quindi, circa il 30% dei siti si colloca a meno di 6 km dalla costa e il
50% di essi si trova a una distanza compresa entro 8 km dal mare. Partendo
dal presupposto che lo studio concerne la ricerca di cinque siti vicinissimi al
317
S. Di Zio, D. Bernabei
Zona Distanza dalla costa Punteggio
1
da 0 a 2 Km
10
2
da 2 a 4 Km
8
3
da 4 a 6 Km
6
4
da 6 a 8 Km
4
5
da 8 a 10 Km
2
6
da 10 a 12 Km
0
Tab. 1 – Punteggi della variabile costa
(X2).
Zona
1
2
3
4
5
6
7
Distanza dai fiumi Punteggio
da 0 a 1000 m
2
da 1000 a 1500 m
4
da 1500 a 2000 m
10
da 2000 a 2500 m
8
da 2500 a 3000 m
7
da 3000 a 4000 m
5
da 4000 a 5000 m
2
Tab. 2 – Punteggi della variabile
�umi (X3).
mare, è logico assegnare dei punteggi di plausibilità decrescenti, da un massimo di 10 a un minimo di 0, mano a mano che ci si allontana dalla costa.
Così ad ogni anello del buffer multiplo abbiamo assegnato, rispettivamente,
i punteggi riportati nella Tabella 1.
A questo punto abbiamo per ogni porzione di territorio un valore che
indica la maggiore o minore plausibilità di esistenza di un sito incerto; chiamiamo X2 questa variabile relativa alla distanza dal mare.
5.3 I corsi d’acqua
Un altro elemento da considerare è legato all’approvvigionamento di
acqua, quindi possiamo costruire una variabile legata alla distanza dai �umi. Partendo dalla distribuzione delle distanze dei siti noti dai corsi d’acqua
si evince che solo 3 siti si trovano a meno di 1000 m dal �ume più vicino
mentre 13 siti (pari al 50% di tutti i siti noti) si trovano a meno di 2000 m.
Se consideriamo una fascia di 4000 m dai �umi allora si arriva a 23 siti, pari
all’88% di tutti quelli analizzati.
Molto vicino ai �umi troviamo pochi siti, perché comunque la necessità
di stare vicino ai corsi d’acqua doveva essere contemperata con la diversa
e contrapposta esigenza di posizionarsi sulle alture per scopi difensivi e di
controllo del territorio. Infatti, la maggior parte dei siti, esattamente il 54%,
si colloca in una fascia intermedia che va da 1500 a 3000 m di distanza dai
�umi. Quindi, considerando la distribuzione dei siti noti in relazione alla
distanza dai �umi abbiamo costruito un buffer multiplo con sette anelli, ai
quali sono stati assegnati i punteggi riportati nella Tabella 2.
Si noti che le distanze calcolate con il sistema dei buffer sono distanze
in linea retta, mentre per un’analisi più approfondita si dovrebbe tener conto
della morfologia del territorio. Comunque, dato che la zona considerata è
di tipo collinare, le distanze in linea retta sono una buona approssimazione
della distanza reale fra due punti del territorio. Indichiamo con X3 la variabile
relativa alla distanza dai �umi.
318
Un modello GIS multicriterio
Zona
1
2
3
4
5
6
7
8
Distanza dai siti noti
da 0 a 500 m
da 500 a 1000 m
da 1000 a 1500 m
da 1500 a 2000 m
da 2000 a 2500 m
da 2500 a 3000 m
da 3000 a 4000 m
da 4000 a 6000 m
Punteggio
2
5
8
10
9
7
5
2
Tab. 3 – Punteggi della variabile distanza dai
siti noti (X4).
5.4 I siti noti e la distanza dal prossimo vicino
Passando all’analisi dei siti noti e di come questi possano darci informazioni per la localizzazione di quelli incerti, come primo elemento di elaborazione, ai �ni di una esplorazione della loro distribuzione spaziale, abbiamo
calcolato un indicatore di sintesi e uno di variabilità. La distanza media fra i
26 siti è di 10.530 m, mentre la deviazione standard è pari a 5610 m. Ma, ai
�ni del nostro studio, è più importante considerare la distanza fra un sito e
quelli immediatamente circostanti. Così, se calcoliamo la distanza di ogni sito
con il suo “vicino più prossimo”, risulta che i due siti più vicini si trovano a
217 m di distanza, mentre il sito più isolato si trova ad appena 5021 m da
quello ad esso più prossimo. In media la distanza tra un sito e il suo prossimo
vicino è di 2090 m con una deviazione standard di 1198 m. Questo ci porta
a considerare la fascia intorno a 2 km di distanza da ogni sito come quella
con maggiore probabilità di contenere un sito vicino (esattamente, fra 1 e 3
km troviamo 17 siti, pari al 65% del totale).
Quindi, dato un sito noto, possiamo dire che �no a 1 km e oltre 3 km
di distanza da esso c’è una minore probabilità di incontrare un prossimo
vicino, mentre nella fascia di distanza compresa fra 1 e 3 km la probabilità
è maggiore, con un massimo fra 1,5 e 2 km. Se consideriamo un buffer multiplo con raggio di 500 m, possiamo proporre, sempre con valori da 0 a 10,
il sistema di punteggi riportato in Tabella 3. Indichiamo con X4 la variabile
relativa alla distanza dai siti noti.
5.5 La pendenza del suolo
Un ulteriore elemento da considerare nella localizzazione dei siti in
analisi è quello relativo alla pendenza del terreno. Partendo dal DTM è possibile calcolare la pendenza in celle di 20 m di lato. Anche per questa variabile
partiamo dall’analisi statistica descrittiva dei valori di pendenza dei siti noti,
cioè esploriamo la distribuzione delle pendenze relative alle aree dove si collocano i siti rilevati. È interessante notare che il 50% di essi (ovvero 13 siti)
319
S. Di Zio, D. Bernabei
Zona
1
2
3
4
5
Pendenza (in %)
da 0 a 5
da 5 a 10
da 10 a 20
da 20 a 30
oltre 30
Punteggio
10
6
3
1
0
Tab. 4 – Punteggi della variabile pendenza (X5).
si colloca su aree con pendenza inferiore al 5%, quindi praticamente pianeggianti, mentre altri 8 siti si trovano su una pendenza fra il 5% e il 10%. Fra
i rimanenti, 4 si trovano su una pendenza compresa nella fascia 10%-20%
e solo 1 è posizionato su un terreno con pendenza di poco inferiore al 30%.
Si noti, per inciso, che nell’area studiata ci sono pendenze che raggiungono
anche il 90%. Dunque, è necessario considerare questa variabile, costruendo
una scala di punteggi inversamente proporzionale alla pendenza del suolo,
ovvero con valori alti in corrispondenza di pendenze basse e viceversa. Indichiamo con X5 la variabile pendenza e, tenendo conto della distribuzione dei
valori di pendenza dei siti noti, abbiamo la graduatoria di punteggi riportata
in Tabella 4.
5.6 L’esposizione
Passiamo ora a descrivere un diverso aspetto legato alla collocazione dei
siti noti: la loro esposizione. Sempre partendo dal DTM abbiamo calcolato
una mappa di esposizione e, in analogia a quanto fatto per le altre variabili,
abbiamo costruito una distribuzione statistica dei siti noti rispetto alla variabile esposizione. Questa, in genere, è indicata con un angolo che varia da 0 a
360°, ma ai �ni della costruzione della distribuzione risulta utile raggruppare i valori in 8 classi che rappresentano le direzioni dei punti cardinali: est,
sud-est, sud, sud-ovest, ovest, nord-ovest, nord e nord-est, più una ulteriore
classe che accoglie le parti di terreno pianeggiante, che perciò non hanno una
esposizione ben de�nita.
Dalla sovrapposizione fra il raster dell’esposizione e il layer dei siti noti
si evincono i seguenti valori: 1 sito esposto a ovest, 4 siti a sud-ovest, 7 a sud,
3 a sud-est, 5 ad est, 5 a nord-est e 1 si trova su terreno pianeggiante. Ciò
signi�ca che ben il 73% dei siti è collocato su terreni esposti tra sud-ovest ed
est. Inoltre, la presenza di molti siti esposti ad est e ben 5 con esposizione nordest si spiega con il fatto che il mare si trova proprio in direzione est/nord-est
quindi, evidentemente, tali posizioni sono rivolte verso il controllo della costa.
Inoltre, se osserviamo più in dettaglio i siti esposti a nord-est troviamo che
sono siti molto vicini alla costa (Montepagano, Cologna, Tortoreto e Mosciano
S. Angelo), a conferma di quanto detto. Una rappresentazione gra�ca della
320
Fig. 4 – Siti noti e aree di intervisibilità (X1).
Un modello GIS multicriterio
Esposizione Punteggio
Nessuna
1
N
0
N-O
0
O
1
S-O
4
S
8
S-E
9
E
10
N-E
9
Fig. 5 – Distribuzione dei siti
Tab. 5 – Punteggi della varispetto all’esposizione.
Fig. 5 – Distribuzione
dei siti rispetto all’esposizione. riabile esposizione (X6).
distribuzione è presente nella Fig. 5, che riporta un gra�co polare con i raggi
posizionati lungo i punti cardinali e la lunghezza di ogni raggio rappresenta
il numero di siti esposti in quella direzione.
Da quanto detto, e ricordando ancora una volta che stiamo costruendo
un valore di plausibilità per siti incerti che si trovano molto vicini al mare, è
opportuno �ssare dei punteggi molto alti per le esposizioni che vanno da sud
ad est, con valore massimo alla direzione est, con un valore abbastanza alto
anche ai terreni esposti a nord-est. Per cui è ragionevole ricavare un sistema
di punteggi come in Tabella 5: indichiamo con X6 la variabile esposizione.
5.7 Le fonti storiche
Come ultima variabile dobbiamo tenere conto delle informazioni derivanti dai documenti storici, che indicano delle aree dove i siti non più evidenti
dovrebbero trovarsi. Come detto nel § 3, sono 5 ipotetici punti su cui abbiamo costruito dei cerchi di raggio 1500 m. In analogia a quanto fatto per le
altre variabili, possiamo considerare queste informazioni come una ulteriore
variabile (X7) da inserire nell’analisi.
Se da un lato non si conosce l’esatta localizzazione del sito incerto all’interno dell’area circolare, è anche vero che mano a mano che ci si allontana dal
centro del cerchio la probabilità di trovare il sito diminuisce proporzionalmente.
Questo ci porta a de�nire dei buffer multipli, con fasce di raggio molto stretto
in modo da poter assegnare dei punteggi decrescenti a piccole variazioni di
distanza. In pratica, possiamo �ssare un raggio di 250 m e con 6 anelli si copre
l’intero cerchio. Il sistema di punteggi usato è quello indicato nella Tabella 6.
A chiusura di questo paragrafo riportiamo un prospetto (Tabella 7)
con i principali dati sui siti noti, che sono serviti per la costruzione delle distribuzioni di frequenza necessarie per la derivazione delle variabili. Si noti
che per i �umi e la costa sono state riportate le fasce di appartenenza e non
la distanza reale.
321
S. Di Zio, D. Bernabei
Zona
1
2
3
4
5
6
Distanza dal centro del buffer
da 0 a 250 m
da 250 a 500 m
da 500 a 750 m
da 750 a 1000 m
da 1000 a 1250 m
da 1250 a 1500 m
Punteggio
10
8
6
4
2
1
Tab. 6 – Punteggi della variabile fonti storiche (X7).
dI
Id Comune
appartenenza
1 Notaresco
2 Montepagano
3 Giulianova
4 Ripattoni
5 Bellante
6 Tortoreto
7 Poggio Morello
8 Sant’Omero
9 Nereto
10 Corropoli
11 Controguerra
12 Colonnella
13 Guardia Vomano
14 Morro d’Oro
15 Capo di Ripa
16 Cologna
17 Villa Torre
18 Colle Izzano
19 Selva Alta
20 Peticciano
21 Mosciano S. A.
22 Colle Pietro
23 Montecchio
24 Colle Troia
25 Montone
26 Martinsicuro
dai Distanza dal
Quota IGM Pendenza Esposizione Distanza
fiumi
mare
251
2.53
N-E
4.0
12
301
2.58
N-E
4.5
4
25
0.72
FLAT
1.0
2
217
7.21
E
2.0
12
355
5.19
S
3.0
14
239
3.07
N-E
2.5
4
151
1.43
S
1.5
8
202
1.60
S-E
2.0
12
180
5.19
E
2.0
10
136
23.52
E
2.5
8
264
7.61
S-E
2.0
10
303
19.97
S
1.5
6
157
5.15
S-E
2.0
12
205
3.07
S-O
4.5
8
251
2.58
S-O
3.0
10
219
9.09
N-E
2.0
6
205
2.86
S
1.0
12
251
4.04
S-O
3.0
12
228
1.43
E
3.0
12
202
2.86
O
4.0
8
214
2.02
N-E
4.0
8
227
6.05
S-O
4.5
10
207
5.37
S
3.0
6
182
18.79
S
1.5
12
220
15.68
S
2.0
4
39
15.35
E
1.0
2
Distanza dal
vicino prossimo
2.168
3.304
5.021
1.099
1.611
4.157
0.999
3.444
1.891
1.891
0.999
3.253
2.168
0.998
2.181
3.304
2.989
0.998
1.593
0.217
0.217
1.811
1.042
1.611
2.12
3.253
Tab. 7 – Dati relativi ai siti noti.
6. Il modello di integrazione dei dati tramite l’uso della Map
Algebra
Ricapitolando, le variabili analizzate nei paragra� precedenti, che riteniamo
possano fornire indicazioni sulla localizzazione dei siti incerti, sono le seguenti:
X1: intervisibilità; X2: distanza dal mare; X3: distanza dai �umi; X4: distanza dai
siti noti; X5: pendenza del suolo; X6: esposizione; X7: distanza dai siti incerti.
322
Un modello GIS multicriterio
Per l’applicazione della tecnica della Map Algebra è necessario che tutte
le variabili siano in formato raster. Mentre le variabili X1, X5 e X6 sono già per
costruzione in questo formato, le altre variabili derivate dalla generazione dei
buffer devono essere convertite in raster. Dopo tale conversione, tutti e sette i
raster sono stati riclassi�cati, nel senso che sono stati attribuiti ai pixel i valori
corrispondenti ai punteggi de�niti nei paragra� precedenti, secondo i criteri
volta per volta illustrati. In tal modo otteniamo sette raster con valori che variano lungo la stessa scala, da 0 a 10. Mentre nella Fig. 4 abbiamo la variabile
X1, nella Fig. 6 riportiamo le mappe raster delle variabili da X2 a X7.
Tutte le variabili considerate assumono valori diversi per ogni pixel, cioè per
ogni singola cella di territorio. Nella costruzione della mappa �nale di plausibilità
bisogna considerare per ogni cella un solo valore che deriva dai diversi raster,
ovvero si deve utilizzare un modello che sintetizzi in un unico valore (rispetto ad
un singolo pixel) i sette valori delle corrispondenti celle di ogni variabile.
Con la tecnica della Map Algebra è possibile integrare i valori di tali
variabili, per ogni singolo pixel del territorio, in modo da ottenere un unico
raster, che rappresenta una mappa di plausibilità di presenza dei siti non più
visibili. L’integrazione dei raster può avvenire tramite varie tecniche, ma la
più utilizzata in questi casi è sicuramente la combinazione lineare pesata o
WLC (Weighted Linear Combination) il cui modello è il seguente:
n
Pi � � w j xij
j �1
dove n = 7 è il numero delle variabili in input, i è l’indice del pixel, xij indica il
valore che la variabile j-esima assume nel pixel i-esimo, Pi il risultante valore
di plausibilità nel pixel i-esimo e wj sono i pesi della combinazione lineare,
normalizzati in modo che la somma sia pari a 1. Nel linguaggio della Map
Algebra questa tecnica rientra nella classe degli operatori locali.
Se i pesi sono tutti uguali a 1, allora il punteggio �nale Pi sarà dato dalla
semplice somma dei punteggi di ogni variabile, ma in genere pesi diversi�cati
sono necessari perché le variabili considerate non possono contribuire tutte
allo stesso modo nel fornire la plausibilità �nale, cioè nel dare informazioni
per la ricerca di un sito incerto. I pesi di norma vengono assegnati da uno o
più esperti, con l’unica condizione che devono avere somma unitaria.
7. La tecnica PAIRWISE COMPARISON e la mappa finale di plausibilità
Esistono numerose tecniche per assegnare dei pesi ad una combinazione
lineare di variabili e, in genere, se si tiene conto del giudizio di esperti tali pesi ri�ettono l’importanza che l’esperto (o gli esperti) attribuisce ad ogni variabile.
323
S. Di Zio, D. Bernabei
X2 (distanze dal mare)
X3 (distanze dai fiumi)
X4 (distanza dai siti noti)
X5 (pendenza)
X6 (esposizione)
X7 (buffer sui siti incerti)
Fig. 6 – Mappe raster delle variabili da X2 a X7 con relativi punteggi .
Fig. 6 – Mappe raster delle variabili da X2 a X7 con relativi punteggi .
La tecnica più semplice è quella del ranking, che si basa sulla creazione di
un ordinamento delle variabili da parte dell’esperto e, de�nito l’ordinamento,
è possibile derivare in vari modi i pesi. Un’altra tecnica consiste nell’assegnare dei valori di importanza all’interno di una scala prede�nita (rating). Ad
esempio, si possono dare valori da 0 a 100 così che se una variabile riceve
valore 30 avrà peso 0,3.
Il problema delle tecniche precedenti è che quando le variabili sono
molte è dif�cile creare un ordinamento tenendo conto di tutte contemporaneamente. Sarebbe invece più semplice per un esperto, date due sole variabili,
stabilire quale risulta essere più importante, ed è da questa intuizione che
324
Un modello GIS multicriterio
Saaty (1980) ha messo a punto la tecnica del confronto a coppie (pairwise
comparison), nell’ambito dell’analytic hierarchy process (Malczewski 1999).
La pairwise comparison rientra nelle tecniche di analisi multicriterio e si basa
su una scala di punteggi, da 1 a 9, che esprimono l’importanza relativa della
prima variabile rispetto alla seconda (Tab. 8). Per fare i confronti di tutte le
possibili coppie di variabili i punteggi vengono organizzati in una tabella a
doppia entrata (Tab. 9).
Per capire come si passa dalla matrice dei confronti a coppie al calcolo
dei pesi facciamo un esempio, utilizzando le 7 variabili della nostra applicazione. La matrice che l’esperto deve compilare avrà 7 righe e 7 colonne, ma
dato che si escludono i confronti di ogni variabile con se stessa (perché sono
sempre uguali a 1) e dato che il confronto fra A e B è reciproco al confronto
fra B e A, in totale dovranno essere assegnati solamente n(n-1)/2 elementi:
nel nostro caso 21 valori. Tali valori prendono il nome di coef�cienti di
dominanza. Sulla base dello studio fatto, proponiamo i coef�cienti riportati
nella Tabella 93.
Le matrici come questa sono sempre de�nite positive, ovvero ogni elemento è maggiore di zero (mij>0) e, per costruzione, soddisfano la reciprocità,
vale a dire mij=1/mji. Il problema è che non è rispettata a pieno la proprietà
della consistenza, che dipende dal sistema di preferenze date dall’esperto.
La consistenza deriva essenzialmente dalla proprietà transitiva: mik=mij mjk.
Quando la matrice dei confronti a coppie è consistente, le colonne sono tutte
proporzionali, per cui il rango della matrice è uno. Dunque si ha un solo autovalore diverso da zero e la traccia della matrice risulta uguale alla somma
degli autovalori, vale a dire al numero delle righe.
Da questo consegue che il vettore dei pesi si ottiene calcolando l’autovettore associato all’autovalore massimo e normalizzandolo a somma uno.
In ogni caso, se l’errore di consistenza è abbastanza piccolo, l’autovettore
principale normalizzato fornisce una buona stima per il vettore dei pesi. Per
valutare la consistenza della matrice dei confronti a coppie, si possono calcolare l’indice di consistenza (IC) e il rapporto di consistenza (RC):
IC �
�max � n
n �1
, RC �
IC
RI
3
Ad esempio, il valore 6 nella seconda cella della prima riga signi�ca che la variabile intervisibilità (X1) è considerata “da molto a fortemente più importante” rispetto alla distanza dal mare
(X2). Oppure, l’ultimo valore della seconda riga – 1/7 – signi�ca che la distanza dai siti incerti (X7)
è ritenuta “fortemente più importante” della distanza dal mare (X2).
325
S. Di Zio, D. Bernabei
Intensità
1
2
3
4
5
6
7
8
9
Definizione
Uguale importanza
Da uguale a moderatamente più importante
Moderatamente più importante
Da moderatamente a molto più importante
Molto più importante
Da molto a fortemente più importante
Fortemente più importante
Da fortemente a estremamente più importante
Estremamente più importante
Tab. 8 – Scala di Saaty.
Variabili
X1
X2
X3
X4
X5
X6
X7
X1
1
1/6
¼
1/3
1/8
1/6
1
X2
6
1
2
2
1/4
1/3
7
X3
4
1/2
1
1
1/7
1/3
3
X4
3
1/2
1
1
1/8
1/6
3
X5
8
4
7
8
1
3
8
X6
6
3
3
6
1/3
1
6
X7
1
1/7
1/3
1/3
1/8
1/6
1
Tab. 9 – Matrice dei coef�cienti di dominanza.
X1
X2
X3
X4
X5
X6
X7
0.3131 0.0674 0.1141 0.1368 0.0221 0.0397 0.3068
Tab. 10 – Vettore normalizzato dei pesi.
dove lmax è l’autovalore massimo, n è la dimensione della matrice e RI (Random
Index) è la media degli indici di consistenza calcolati su un numero elevato
di matrici casuali quadrate di dimensione n. Per una matrice perfettamente
consistente si ha IC=0, ma in genere un valore del rapporto di consistenza
inferiore a 0.10 è considerato accettabile. Nel nostro caso abbiamo ottenuto
dei buoni indici, IC=0.0612 e RC=0.0488, che ci permettono quindi di applicare il metodo dell’autovettore.
L’autovalore massimo associato alla matrice dei confronti a coppie è
lmax=7.3674, a cui corrisponde il vettore normalizzato di pesi della Tabella 10.
La somma dei punteggi, moltiplicata per i rispettivi pesi, fornisce un
valore �nale di plausibilità (P) per ogni pixel di territorio, secondo il modello
seguente:
326
X5 (pendenza)
X6 (esposizione)
X7 (buffer sui siti incerti)
Un modello GIS multicriterio
Fig. 6 – Mappe raster delle variabili da X2 a X7 con relativi punteggi .
Fig. 7 – per
Mappe
disiti
plausibilità
Fig. 7 – Mappe di plausibilità
i cinque
incerti.
per i cinque siti incerti.
Quindi, la mappa �nale avrà valori diversi di possibilità di esistenza di
siti archeologici di dubbia localizzazione. Tale mappa si può rappresentare
con una scala di colori, dal più scuro (maggiore plausibilità di presenza di un
sito) al più chiaro (minore plausibilità di presenza di un sito). I risultati sono
esposti in Fig. 7, in cui per comodità sono state raf�gurate separatamente la
zona nord, contenente Casale S. Benedetto e Colle S. Donato, la zona sud,
con Monte Falcone e Casale, e il sito di Foce del Gomano.
Anche se in questa applicazione abbiamo descritto il caso in cui un
singolo esperto assegna un vettore di pesi (di dimensione 1*n) alle variabili,
bisogna precisare che nell’ambito dell’analisi multicriterio è possibile altresì utilizzare un gruppo di esperti. In tal caso si possono seguire due strade
(Malczewski 1999): o si apre un focus group per arrivare ad un accordo sui
pesi da assegnare alle variabili (quindi si torna al caso di un singolo vettore di
pesi) oppure ogni esperto fornirà un vettore di pesi diverso per cui, alla �ne,
si avrà una matrice di pesi (con k esperti tale matrice ha di dimensione k*n).
Se poi si possono attribuire dei pesi di importanza anche agli esperti, con un
ulteriore prodotto fra la matrice �nale dei punteggi e il vettore dei pesi riferito
agli esperti si ottiene la mappa �nale, con un unico valore per ogni pixel.
327
S. Di Zio, D. Bernabei
8. Conclusioni e sviluppi futuri
Le analisi spaziali utilizzate per la costruzione delle variabili inserite nell’analisi multicriterio devono essere viste come un importante momento esplorativo
�nalizzato allo studio del territorio, a prescindere dalla costruzione della mappa
di plausibilità qui proposta. Il caricamento dei dati su un database geogra�co
offre la possibilità di estrarre informazioni che con la sola ricognizione non sono
rilevabili, come ad esempio l’intervisibilità o lo studio delle varie distanze.
Ciò premesso, l’uso di modelli multicriterio sembra essere un interessante strumento per sintetizzare tutti i dati raccolti ed elaborati. Nell’ottica
dei problemi decisionali, abbiamo utilizzato le tecniche di de�nizione dei pesi
che scaturiscono da giudizi di esperti, in modo da aggiungere un elemento
soggettivo ai dati oggettivi scaturiti dalle elaborazioni. Ovviamente l’aspetto
quali-quantitativo di questo approccio non si sostituisce ma integra l’approccio
tradizionale alle fonti storiche, e vuole essere solo un supporto allo studio
topogra�co e non un’alternativa ai metodi tradizionali di analisi.
Inoltre, la costruzione di una mappa di plausibilità diventa un valido
esercizio per testare il modello proposto ma, allo stesso tempo, riteniamo
sia un utile supporto per ulteriori studi e approfondimenti nell’ambito della
ricerca dei siti ad oggi non localizzabili.
In�ne, bisogna considerare che nel modello proposto è stata utilizzata
una matrice di pesi unica per tutti i siti indagati, ma a un livello di analisi
maggiore si può proporre una matrice di pesi separata per ogni sito incerto,
in modo da dare diversa importanza alle variabili a seconda della localizzazione e delle caratteristiche del sito da studiare. Ad esempio, per quanto
riguarda il caso della Foce del Gomano (che sembra avere proprietà portuali
piuttosto che difensive) sarebbe utile applicare un modello a parte, con un
sistema di pesi differente che tenga conto delle diverse caratteristiche di tale
tipologia di sito.
Simone Di Zio
Dipartimento di Metodi Quantitativi e Teoria Economica
Università “G. d’Annunzio” – Chieti-Pescara
Dora Bernabei
BIBLIOGRAFIA
Alfieri N. 1949, I �umi adriatici delle regioni augustee V e VI, «Athenaeum», 37, 122-141.
Anselin L. 1999, Interactive techniques and exploratory spatial data analysis, in P.A. Longley, M.F. Goodchild, D.J. Maguire, D.W. Rhind (eds.), Geographical Information
System, New York, John Wiley, 253-266.
Bevan A., Frederick C., Krahtopoulou A. 2003, A digital Mediterranean countryside: GIS
approaches to the spatial structure of the post-medieval landscape on Kythera (Greece),
«Archeologia e Calcolatori», 14, 217-236.
328
Un modello GIS multicriterio
Buonocore M., Firpo G. 1998, Fonti latine e greche per la storia dell’Abruzzo antico, in
Documenti per la storia dell’Abruzzo, Deputazione Abruzzese di Storia Patria, Vol. II,
L’Aquila.
Cerulli R. 1968, Giulianova 1860, Teramo, Abruzzo Oggi.
Chakhar S., Martel J.M. 2003, Enhancing Geographical Information Systems capabilities
with multi-criteria evaluation functions, «Journal of Geographic Information and
Decision Analysis», 7, 2, 47-71.
Cuozzo E. (ed.) 1984, Catalogus Baronum, Commentario, Fonti per la Storia d’Italia 101**,
Roma, Istituto storico italiano per il Medio Evo.
Eldrandaly K., Eldin N., Sui D. 2003, A COM-based spatial decision support system for
industrial site selection, «Journal of Geographic Information and Decision Analysis»,
7, 2, 72-92.
Forte M. 2002, I Sistemi Informativi Geogra�ci in archeologia, Roma, Mondo GIS.
Getis A., Ord J.K. 1992, The analysis of spatial association by use of distance statistics,
«Geographical Analysis», 24, 189-206.
Jamison E. (ed.) 1972, Catalogus Baronum, Fonti per la Storia d’Italia 101, Roma, Istituto
storico italiano per il Medio Evo.
Joerin F., Musy A. 2000, Land management with GIS and Multicriteria Analysis, «International Transactions in Operational Research», 7, 67-78.
Laaribi A., Chevallier J.J., Martel J.M. 1996, A spatial decision aid: a multicriterion
evaluation approach, «Computational, Environmental and Urban Systems», 20, 6,
351-366.
Malczewski J. 1999, GIS and Multicriteria Decision Analysis, New York, John Wiley.
O’sullivan D., Unwin D.J. 2003, Geographic Information Analysis, New York, John Wiley.
Pecere B. 2006, Viewshed e Cost Surface Analyses per uno studio dei sistemi insediativi antichi:
il caso della Daunia tra X e VI sec. a.C., «Archeologia e Calcolatori», 17, 177-213.
Rajala U. 2004, The landscapes of power: visibility, time and (dis)continuity in central Italy,
«Archeologia e Calcolatori», 15, 393-408.
Rongai L. 1985, I sistemi difensivi e di controllo della costa teramana e dell’entroterra teramano, in Gli Acquaviva d’Aragona duchi di Atri e conti di S. Flaviano. Atti del Sesto
Convegno, Centro abruzzese di ricerche storiche, Teramo, 137-147.
Saaty T.L. 1980, The Analytic Hierarchy Process, New York, McGraw-Hill.
Staffa A.R. 2002, L’Abruzzo costiero. Viabilità, insediamenti, strutture portuali ed assetto del
territorio fra Antichità ed Alto Medioevo, Lanciano, R. Carabba.
ABSTRACT
This paper aims to describe the settlement dynamics in the province of Teramo, in the
Abruzzo region, along the coastal area between the Tronto and the Vomano rivers, in the Norman Age. Starting from the study of 26 sites, relevant to both towers and medieval forti�cations,
the objective is to construct a GIS probability map for the presence of �ve other sites that are
mentioned in various historic documents but have now disappeared.
Analysing some variables linked to the territory and exploiting the spatial distributions
of the existing sites, in particular in relation to the sea and the rivers, it is possible to obtain
useful data for prediction. More precisely we have considered: 1) the viewshed analysis, 2) the
distances from the sea, 3) the distances from the rivers, 4) the distances among the existing
sites, 5) the slope, 6) the aspect and 7) the distance from the toponym of the uncertain locations. Linear combination of the raster representing these variables lead to a �nal map, which
contains different values of plausibility related to the presence of a dubious site. The weights
of the linear combination are provided by an expert using the pairwise comparison technique,
through a multicriteria approach.
329
Archeologia e Calcolatori
20, 2009, 331-350
SISTEMA INFORMATIVO TERRITORIALE ARCHEOLOGICO
E CARTA DELLA POTENZIALITÀ ARCHEOLOGICA
DEL COMUNE DI PARMA
1. Premessa
In questi ultimi decenni Parma e il suo territorio hanno subito un’incessante opera di urbanizzazione e trasformazione, alla quale si è accompagnata
una crescita esponenziale degli interventi archeologici, con conseguenze non
sempre vantaggiose sull’attività della Soprintendenza. Lo sviluppo continuo
di competenze e tecnologie nel settore dell’archeologia professionale, di fatto,
ha determinato che la quantità di reperti e informazioni che gli archeologi
sono in grado oggi di recuperare sia cresciuta a dismisura, dando origine in
tal modo a consistenti raccolte troppo spesso di dif�cile gestione da parte
degli Enti preposti. Ne conseguono due urgenze: innanzitutto, il censimento
completo dei rinvenimenti archeologici, attraverso lo sviluppo di strumenti e
procedure moderne che ne consentano una gestione agile e all’avanguardia;
in secondo luogo, lo studio esaustivo del patrimonio archeologico al �ne di
ricostruire e comprendere l’evoluzione dei paesaggi e della città �no ai giorni
nostri.
Oltre a ciò, la costante trasformazione del territorio ha fatto emergere
la necessità di un controllo sempre più capillare da parte degli organi preposti
alla tutela, oltre alla necessità di agire, il più possibile, attraverso procedure
di archeologia preventiva. Tale denominazione, di uso comune da alcuni
anni, abbraccia un ventaglio di metodologie il cui obiettivo è determinare le
potenzialità archeologiche1 di un’area nel modo meno invasivo possibile e
preventivamente a qualsiasi opera di scavo, al �ne di programmare adeguatamente gli interventi archeologici di volta in volta necessari. In tal modo, da
un lato si favorisce l’azione di tutela della Soprintendenza Archeologica, resa
dif�coltosa dalla cronica carenza di personale e risorse, dall’altro si agevola
1
Con “potenzialità archeologica” di un territorio qui s’intende l’insieme degli elementi
archeologici noti (depositi, strutture e reperti) e di quelli ipotetici, desumibili sia dalla semplice analisi
degli elementi noti, sia dall’interpretazione di questi in rapporto alle caratteristiche geomorfologiche,
geogra�che e storiche del territorio stesso (cfr. § 5); per l’introduzione della dicitura di “potenzialità
archeologica” cfr. ad es. Guarnieri 2000, 13-21. Nel campo della tutela questa dizione ha oramai
da alcuni anni sostituito quella di “rischio archeologico”, per la valenza negativa nei confronti del
patrimonio archeologico, dizione che invece continua ad essere utilizzata solamente in rapporto alle
realizzazioni di opere di scavo. A questo proposito si confronti il presente lavoro e quello esposto
in Bigliardi 2007 con Campeol, Pizzinato 2007.
331
G. Bigliardi
la programmazione dei lavori da parte delle Amministrazioni Comunali e
delle imprese private, mostrando loro ciò che potrebbe attenderle nel corso
dei lavori.
La legge 25 giugno 2005 n. 109 (Malnati 2005), in particolare gli
articoli 2-ter, 2-quater e 2-quinquies, regolamenta l’attuale procedura per le
valutazioni preventive del rischio archeologico nel settore dei lavori pubblici
e stabilisce che le stazioni appaltanti inviino alle competenti Soprintendenze
i progetti preliminari delle opere corredati da indagini geologiche e archeologiche. Tali indagini prevedono la consultazione del materiale d’archivio e
bibliogra�co, la ricognizione dei terreni e la fotointerpretazione, allo scopo
di identi�care e localizzare aree interessate da ritrovamenti e di determinare
le caratteristiche archeologiche dell’area oggetto dei lavori. Le informazioni
desunte da tali fonti permettono di valutare il rischio archeologico relativo
all’opera in progetto, distinguendo aree a rischio differente, e consentono di
elaborare strategie in merito al prosieguo dei lavori. Infatti, le nuove infrastrutture devono considerare il patrimonio archeologico come un elemento
fondamentale di cui tener conto sin dalla prima de�nizione dell’opera e, in
sinergia con la Soprintendenza Archeologica, i progettisti devono studiare
soluzioni per minimizzare il rischio di interferire con i resti del passato.
In risposta a queste problematiche è nato il progetto “Il Sistema Informativo Territoriale Archeologico del Comune di Parma”, avviato in via
sperimentale nell’estate del 2006 sull’area campione del centro storico (Bigliardi 2006, 2007), grazie ad una convenzione tra il Museo Archeologico
Nazionale di Parma e il Centro di GeoTecnologie dell’Università di Siena e
con la collaborazione della Compagnia Generale di Ripreseaeree; in seguito
il progetto è proseguito grazie al �nanziamento dell’Assessorato ai Lavori
Pubblici2 (Bigliardi 2008a, 2008b). Il �ne era di creare uno strumento utile
alla gestione, all’analisi e alla tutela del nostro patrimonio archeologico, tale
da risultare funzionale sia alle esigenze della ricerca storico-archeologica da
parte di specialisti, sia a quelle della Soprintendenza nel campo della tutela,
come a quelle dell’amministrazione comunale e delle imprese private nell’ambito della programmazione urbanistica.
Il primo passo di questo lavoro è stato il censimento di tutti i rinvenimenti
effettuati nel Comune di Parma. A questo scopo si è eseguita la revisione della
documentazione relativa, iniziando dalla bibliogra�a edita3 e proseguendo
con l’archivio della Soprintendenza Archeologica conservato presso il Museo
2
Questo lavoro costituisce il progetto di Dottorato di Ricerca di chi scrive, svolto presso la
Scuola di Dottorato di Ricerca in Scienze della Terra e Preistoria - Sezione di GeoTecnologie, presso
il Centro di GeoTecnologie dell’Università degli Studi di Siena.
3
L’unica Carta Archeologica edita risaliva al 1978 e riguardava il solo centro storico della
città: Marini Calvani 1978.
332
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
Archeologico Nazionale; i dati progressivamente raccolti sono stati inseriti
in un Sistema Informativo Territoriale appositamente elaborato.
Una volta terminato l’inserimento dei dati, sfruttando le potenzialità
del SIT, sono stati elaborati i dati raccolti per produrre cartogra�e tematiche
esplicanti le potenzialità archeologiche del territorio: una Carta Archeologica
tradizionale, una Carta della Visibilità Archeologica di Super�cie e una Carta
della Potenzialità Archeologica. Esse costituiranno un valido supporto per le
valutazioni di impatto archeologico di progetti edilizi, permettendo di valutare in anticipo il rischio archeologico di una determinata area e riducendo
in tal modo gli onerosi fermi cantiere, oltre ai tempi e ai costi dell’assistenza
archeologica. Esse, inoltre, hanno il pregio di responsabilizzare chi deve
programmare interventi nel tessuto cittadino e di rendere trasparenti gli atti
della Soprintendenza relativi alle concessioni delle licenze edilizie, rendendone
esplicite le motivazioni sottintese (Gelichi 2002, 70-71).
L’ultima fase del progetto consisterà nel dare visibilità ai risultati ottenuti: da un lato se ne dovrà curare la diffusione a livello divulgativo e a livello
scienti�co – un dovere morale, oltre che professionale, per qualsiasi studioso e
gruppo di ricerca – con apposite pubblicazioni e giornate di studio, dall’altro
si dovranno rendere disponibili i prodotti realizzati, ad esempio attraverso
la creazione di un sito web dedicato e di un webGIS, e di una postazione
informatica dove rendere consultabile il SIT, sia presso i locali del Museo
Archeologico Nazionale, sia presso gli uf�ci comunali.
2. Breve descrizione delle caratteristiche del SIT Archeologico
del Comune di Parma
Il SIT è stato interamente sviluppato utilizzando la tecnologia ESRI ArcGIS che sfrutta le grandi potenzialità di gestione dei dati in un unico ambiente
integrato: il geodatabase, che costituisce un’applicazione di archiviazione e
gestione di dati spaziali georeferenziati e alfanumerici. La scelta di tale applicazione ha alla base alcuni motivi di ordine pratico: innanzitutto, perché è il
software utilizzato dall’Amministrazione Comunale di Parma per la gestione
del proprio Sistema Informativo Territoriale, in secondo luogo perché si tratta
di una delle applicazioni commerciali più diffuse tra gli operatori di SIT e ciò
garantisce una sicura e facile comunicazione anche con altri sistemi grazie ai
numerosi formati di interscambio.
All’interno del SIT i dati archeologici possono essere visualizzati, a seconda delle esigenze, su basi cartogra�che di diverso tipo: è possibile scegliere
tra la Cartogra�a Tecnica Regionale in scala 1:5000 e in scala 1:10.000, la
Carta Geologica Regionale, la Carta di Uso del Suolo, la Carta Storica Regionale, l’Atlante Sardi (1767), le ortofoto in bianco e nero del 1945 e quelle
moderne a colori, il Modello Digitale del Terreno. In associazione a questi
333
G. Bigliardi
livelli è, inoltre, possibile visualizzare i punti quotati con le quote assolute in
m s.l.m. e le curve di livello con equidistanza �no a 1 m (Fig. 1).
I dati archeologici che possono essere consultati riguardano gli scavi
archeologici, comprensivi di scavi estensivi e di emergenza, saggi, trincee e
carotaggi, e inoltre le segnalazioni, frutto di ricerche di super�cie di appassionati e professionisti locali, e ancora gli elementi della centuriazione, le
aree vincolate per legge e le aree di assenza archeologica, cioè tutte quelle
zone che, in seguito a scavi, si sono mostrate prive di qualsiasi preesistenza
archeologica. In�ne, è possibile consultare tutte le elaborazioni realizzate: la
Carta Archeologica e la Carta di Potenzialità Archeologica, sia quelle dell’intero Comune che quelle di dettaglio del Centro Storico, e la Carta della
Visibilità Archeologica (Fig. 2).
Le informazioni inserite nel SIT sono suddivise in tabelle differenti al �ne
di rendere più agevole sia la fase d’inserimento dei dati, sia quella successiva
di consultazione e interrogazione, salvaguardando così la pluralità delle informazioni relative ad ogni rinvenimento e separandole per aree tematiche. Sono
inserite le informazioni riguardanti lo scavo: il tipo e l’anno dell’intervento,
l’esecutore tecnico e il direttore scienti�co, la posizione della documentazione (relazioni, rilievi e fotogra�e) nell’archivio della Soprintendenza presso
il Museo Archeologico Nazionale, la profondità del rinvenimento e lo stato
attuale di conservazione, in altre parole se il sito è ancora in posto o se è stato
asportato. Inoltre, vengono inserite informazioni di carattere strettamente
storico/archeologico riguardanti la de�nizione tipologica del rinvenimento, la
cronologia, la bibliogra�a e per molti siti è disponibile un link che permette di
visualizzarne alcune immagini. In�ne, per ogni sito sono inserite le indicazioni
riguardanti le caratteristiche geologiche del terreno, la destinazione d’uso del
suolo e la visibilità archeologica di super�cie4.
In conclusione il SIT riunisce molteplici funzionalità:
– gestione agile e all’avanguardia dei dati di ogni rinvenimento archeologico,
che permette per ognuno di essi di risalire agevolmente e rapidamente alla
rispettiva documentazione cartacea d’archivio e presenta una sintesi delle
caratteristiche archeologiche elaborata sulla base delle relazioni di scavo;
– supporto alla ricerca storico-archeologica del territorio, che permette di
eseguire ricerche e selezioni in base alla tipologia e alla cronologia del rinvenimento e fornisce l’eventuale bibliogra�a edita; risulta così possibile realizzare
carte cronologiche, tematiche, tipologiche, etc.;
4
La struttura descritta in Bigliardi 2007, elaborata nella prima fase del lavoro per il centro
storico della città, successivamente è stata in parte modi�cata per venire incontro ai problemi derivati
dall’ampliamento del sistema ad accogliere i dati territoriali extra-urbani. Sono rimasti inalterati i
valori codi�cati dei domini, mentre le tabelle sono state organizzate in modo parzialmente differente;
per problemi di spazio non è qui possibile presentare nel dettaglio la nuova struttura: si rimanda
pertanto a Bigliardi 2008a.
334
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
Fig. 1 – Le basi cartogra�che visualizzabili nel SIT.
Fig. 2 – I layer archeologici visualizzabili nel SIT.
335
G. Bigliardi
Fig. 3 – Particolare della Carta della Visibilità Archeologica: in grigio le zone di visibilità nulla, in
giallo quelle di visibilità scarsa, in bianco quelle di visibilità ottima.
– supporto all’azione di tutela e di piani�cazione urbanistica della Soprintendenza Archeologica e dell’Amministrazione Comunale per mezzo di
elaborati quali la Carta Archeologica e, in particolare, la Carta di Potenzialità Archeologica; quest’ultima è stata elaborata considerando non solo i
rinvenimenti archeologici noti dai dati d’archivio e bibliogra�ci, ma anche
esaminando le caratteristiche geologiche e geomorfologiche del territorio,
rendendola, quindi, uno strumento perfettamente in linea con i dettami della
legge 25 giugno 2005 n. 109 per quel che riguarda le valutazioni di rischio
archeologico preventive in sede di progettazione preliminare.
3. La Carta della Visibilità Archeologica
La Carta della Visibilità Archeologica, elaborata in un unico foglio in
scala 1:25.000, è stata creata rapportando la tipologia di copertura del suolo
alla possibilità di rinvenire tracce archeologiche sulla super�cie del terreno.
In questo modo il territorio comunale viene suddiviso in aree classi�cabili
in base al loro grado di visibilità archeologica di super�cie (Fig. 3). La sua
utilità sta nel permettere un’adeguata programmazione a priori di eventuali
336
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
ricognizioni, in quanto mostra in quali aree esse potrebbero essere realizzate
ef�cacemente e in quali aree, al contrario, una copertura del suolo particolarmente invasiva non ne consentirebbe la realizzazione, garantendo in tal
modo un risparmio di risorse.
La carta è stata elaborata riclassi�cando la Carta di Uso del Suolo
dell’Emilia Romagna del 2003 in scala 1:25.000 (edizione novembre 2006).
Innanzitutto, la carta è stata importata all’interno del geodatabase come feature
class. Successivamente, è stato aggiunto il campo “Visibilità” alla tabella degli
attributi, ed è stato compilato in base alla equiparazione tra classi Corine Land
Cover5 e grado di visibilità archeologica secondo i parametri che seguono:
– visibilità “nulla”, cioè aree in cui è inutile effettuare una ricognizione di
super�cie, per le classi di uso del suolo Corine Land Cover 1.1/1.2/1.3/2.1.3.0/
3/4/5, che comprendono zone urbanizzate, insediamenti produttivi, commerciali, dei servizi pubblici e privati, delle reti e delle aree infrastrutturali, aree
estrattive, discariche, cantieri, terreni artefatti e abbandonati, risaie, territori
boscati e ambienti seminaturali, ambiente umido, ambiente delle acque;
– visibilità “scarsa”, cioè aree in cui è sconsigliato effettuare ricognizioni di
super�cie �nalizzate alla raccolta di reperti, ma in cui è possibile effettuare
una veri�ca della presenza di eventuali altri indicatori archeologici quali
in particolare crop marks; per le classi Corine Land Cover 1.4/2.2/2.3, che
comprendono le aree verdi arti�ciali non agricole, colture permanenti e prati
stabili;
– visibilità “ottima”, cioè aree in cui è possibile e utile effettuare una ricognizione di super�cie �nalizzata anche alla raccolta di materiali af�oranti, per
le classi Corine Land Cover 2.1/2.4 (ad eccezione della classe 2.1.3.0), che
comprendono seminativi e zone agricole eterogenee.
In�ne, grazie alla funzione dissolve dell’ArcToolbox di ArcGIS le aree
di uso del suolo sono state tra loro aggregate in base al valore speci�cato
nel campo “Visibilità”, ottenendo così una nuova mappa tematica in cui il
territorio risulta suddiviso in super�ci corrispondenti proprio al grado di
visibilità.
4. La Carta Archeologica
La Carta Archeologica ha il compito di indicare nel dettaglio la posizione dei singoli scavi, delle segnalazioni, delle aree vincolate, delle aree di
assenza archeologica e delle aree centuriate. Essa è corredata dalle Schede di
Area Archeologica che compendiano le informazioni raccolte su ciascuna area
5
Il Corine Land Cover (Coordination of the information on the environment) è un sistema
di classi�cazione di copertura del suolo elaborato e adottato dall’Unione Europea dal 1985.
337
G. Bigliardi
Fig. 4 – Particolare della Carta Archeologica del Comune di Parma: in verde le aree di scavo, in blu
le segnalazioni, in rosso gli assi centuriali e con campitura obliqua le aree vincolate ex lege.
presente sulla carta e all’interno del SIT. Questa carta può essere considerata
il primo livello di analisi dei dati raccolti, poiché non risulta da un processo
interpretativo delle caratteristiche archeologiche dei rinvenimenti, ma ne
presenta semplicemente la posizione topogra�ca e l’estensione (Fig. 4).
È ovvio che la qualità di questa carta è strettamente connessa alla
qualità del posizionamento dei singoli rinvenimenti. Infatti, poco meno della
metà dei rinvenimenti è posizionato con precisione “buona” (ca. 48%), poco
meno di un terzo è posizionato con precisione “scarsa” (ca. 32%) e appena un
quinto è posizionato con precisione “esatta” (ca. 19%). Questa situazione è
imputabile ad un insieme di cause diverse, ma in particolare alle modalità di
posizionamento impiegate al momento della scoperta e al tipo di documentazione presente negli Archivi della Soprintendenza.
Il sistema di posizionamento adottato in occasione del rinvenimento
incide molto sulla qualità del risultato ed è rilevante che solamente una minima parte di essi sia stata posizionata tramite rilevamento diretto con l’uso
di una stazione totale, mentre in tutti i restanti casi il rinvenimento è stato
338
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
semplicemente posizionato sulla cartogra�a di riferimento, con tutti gli errori
che ciò comporta, soprattutto quando si tratta di scavi in trincea in luoghi
aperti come strade o piazze dove è molto facile in questo modo commettere
errori anche di parecchi metri.
Inoltre, quasi un terzo dei rinvenimenti totali non possiede documentazione d’archivio di alcun tipo, ma se ne hanno notizie solamente in bibliogra�a, dove molto spesso non è riportato il posizionamento in pianta. È giusto
precisare che tutti questi rinvenimenti sono stati effettuati prima del 1968 e la
maggior parte di essi addirittura prima del 1960. Per tutti gli scavi successivi
esiste, invece, una documentazione d’archivio: sovente abbastanza eterogenea, almeno quella anteriore agli anni Novanta, ma nella maggior parte dei
casi è comunque disponibile una relazione di scavo, più o meno dettagliata,
e almeno una pianta dei rinvenimenti.
5. La Carta della Potenzialità Archeologica del Comune di Parma
Con “potenzialità archeologica” di un territorio qui s’intende l’insieme degli elementi archeologici noti (depositi, strutture e reperti) e di quelli
ipotetici, cioè desumibili sia dalla semplice analisi degli elementi noti, sia
dall’interpretazione di questi in rapporto alle caratteristiche geomorfologiche, geogra�che e storiche del territorio stesso. La Carta della Potenzialità
Archeologica fornisce, quindi, un quadro sintetico delle caratteristiche archeologiche dell’intero comune, ed è costituita da una Carta della Potenzialità Archeologica del territorio comunale e da una Carta della Potenzialità
Archeologica del Centro Storico di maggiore dettaglio.
Le carte sono state elaborate attenendosi alle linee guida preliminari
messe recentemente a disposizione dalla Soprintendenza Archeologica della
Regione Emilia Romagna. In base a queste, la carta deve esprimere la sintesi
critica derivata dall’analisi incrociata dei dati della Carta Archeologica tradizionale con le informazioni derivate da altri tematismi, come, in particolare,
le carte geologiche, geomorfologiche, di uso del suolo e la cartogra�a storica.
Il risultato deve essere la de�nizione di aree con caratteristiche omogenee dal
punto di vista dei depositi archeologici, accertati o prevedibili, e da quello del
loro livello di conservazione. Tali zone devono essere de�nite da brevi note
descrittive, che ne chiariscano le caratteristiche archeologiche, con particolare
attenzione per la presenza/assenza di depositi conservati, del loro grado di
conservazione e delle profondità di giacitura6.
In base a ciò, appare necessario superare il concetto di gradualità di
rischio archeologico (alto/medio/basso), poiché si tratta di una valutazione
6
Si ringrazia il Soprintendente Archeologo dott. L. Malnati per aver messo a disposizione
tali indicazioni preliminari.
339
G. Bigliardi
connessa esclusivamente con la realizzazione di opere di scavo, per approdare, piuttosto, all’elaborazione di categorie di potenzialità, che non stiano
tra loro necessariamente in una scala gerarchica e che siano de�nite proprio
sulla base delle qualità speci�che dei depositi archeologici. In conclusione, in
questo lavoro si è tentato di elaborare non dei valori di rischio, quanto delle
tipologie di Potenzialità Archeologica de�nite da parametri oggettivi, seguendo
una procedura esplicita, veri�cabile, ripetibile e applicabile a qualsiasi altro
contesto territoriale (Bigliardi 2008b).
Sulla base dei dati raccolti è stata realizzata una duplice e parallela suddivisione del territorio comunale in aree che si caratterizzano per un diverso
tipo di potenzialità: la prima suddivisone valuta lo stato di conservazione
dei depositi archeologici noti da scavi e segnalazioni, la seconda è una sintesi
critica di tutti i dati e tematismi raccolti, oltre a quelli archeologici anche
quelli geologici, geomorfologici e di uso del suolo.
5.1 La prima suddivisione: valutazione dei depositi archeologici noti
La prima suddivisione del territorio è stata realizzata in base allo stato
di conservazione attuale dei depositi archeologici noti e al grado di certezza
della loro presenza (Fig. 5). Si tratta di una classi�cazione del territorio comunale in super�ci corrispondenti a sette tipologie di potenzialità archeologica
appositamente elaborate. Il risultato è una mappa tematica in cui ogni area
è denominata da un codice numerico di potenzialità (da “0” a “6”), esplicativo della presenza/assenza di depositi archeologici. Per alcuni tipi sono state
elaborate anche tre sottoclassi in base alla precisione del posizionamento dei
depositi: “n. 1” (dove “n” corrisponde al codice di potenzialità) per i depositi
posizionabili in modo esatto, “n. 2” per quelli posizionabili in modo buono,
“n. 3” per quelli posizionabili in modo scarso.
Innanzitutto, sono stati presi in considerazione i depositi archeologici
accertati dagli scavi e sono stati distinti sulla base del loro grado di conservazione. Nella scheda di raccolta dati è presente un campo in cui è possibile
precisare lo stato di conservazione attuale di un sito, in sintesi se è ancora in
loco (in questo caso i valori tra cui scegliere sono: integro, conservato parzialmente, restaurato) o se è stato asportato (i valori sono: distrutto, asportato
in seguito a scavo archeologico). Sfruttando questo campo è stata effettuata
una riclassi�cazione dei layer archeologici, assegnando ai siti archeologici
un codice di potenzialità differente a seconda proprio del grado di conservazione: “1” alle aree di rinvenimento archeologico asportato (in seguito a
scavo archeologico o per distruzione) e “6” alle aree di presenza archeologica
accertata (qualora i depositi siano ancora in posto, seppur parzialmente). Nel
primo caso la potenzialità archeologica è teoricamente nulla; tuttavia, è necessario accertarsi che gli scavi archeologici realizzati abbiano effettivamente
340
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
Fig. 5 – Particolare della prima suddivisione.
asportato l’intera stratigra�a antropica. Nel secondo caso, al contrario, la
potenzialità archeologica è conservata e può essere quanti�cata attraverso
la sovrapposizione con la Carta Archeologica per analizzare i rinvenimenti
archeologici che sono stati effettuati.
Successivamente, in base alla considerazione che nelle aree circostanti
i siti archeologici certi, asportati o ancora in posto, sia possibile ritrovare
residui o estensioni di quegli stessi depositi, è stato elaborato un terzo tipo,
che comprende le aree circostanti un sito archeologico (indipendentemente dal
grado di conservazione attuale dello stesso), considerando, arbitrariamente,
l’area circostante in un raggio di 50 m. In questo caso, è stato effettuato un
buffer attorno alle aree con codice “1” e “6” e alle aree di buffer così risultanti
è stato assegnato un nuovo codice, il “3”. Ovviamente, anche in questo caso
la reale potenzialità di queste aree deve essere veri�cata, tuttavia è prevedibile
che vi si possano rinvenire, se non prosecuzioni dei siti adiacenti, almeno
lembi di strati di frequentazione riferibili ai siti stessi.
Per le segnalazioni di materiale archeologico af�orante e il reticolo
della centuriazione sono stati elaborati due tipi appositi, in quanto si tratta
di elementi archeologici solamente ipotetici: aree con presenza di materiali
archeologici af�oranti (codice “4”), e aree che insistono su un elemento
341
G. Bigliardi
centuriale certo o ipotetico (codice “5”). Nel primo caso sarà necessario stabilire se i depositi da cui proviene il materiale in af�oramento siano ancora
conservati, o se siano ormai andati distrutti dalle arature, o che non si tratti
di terreno di riporto; nel secondo caso la presenza del tratto stradale dovrà
essere veri�cata.
Un’ulteriore tipologia è stata elaborata per le aree di assenza archeologica
accertata, che comprende aree in cui gli scavi hanno restituito solamente depositi di origine naturale non antropizzati, oltre alle aree estrattive attive e
dismesse, agli specchi d’acqua e ai corsi d’acqua (codice “0”). La potenzialità
archeologica di queste aree è nulla.
In�ne, l’ultima tipologia elaborata riguarda le aree in cui non sono ancora noti elementi archeologici, cioè le aree prive di indicatori archeologici di
potenzialità/rischio (codice “2”). Esse comprendono tutte le zone in cui allo
stato attuale, o per mancanza di ricerche o per non conservazione di depositi
archeologici, non sono noti rinvenimenti, né segnalazioni. Si tratta di aree a
potenzialità indeterminabile; tuttavia, proprio per le caratteristiche di indeterminatezza, si tratta di aree potenzialmente ad alto rischio archeologico.
5.2 La seconda suddivisione: sintesi critica dei dati raccolti
La seconda suddivisone, che deve essere letta parallelamente e in
sovrapposizione alla prima, è il risultato di una sintesi critica elaborata sulla
base della cronologia dei depositi geologici del territorio, delle caratteristiche
geomorfologiche e delle caratteristiche dei rinvenimenti archeologici (Figg.
6 e 7). Questa seconda mappa tematica completa le indicazioni di presenza/assenza dei depositi fornite da quella precedente, con la descrizione delle
caratteristiche storico-archeologiche dei depositi stessi.
La suddivisione in aree segue la ripartizione dei depositi geologici presente nella Carta Geologica Regionale, in modo tale che ogni area presenti
al tetto depositi omogenei dal punto di vista dei fenomeni di formazione e
della cronologia di deposizione (Fig. 6). La cronologia di deposizione, infatti,
è fondamentale per comprendere l’evoluzione del paesaggio e stabilire quali
zone hanno subito sensibili modi�che nel corso del tempo, oltre che per stabilire da che momento cronologico una super�cie è stata esposta. Le aree A e
B, ad esempio, ospitano depositi di piana alluvionale datati a partire dall’età
tardoantica (IV-VI sec. d.C.) che, comprensibilmente, hanno obliterato con
alcuni metri di sedimenti i depositi archeologici precedenti e hanno reso le aree
paludose e poco ospitali almeno �no al Basso Medioevo. Non è un caso che tali
zone presentino un numero scarsissimo di rinvenimenti (Fig. 7). Diversamente
l’area H, che presenta depositi di conoidi e terrazzi alluvionali datati a partire
dal Pleistocene Superiore/Mesolitico all’età romana, presenta una distribuzione
molto �tta di rinvenimenti a partire dal Neolitico �no all’età moderna.
342
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
Fig. 6 – Risultato della seconda suddivisione.
Fig. 7 – Sovrapposizione delle Carta
Archeologica alle aree risultate dalla seconda
suddivisione.
In�ne, il confronto con la Carta Archeologica tradizionale permette di
valutare dal punto di vista storico gli elementi archeologici presenti in ciascuna area e di trarne indicazioni riguardo alle caratteristiche del popolamento
del territorio.
A titolo di esempio si riportano le descrizioni di due delle dodici aree
elaborate:
– Area A. L’area è caratterizzata dalla presenza di depositi di piana alluvionale riferibili ai torrenti Taro e Parma: di canale e argine prossimale ad est, di
argine distale ad ovest e, nell’area centrale, depositi di palude. Tutti i depositi
sono comunemente datati a partire dall’età tardoantica (dal IV-VI sec. d.C.).
Si tratta di un’area depressa che, in seguito al declino del costante controllo
sul territorio di età romana, risultò certamente una zona di richiamo per i
sedimenti, ed è inoltre probabile che dallo stesso momento essa sia stata interessata da spostamenti del torrente Parma: lo dimostrerebbero l’accentuato
gomito di deviazione nei pressi di Baganzola e i ventagli di tracimazione in
coincidenza di esso, indizi che lasciano supporre un percorso più occidentale
per il torrente, oltre alla scarsissima conservazione del reticolo della centuriazione. In quest’area sono concentrati esclusivamente 2 rinvenimenti da scavo
343
G. Bigliardi
(un canale moderno e una canaletta romana a 1,5 m di profondità), posti
presso il limite meridionale dell’area e presumibilmente risparmiati dai depositi alluvionali, mentre è nota una sola segnalazione di materiale af�orante,
non a caso di età medievale. La scarsezza di rinvenimenti da scavo potrebbe
essere una conseguenza delle ben poche trasformazioni antropiche avvenute
nel territorio: si tratta di una zona caratterizzata quasi esclusivamente da
terreni ad uso agricolo seminativo, con rare aree residenziali e industriali; ciò
risulta molto evidente anche dal confronto con la Carta Storica Regionale.
Ugualmente, la scarsezza di segnalazioni di materiale af�orante potrebbe
essere dovuta alla carenza di indagini nella zona. Tuttavia, in entrambi i
casi, è altamente probabile che tale situazione sia da imputare all’eccessiva
profondità a cui i rinvenimenti archeologici dovrebbero essersi conservati.
È evidente che in questo settore insistono attualmente consistenti depositi di
origine alluvionale che hanno obliterato gli elementi archeologici. Questi potrebbero essersi conservati ad una profondità elevata, che può essere stimata
intorno ai 2-3 m sulla base del confronto con le quote dell’area I dove tali
depositi non sono presenti.
– Area H. L’area è caratterizzata dalla presenza di depositi di conoidi e di
terrazzi alluvionali, comunemente datati a partire dal Pleistocene Superiore/
Mesolitico all’età romana. In quest’area, se escludiamo il centro storico di
Parma, sono attestati 176 rinvenimenti da scavo e 216 segnalazioni e i siti
noti appartengono a tutte le epoche considerate. In particolare, i rinvenimenti
mostrano un popolamento relativamente omogeneo e diffuso per l’età del
Bronzo, capillare in età romana, ma solo sporadiche testimonianze relative
al Neolitico, al Paleolitico, all’Eneolitico, all’età del Ferro e al Medioevo. Il
tetto della stratigra�a archeologica è mediamente posto tra 0,5 e 1,5 m. Il
reticolo centuriale di età romana è molto ben conservato, in particolare nel
settore ad ovest del torrente Parma, meno in quello orientale dove sono evidenti delle lacune, molto probabilmente dovute al dissesto del territorio nella
fase post-romana. I rinvenimenti da scavo sono concentrati soprattutto nella
zona circostante la città, laddove sono state più intense le trasformazioni del
territorio, come si evince dalla Carta Storica Regionale e dalle ortofoto del
1945. Le segnalazioni, al contrario, sono omogeneamente diffuse in tutto il
settore, compatibilmente con la visibilità del terreno legata all’uso del suolo.
Appare evidente che si tratta di un settore dove, grazie agli scarsi fenomeni
di deposizione successivi all’età romana, si sono meglio conservati i depositi
archeologici di ogni periodo e dove, grazie all’intensa attività antropica di
trasformazione del territorio, è stato effettuato il maggior numero di interventi di scavo.
In conclusione, la Carta della Potenzialità Archeologica del Comune
da un lato dà informazioni su quali depositi archeologici dovremmo incontrare, illustrandone la cronologia, la potenza e la profondità in rapporto alla
344
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
geologia e alla geomorfologia del territorio; dall’altro descrive lo stato di
conservazione di quegli stessi depositi, informandoci se essi siano già stati
asportati o se siano ancora in posto.
6. La Carta della Potenzialità Archeologica del Centro Storico
La Carta della Potenzialità Archeologica del Centro Storico è stata
concepita per offrire un quadro di maggiore dettaglio rispetto a quello già
offerto nella Carta territoriale.
Per prima cosa sono state elaborate le Carte Cronologico-Tematiche,
che illustrano l’evoluzione diacronica del nucleo urbano. Partendo dalla cronologia dei rinvenimenti, sono state realizzate per le principali fasi di sviluppo
storico della città, considerando periodizzazioni molto ampie delimitate da
modi�cazioni sensibili dell’area cittadina in termini di estensione areale e di
funzione: età del Bronzo, romana repubblicana, romana imperiale, tardoantica,
longobarda, altomedievale, bassomedievale e moderna. Per ogni fase sono
state considerate le diverse tipologie di strutture e reperti rinvenuti, in modo
da poter discriminare anche macroaree a differente destinazione funzionale:
residenziale, suburbana, pubblica, religiosa e cimiteriale.
Ne risultano carte che non sono ricostruzioni vere e proprie del nucleo urbano, ma de�niscono per ciascun periodo l’estensione minima della
città accertata archeologicamente, partendo proprio dall’area interessata
dai rinvenimenti. Dato che a differenza delle campagne un nucleo urbano è
caratterizzato da un tessuto insediativo continuo, con un certo grado di precisione è possibile ricostruire, per ogni fase, l’estensione minima della città
considerando come limite i rinvenimenti strutturali di tipo urbano relativamente più marginali e supponendo che all’interno di tale limite si sviluppasse
l’insediamento senza una sensibile soluzione di continuità (Bigliardi 2006,
80-83; Bigliardi 2007, 93-96).
In seguito, tramite la funzione Union dell’ArcToolbox di ESRI ArcGIS,
le Carte Cronologico-Tematiche sono state sovrapposte e sommate e si è ottenuta una suddivisione del tessuto urbano in microaree distinte sulla base del
numero di fasi archeologiche presenti e della destinazione funzionale. Nelle
singole Carte Cronologico-Tematiche ogni area è caratterizzata da un codice
alfanumerico che ne speci�ca la cronologia e la destinazione funzionale: ad
esempio un’area con codice “BR3” è un area insediata nell’età del Bronzo
(“BR”) con funzione di necropoli (“3”), oppure un’area con codice “RIM1”
è un’area insediata in età romana imperiale (“RIM”) con strutture di tipo
residenziale urbano (“1”). In seguito alla sovrapposizione di queste carte, tali
codici vengono sommati, per cui, ad esempio, un’area con necropoli dell’età
del Bronzo insediata successivamente da una domus di età romana imperiale
risulterà identi�cata dal codice BR3_RIM1. Il centro storico risulta così sud345
G. Bigliardi
Fig. 8 – Carta della Potenzialità Archeologica del Centro Storico: i colori classi�cano il centro urbano in base al numero di fasi archeologiche note e alla potenza della stratigra�a antropica (dalle
zone verdi che presentano un’unica fase, a quelle rosso scuro che ne presentano sette); le microaree
distinte in nero delimitano il centro in base alla potenzialità archeologica, considerando cronologia
dei depositi, destinazione funzionale dell’area e caratteristiche dei rinvenimenti.
diviso in aree distinte ciascuna da un codice che rispecchia la complessità della
strati�cazione archeologica e quindi la potenzialità archeologica (Fig. 8).
In questo modo, riconoscendo la ripartizione funzionale in aree diverse
e, dunque, la distribuzione delle informazioni archeologiche ed evidenziando
l’eterogeneità dei depositi, il rischio archeologico legato ad interventi di scavo
può essere di volta in volta quanti�cato e diventare meno soggettivo e aleatorio, perché nasce dalla combinazione e dal confronto dei dati quantitativi
con quelli qualitativi (Carver 1981, 1983; Brogiolo 2000b; Gelichi 2002,
66-67, 70).
Come già sottolineato in precedenza, si è volutamente evitato di creare delle categorie di potenzialità archeologica gerarchicamente organizzate
(alta/media/bassa), diversamente da quanto, invece, è stato realizzato in altri
casi, ad esempio a Cesena e a Faenza. Nel primo caso il risultato �nale è stato
una suddivisione del centro storico in aree a minore o maggiore rischio archeologico, elaborate sulla base delle consistenze strutturali dei rinvenimenti
(rischio alto per i resti di edi�ci; rischio medio per emergenze puntiformi
come drenaggi e tombe; rischio basso per le aree già intaccate da interventi
di escavazione) e sulla base della consistenza dei depositi antropici conservati,
346
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
calcolata in seguito al censimento dei vuoti provocati da ambienti interrati e
scantinati (Gelichi et al. 1999).
Nel caso di Faenza, il risultato �nale del lavoro è una Carta delle Potenzialità Archeologiche che suddivide l’area urbana in tre zone di diversa
potenzialità (maggiore, minore, relativa), basandosi essenzialmente sul diverso grado di concentrazione dei rinvenimenti di età romana, medievale e
post-medievale. In sostanza, un’area insediata con continuità in tutte queste
tre fasi sarà classi�cata a potenzialità maggiore, mentre un’area con elementi
di un solo periodo corrisponderà ad un’area di potenzialità relativa. Accanto
a questa carta vi sono quelle dei Depositi Archeologici Conservati e dei Depositi Archeologici non Conservati, che permettono di conoscere lo stato dei
depositi archeologici in merito alla loro presenza/assenza. In�ne, vi sono le
Carte Cronologico-Tematiche, che offrono una lettura diacronica del nucleo
urbano, e le Carte delle Quote e dei Livelli Archeologici, che evidenziano,
divise per periodi storici, i livelli dei piani di calpestio antichi, che consentono
di effettuare valutazioni della potenza della stratigra�a conservata. In realtà, successivamente all’approvazione del P.R.G., a Faenza è stata elaborata
un’ulteriore carta tematica delle Aree a Potenziale Archeologico Differenziato,
basata in questo caso sia sulla potenza della strati�cazione e della continuità
insediativa nel tempo, sia sulla base della qualità dell’informazione che ogni
area presenta: sono stati infatti assegnati dei punteggi in base al rapporto
scaturito tra quantità di dati noti e lo stato della conoscenza della tipologia
insediativa presente nell’area.
Ad esempio, alla zona occupata prevalentemente da domus è stato attribuito un punteggio basso, poiché sono strutture maggiormente conosciute
in regione, mentre all’area forensis, seppur la stratigra�a si presenta esigua,
è stato assegnato un punteggio alto (Guarnieri 2000, 28-31, 44-46). Il metodo è certo degno di nota, ma non deve essere sottovalutata la relatività del
concetto di valore. Il valore di un bene, infatti, non è mai una qualità assoluta, ma soltanto relativa: esso è legato a valutazioni soggettive del luogo e
del periodo storico in cui ci si trova, oltre che all’esperienza e al background
di chi deve effettuare la valutazione (Gelichi 2001, 9). Il fatto che �no agli
anni Ottanta del secolo scorso fossero sistematicamente sacri�cati i depositi
post-classici ne è un chiaro esempio (Ricci 1996; Gelichi 2001, 9; Gelichi
2002, 68; Manacorda 2004, 146).
La Carta della Potenzialità Archeologica del Centro Storico è accompagnata da brevi note descrittive che illustrano le peculiarità di ogni area,
in riferimento alle caratteristiche dei depositi archeologici noti e prevedibili
(cronologia, tipologia e potenza) e a quelle dei rinvenimenti noti. A titolo di
esempio si riportano le descrizioni di alcune aree:
– Area 1. L’area appare insediata a partire dall’età bassomedievale (circa
XIV sec. d.C.) con un’area produttiva caratterizzata dalla presenza di alcune
347
G. Bigliardi
fornaci. Successivamente, l’area continua ad essere insediata con strutture
di età farnesiana o posteriore. I rinvenimenti sono stati asportati con scavo
archeologico. La stratigra�a archeologica ha una potenza media di 4,5 m.
– Area 2. Nell’area è noto il rinvenimento di un ossario di età bassomedievale
attualmente parzialmente conservato, ma è certo che sull’area insistono anche
strutture di età romana imperiale riferibili al teatro, oltre a depositi di età
farnesiana o posteriori. La stratigra�a archeologica ha una potenza media
superiore ai 3 m.
– Area 3. Nell’area è noto il rinvenimento delle strutture del teatro di età
romana imperiale, ancora in posto, ed è inoltre possibile che siano conservati
depositi di età farnesiana o posteriore. La stratigra�a archeologica ha una
potenza media superiore ai 3 m.
– Area 4. L’area è caratterizzata dalla presenza di strutture di età romana repubblicana, asportate in seguito a scavo archeologico, e, con ogni probabilità,
dalla presenza di depositi di età bassomedievale e di età farnesiana o posteriore.
La stratigra�a archeologica ha una potenza media superiore ai 3 m.
– Area 5. Nell’area potrebbero essere presenti resti delle mura di età farnesiana, oltre a depositi della stessa epoca o posteriori; per i periodi precedenti
dovrebbero essere presenti solamente depositi naturali di origine �uviale
riferibili al torrente Parma. La stratigra�a archeologica dovrebbe avere una
potenza media inferiore al metro.
7. Considerazioni conclusive
Nel corso degli ultimi anni nel nostro Paese sono nati numerosi progetti di cartogra�a archeologica, sia a livello urbano, sia a livello territoriale
più ampio. Purtroppo, appare evidente una grande disomogeneità di questi
progetti, tale da dare la sensazione che ognuno proceda autonomamente. La
mancanza di una linea comune, tuttavia, non equivale a caos metodologico.
Innanzitutto, perché da un punto di vista prettamente tecnico si è oramai comunemente affermato l’utilizzo dei software GIS, i quali nelle versioni recenti
comunicano tra loro molto bene grazie ai numerosi formati di interscambio.
Da un punto di vista tecnico, inoltre, in molti casi nella schedatura delle
evidenze archeologiche un occhio di riguardo è mantenuto verso i modelli
catalogra�ci predisposti dall’Istituto Centrale per il Catalogo e la Documentazione, i quali, anche se parzialmente rielaborati in base alle singole esigenze,
garantiscono il confronto tra le informazioni.
La linea comune mancante riguarda i prodotti realizzati in fase di
elaborazione dati, cioè nella realizzazione di quella cartogra�a tematica
archeologica che dovrebbe costituire la base per le analisi previsionali e per
le valutazioni di rischio archeologico. In sostanza, non conta il cammino
seguito per raccogliere e organizzare i dati, poiché nella pratica un SIT non
348
Sistema Informativo Territoriale Archeologico e Carta della Potenzialità Archeologica
costituisce il �ne del lavoro, ma soltanto un contenitore di informazioni e
un mezzo con cui produrre cartogra�a. Ne consegue che il mezzo può, anzi
deve essere giustamente adattato alla situazione, quindi deve essere adattato
ai dati che si hanno a disposizione, alle caratteristiche dell’area in esame e, in
generale, alle problematiche storiche-archeologiche-territoriali che il singolo
caso presenta. La linea comune, invece, dovrebbe essere stabilita proprio nelle
caratteristiche che devono possedere gli elaborati �nali, cioè le carte tematiche
di potenzialità e rischio, regolando in che modo gli elementi archeologici
devono essere elaborati e interpretati per ottenerne delle indicazioni utili ad
effettuare analisi previsionali.
La speranza è che con i recenti sviluppi legislativi nel campo dell’archeologia preventiva, la Soprintendenza Archeologica si attivi per arrivare ad
una codi�ca, oltre che delle fonti e delle procedure per le valutazioni preventive del rischio archeologico, anche delle procedure per la creazione dei SIT
Archeologici e delle rispettive Carte di Potenzialità Archeologica. Se ciò non
avverrà al più presto, infatti, di questo passo ogni Comune, investendo tempo
e risorse, si doterà in proprio di tali strumenti, creando così un coacervo di
sistemi e di carte molto differenti tra loro e dif�cilmente riconducibili ad una
tipologia comune. Il pericolo concreto, in questo momento, è che le linee guida
della Soprintendenza giungano quando i singoli Comuni avranno già inserito
nei loro Piani Territoriali tali strumenti, con la conseguenza che dif�cilmente
essi accetteranno di investire ulteriori risorse per rielaborarli nuovamente.
Giulio Bigliardi
Centro di GeoTecnologie
Università degli Studi di Siena
BIBLIOGRAFIA
Banzola V. (ed.) 1978, Parma la città storica, Parma, Arte Gra�ca Silva.
Bigliardi G. 2006, Sistema Informativo Territoriale Archeologico della città di Parma, Tesi
di Master di II Livello in Geotecnologie per l’Archeologia, Centro di GeoTecnologie,
Università degli Studi di Siena.
Bigliardi G. 2007, Il Sistema Informativo Territoriale Archeologico della città di Parma,
«Archeologia e Calcolatori», 18, 75-100.
Bigliardi G. 2008a, Il Sistema Informativo Territoriale Archeologico del Comune di Parma.
Manuale di riferimento, Parma.
Bigliardi G. 2008b, Linee guida della Carta della Potenzialità Archeologica del Comune di
Parma, Parma.
Brogiolo G.P. 2000b, Valutazione, in Francovich, Manacorda 2000, 356-357.
Campeol G., Pizzinato C. 2007, Metodologia per la valutazione dell’impatto archeologico,
«Archeologia e Calcolatori», 18, 273-292.
Carver M. 1981, Sampling towns: an optimistic strategy, in Clack, Hazelgrove 1981, 65-91.
Carver M. 1983, Valutazione, strategia e analisi nei siti pluristrati�cati, «Archeologia Medievale», 10, 49-71.
349
G. Bigliardi
Clack P., Hazelgrove S. (eds.) 1981, Approaches to the Urban Past, Durham, University
of Durham.
Francovich R., Manacorda D. (eds.) 2000, Dizionario di archeologia, Roma-Bari, Laterza.
Gelichi S. (ed.) 2001a, Dalla carta del rischio archeologico di Cesena alla tutela preventiva in
Europa. Atti del Convegno di Studi (Cesena 1999), Firenze, All’Insegna del Giglio.
Gelichi S. 2001b, Un rischio calcolato, qualche nota a margine della carta di Cesena, in
Gelichi 2001a, 7-9.
Gelichi S. 2002, Città pluristrati�cate: la conoscenza e la conservazione dei bacini archeologici,
in Ricci 2002, 61-72.
Gelichi S., Alberti A., Librenti M. (eds.) 1999, Cesena: la memoria del passato. Archeologia
urbana e valutazione dei depositi, Firenze, All’Insegna del Giglio.
Guarnieri C. (ed.) 2000, Progettare il passato. Faenza tra piani�cazione urbana e Carta
Archeologica, Firenze, All’Insegna del Giglio.
Malnati L. 2005, La veri�ca preventiva dell’interesse archeologico, «Aedon. Rivista di Arti
e Diritto on line», 3 (http://www.aedon.mulino.it/).
Manacorda D. 2004, Prima lezione di archeologia, Roma-Bari, Laterza.
Marini Calvani M. 1978, Parma nell’antichità, in Banzola 1978, 19-70.
Ricci A. 1996, I mali dell’abbondanza. Considerazioni impolitiche sui beni culturali, Roma,
Lithos.
Ricci A. (ed.) 2002, Archeologia e urbanistica. XII Ciclo di Lezioni sulla Ricerca Applicata in
Archeologia (Certosa di Pontignano, Siena, 2001), Firenze, All’Insegna del Giglio.
ABSTRACT
The paper describes the features of the Archaeological Territorial Information System
of the city of Parma. This is a cultural resource management GIS, that collects and organizes
all the archaeological sites discovered in the municipal territory, and it should be useful both
to archaeologists and to the municipality for city planning.
The sites are positioned on the 1:5000 Regional Technical Map, that provides a spatial
framework and information about roads and administrative boundaries. The Map is integrated
with aerial photographs, historical maps, geological and geomorphological maps and a Digital
Terrain Model. The attribute information for each of the archaeological sites is divided into
separate tables and de�ned by thesauri, i.e. lists of preferred terms.
Some thematic maps have been created: an Archaeological Map, i.e. a distribution
map of the sites, chronological maps and an Archaeological Potential Map, i.e. a map that
summarizes the archaeological features of the whole territory, also considering geological,
geomorphological and historical information.
350
Archeologia e Calcolatori
20, 2009, 351-372
“MURA BASTIA”. DATI ARCHEOLOGICI, INFORMATIZZAZIONE
E RILIEVI 3D LASER SCANNING DEL CASTELLO DEGLI ONIGO
(PEDEROBBA, TREVISO)
1. Archeologia, rilievi e continuità progettuale
Le indagini archeologiche, avviate oramai da diverso tempo presso il
sito “Mura Bastia” (Fig. 1), sotto la direzione scienti�ca del prof. Guido Rosada (Topogra�a antica, Dipartimento di Archeologia, Università di Padova)
sono continuate nel 2008, avvalendosi, come l’anno precedente, della pro�cua
collaborazione del Laboratorio di Rilevamento e Geomatica (Dipartimento
di Architettura, Urbanistica e Rilevamento, Università di Padova), diretto
dal prof. Vladimiro Achilli. Lo scopo, infatti, era di completare da un lato il
progetto di anastilosi virtuale della torre di Onigo, dall’altro di proseguire,
mediante tecnologia laser scanning (Leica HDS2500), nell’acquisizione delle
restanti murature pertinenti all’insediamento forti�cato, così da ottenere un
modello tridimensionale reale dell’intero sito (Frassine et al. 2008).
Proprio in relazione a tale �nalità, le prime due settimane della campagna 2008 sono state dedicate alla rimozione delle essenze infestanti (edera),
ricorrendo in diversi casi solamente all’eliminazione del fogliame e degli
apparati vegetali secchi, per non compromettere l’integrità delle strutture,
stabili grazie alla presenza della vegetazione. Questa operazione ha permesso,
al contempo, non solo di attuare una nuova documentazione fotogra�ca dei
prospetti murari, ma anche di effettuare diverse sequenze fotogra�che digitali
zenitali ad alta risoluzione delle creste murarie (ad eccezione di quelle pericolanti), con l’intento di comporre un rilievo digitale dettagliato dell’intera
struttura castellare (Fig. 2).
La necessità quindi di realizzare una nuova e più accurata planimetria
del sito ha comportato lo scotico di una porzione areale pertinente alla cinta
esterna sud-occidentale, di cui non era nota l’esistenza. Tale intervento ha
dunque consentito di identi�care l’andamento e la morfologia della struttura
muraria (Unità Stratigra�ca Muraria - USM 3007): conservata per un’altezza
di circa un paio di metri, essa si presenta con una decisa inclinazione verso
occidente rispetto alla verticale originaria e appare in buona parte spogliata
sulla facciata meridionale, analogamente a quanto si registra per il contiguo
muro d’ingresso (USM 3008) (Fig. 3, Fig. 12).
Tutte le murature esposte sono state suddivise, in base alle loro caratteristiche morfologiche, in numerose porzioni planari documentate attraverso
la tecnica del fotopiano (cfr. infra § 2). Questi dati, una volta rielaborati
all’interno di uno speci�co software fotogrammetrico (E-FOTO), sono stati
351
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 1 – Onigo, “Mura Bastia”. Il sito forti�cato in due riprese aeree del 29 agosto 2008 (foto M.
Frassine).
352
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
Fig. 2 – Particolare dell’area del dongione: fotopiani delle murature e corrispettiva restituzione
gra�ca vettoriale (elaborazione M. Frassine, A. Bezzi).
353
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 3 – Riprese fotogra�che della cinta esterna sud-occidentale del castello di Onigo a �ne campagna
2008 (foto M. Frassine).
Fig. 4 – Planimetria generale dell’insediamento forti�cato (elaborazione M. Frassine, A. Bezzi).
354
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
trasformati in immagini metricamente corrette e georeferenziate. In seguito al
passaggio da una gra�ca di tipo raster (fotogra�a) ad un supporto vettoriale,
attraverso un programma GIS (OPENJUMP), all’interno del quale ogni singolo
elemento è stato disegnato manualmente, si è ottenuto un tradizionale rilievo
archeologico e quindi una nuova e puntuale planimetria del sito (Fig. 4).
Questa tecnica è stata impiegata anche per la documentazione di scavo,
con l’intento di realizzare un articolato GIS (OPENJUMP, gvSIG) ove far
con�uire sia i nuovi dati archeologici, sia quelli pertinenti alle campagne pregresse. Le prime applicazioni hanno dunque interessato l’area del dongione,
e segnatamente la zona immediatamente a nord della cisterna, dove era stato
possibile individuare una struttura rettangolare (Settore H, ambiente 200),
in origine sviluppata probabilmente in addosso alla cinta settentrionale della
forti�cazione (Frassine 2007). L’analisi stratigra�ca qui condotta su una serie
di apporti che hanno livellato l’intero ambiente, colmando il dislivello tra la
roccia in posto emergente a settentrione e il muro USM 200 a meridione, ha
messo in luce il substrato roccioso, già ripulito quasi totalmente in antico
dall’argilla pura arancione-rossastra, tipica della conformazione geologica del
sito. L’assenza del paleosuolo potrebbe essere posta in relazione con cinque
tagli nel bedrock, quattro di forma quadrangolare destinati all’alloggiamento
di travi verticali e uno circolare per palo, riconducibili, forse, data la loro
posizione topogra�ca, alla creazione di un’impalcatura lignea funzionale
alla costruzione della cinta muraria (Fig. 5). L’esame condotto sui reperti
mobili, per quanto scarsi, riconduce senza dubbio all’ambito medievale. Le
varie indicazioni cronologiche sembrano, dunque, convalidare quanto già
suggerito dalle indagini condotte nel corso delle campagne di scavo precedenti (Marchiori 2003; Ercolino 2004), consentendo di circoscrivere al
XIV secolo d.C. il periodo di vita della struttura (Frassine et al. 2008, 300;
Frassine 2009).
Immediatamente ad occidente dell’ambiente appena descritto, si sviluppa
un’altra area sub-trapezoidale delimitata a meridione dal perimetrale nord
della torre (USM 1001), a settentrione dalla cinta esterna del castello (USM
2002), ad oriente dall’USM 100 e ad occidente dall’USM 2001. Questo settore
(I), indagato attualmente solo nella porzione più orientale, ha evidenziato, al
di sotto di alcuni strati moderni relativi al completo abbandono dell’area, la
sopravvivenza di una struttura, riconducibile al periodo bellico (novembre
1917-ottobre 1918). Tale postazione militare, orientata in direzione del �ume
Piave, si presenta come l’insieme ideale di due opere murarie a secco, separate
da un punto di passaggio (Fig. 6). La porzione settentrionale è caratterizzata
da una forma quadrangolare (104×124 cm circa) sviluppata in addosso all’USM 2000, mentre l’altra, immediatamente a meridione, si presenta come un
muro allungato in senso nord-sud, leggermente curvo, con �lari pseudo-lineari
realizzati con pietre di reimpiego provenienti dal castello. Questa struttura
355
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 5 – Settore H ambiente 200: fotopiano relativo
alle fasi di frequentazione precedenti alla costruzione
dell’edi�cio (elaborazione M. Frassine).
Fig. 6 – Il settore I a �ne campagna 2008, documentato
attraverso la tecnica del fotopiano (elaborazione M.
Frassine).
356
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
appare completamente indipendente dal perimetrale nord della torre (USM
1001), dato che tra questi elementi non esiste un contatto �sico diretto: questo secondo varco serviva forse ad agevolare i collegamenti tra quest’area e
l’interno della torre, che presentava, proprio nel perimetrale settentrionale,
un’ampia apertura arti�ciale, ancora visibile nelle fotogra�e precedenti al
crollo del 1989. Sembrano convalidare al momento tale lettura anche alcuni
piani di calpestio legati alla frequentazione dell’area e alcune sistemazioni
intenzionali localizzate soprattutto in corrispondenza dell’apertura arti�ciale,
realizzata nell’USM 1001 (Fig. 7).
La rimozione all’interno della torre (Settore J) del deposito relativo al
crollo del 1989 aveva mostrato una sostanziale mancanza di strati�cazione
antica, permettendo di individuare al contempo un ampio taglio nella zona
nord-orientale (Frassine 2008). L’indagine condotta nel corso della campagna
2008 ha effettivamente consentito di iniziare a scavare i primi riempimenti,
confermando, attraverso i vari reperti mobili (tra cui si ricordano diversi contenitori metallici per cibi in scatola, alcune bottiglie, qualche recipiente vitreo
per inchiostro e alcuni bossoli di proiettili), la natura bellica dell’intervento
(cfr. anche Frassine 2009).
Diversa appare, invece, la situazione al limite sud del settore J, dove
un tempo insisteva il perimetrale meridionale della torre (USM 1003). Qui,
infatti, il deposito archeologico, sviluppato su un fronte di circa 12 m e per
una fascia di almeno 2 m in forte pendenza, appare connotato da diverse
unità stratigra�che, attribuibili ai momenti di vita, abbandono e crollo della
struttura abitativa. L’analisi stratigra�ca, compiuta �nora solo attraverso la
realizzazione di un sondaggio-trincea, ha consentito di identi�care un apporto
macerioso omogeneo, caratterizzato da coppi e scaglie bianche del Monfenera,
sviluppato a copertura di un ulteriore strato, che ha restituito una notevole
quantità di reperti collocabili, sulla base di una prima analisi, al XIII secolo.
Sono dunque questi gli unici elementi superstiti della strati�cazione antica,
presenti in origine all’interno della torre, prima del cedimento del perimetrale
meridionale. Questa muratura, individuata già parzialmente l’anno precedente (Frassine 2008), è stata intercettata ed esposta, nel 2008, a seguito
dell’asportazione delle unità stratigra�che appena ricordate.
La situazione presentava due diversi accumuli di pietre: uno, legato da
malta, giacente a ridosso del taglio di fondazione, sarebbe riconducibile alle
fondazioni originarie; l’altro sarebbe ascrivibile, per la sua stessa disposizione, al crollo del perimetrale sud (Fig. 8). Allo stato attuale delle conoscenze,
sembra dunque ipotizzabile l’esistenza di due diverse modalità costruttive,
strettamente connesse all’andamento geomorfologico della dorsale. Laddove
il paleosuolo era particolarmente cospicuo, si è proceduto a tagliare il substrato sterile argilloso, per poi costruire un paramento a vista di conci in
arenaria variamente sbozzati, all’interno del quale venne in seguito riversato
357
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 7 – Particolare del settore I: a destra la postazione militare e di fronte il taglio realizzato nel
perimetrale nord della torre (foto M. Frassine).
Fig. 8 – Settore J, area sud: esempio di integrazione tra documentazione tradizionale (campagna
2007) e un fotopiano digitale realizzato durante la campagna 2008 (elaborazione M. Frassine).
358
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
un nucleo di pietre, forse di scarto, di media e piccola pezzatura; laddove,
invece, la roccia in posto era af�orante si è ricorso ad una semplice pulitura
super�ciale dalle argille.
M.F.
2. Dalla documentazione cartacea al digitale: informatizzazione
dello scavo di “Mura Bastia”.
2.1 Antefatti
Durante la campagna di scavo 2002-2003 è stato effettuato per il sito
di “Mura Bastia” un primo tentativo di integrazione tra la documentazione
archeologica tradizionale (disegno manuale) e le nuove tecnologie. Il lavoro
congiunto di archeologi e topogra� informatici è stato suddiviso in tre distinte fasi a cui rispondevano tre diversi metodi operativi (Grossi et al. 2004).
Una prima fase ha visto la realizzazione di una nuova griglia di picchetti di
riferimento, posizionata utilizzando una stazione totale Geodimeter 500. A
questo reticolo facevano riferimento i disegni delle singole unità stratigra�che, effettuati durante tutta la campagna di scavo attraverso i metodi di
documentazione tradizionale (fase due). In�ne, come ultima operazione, è
stato rilevato il posizionamento geodetico del sito attraverso la misurazione,
in coordinate assolute, di due punti �ssi utilizzando i ricevitori GPS Leica
SR299 e Novatel DL4.
I dati così ottenuti sono serviti, durante il lavoro di post-scavo, per realizzare un progetto all’interno di un software CAD. Il reticolo di riferimento
e i punti misurati attraverso la stazione totale, importati direttamente nel
programma, hanno formato la base per il posizionamento degli altri elementi.
I disegni manuali sono stati in un primo momento acquisiti tramite scanner
e successivamente vettorializzati manualmente. Attraverso i picchetti della
griglia di riferimento si è proceduto poi ad inserire i nuovi elaborati all’interno
della planimetria generale dello scavo. Un ultimo passaggio è stato compiuto
con la sovrapposizione della pianta palinsestica sulla Cartogra�a Tecnica
Regionale, utilizzando come target di unione i punti �ssi misurati sul campo
sia in coordinate assolute, attraverso i ricevitori GPS, sia nel sistema locale,
mediante la stazione totale.
2.2 La campagna 2007: dal CAD al GIS
Durante la fase di organizzazione della campagna di scavo 2007 si è
deciso di impostare un programma di lavoro, inteso a sostituire gradualmente
la documentazione di tipo tradizionale a favore dei nuovi metodi informatizzati. Sebbene nel passaggio non sussistessero particolari dif�coltà, bisognava
comunque tener presente sin da subito l’importanza di mantenere un collega359
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
mento diretto con i rilievi cartacei prodotti in più di dieci anni di attività di
scavo. Per questo motivo si è preferito evitare di utilizzare per le misurazioni
un sistema di coordinate assoluto che, se da un lato avrebbe consentito di
inserire il sito all’interno del suo contesto territoriale, permettendo quindi
analisi spaziali di tipo extra-site, dall’altro avrebbe complicato notevolmente il lavoro di vettorializzazione e ricollocamento delle vecchie planimetrie
cartacee. Si è dunque optato per l’impostazione sul campo, con l’ausilio di
una stazione totale (Trimble 3600), di un sistema di coordinate relativo, che
fosse ancorato al reticolo di riferimento e alla quota di cantiere, lasciando ad
un momento successivo la migrazione verso un posizionamento geodetico. Il
nuovo piano cartesiano è stato ideato prendendo come punto origine (500E,
500N) il picchetto “0N”, localizzato a ridosso del perimetrale orientale della
torre, e come asse delle ordinate l’allineamento dato dai picchetti “0N” e
“6N”, disassato rispetto al nord reale di circa 30 gradi.
Un’altra novità, introdotta con la campagna 2007, è stata l’adozione
di una piattaforma GIS rispetto al software di tipo CAD utilizzato negli anni
2002-2003. Un’applicazione GIS, infatti, essendo per sua natura un sistema
territoriale, consente una migliore gestione dei dati spaziali, lasciando il
progetto sempre aperto ad ulteriori integrazioni con dati nuovi o pregressi
(Fig. 8). Inoltre, il GIS supporta in maniera nativa il formato raster georeferenziato, dato questo non trascurabile in quanto l’immagine costituisce
l’elemento fondamentale del rilievo digitale bidimensionale effettuato con la
tecnica del fotopiano. Un altro aspetto favorevole consiste nella possibilità di
implementare tale piattaforma con le potenzialità di analisi offerte dal campo dei database e di conseguenza di ampliare notevolmente l’ef�cacia delle
interrogazioni spaziali e delle ricerche incrociate. Non meno rilevante per la
scelta operata è stato, in�ne, l’ampio spettro di applicativi GIS riscontrabili
all’interno del gruppo del software libero.
2.3 Lo strumento informatico libero
Tutto il procedimento informatico, applicato durante le campagne di
scavo 2007-2008 e nel successivo periodo di rielaborazione, ha visto l’utilizzo
esclusivo di software FLOSS (Free/Libre Open Source Software)1. Sia nella
più semplice fase di acquisizione e archiviazione dei dati digitali, sia nelle
più complesse operazioni di elaborazione, interpretazione e gestione delle
informazioni sono stati impiegati gli applicativi liberi inseriti all’interno del
sistema operativo ArcheOS2. Acronimo di Archaeological Operating System,
è una distribuzione GNU/Linux pensata per risolvere i problemi della ricerca
1
Per una maggiore documentazione sulla de�nizione di FLOSS cfr. http://it.wikipedia.org/
wiki/Software_Free/Libero/Open-Source.
2
http://www.arc-team.com/archeos/.
360
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
archeologica in tutte le sue fasi: dalle ricognizioni preliminari �no alla pubblicazione dei dati, passando per la gestione dello scavo, la classi�cazione
e lo studio dei reperti, la ricostruzione virtuale, etc. (Bezzi et al. 2005a-b;
Barton et al. 2006; Bezzi et al. 2006b). La scelta di ricorrere al software
libero rispetto a prodotti proprietari è stata dettata da necessità pratiche,
molte delle quali trovano origine nelle quattro libertà fondamentali garantite
dalla licenza GPL (General Public License)3:
– “libertà” di eseguire il programma per qualsiasi scopo (libertà 0);
– “libertà” di studiare il programma e modi�carlo (libertà 1);
– “libertà” di copiare il programma in modo da aiutare il prossimo (libertà
2);
– “libertà” di migliorare il programma e di distribuire pubblicamente i miglioramenti, in modo tale che tutta la comunità ne tragga bene�cio (libertà 3).
Soprattutto la condivisione del software è un fattore essenziale per uno
scavo universitario, in quanto permette di fornire allo studente non solo le
conoscenze, ma anche lo strumento per metterle in pratica. Si poteva, inoltre,
ricorrere ad un supporto tecnico esteso, quale è una comunità internazionale
di utenti/sviluppatori4, oltre ad avvalersi di formati digitali “aperti”, facilmente
interscambiabili e accessibili nel lungo periodo (per esempio ODF, GML, SVG,
etc.). In�ne, non meno trascurabile appare il fattore economico, che ha permesso di reinvestire nello scavo diverse somme di denaro, che sarebbero state
altrimenti spese per l’acquisto delle licenze d’uso di programmi proprietari.
2.4 La metodologia di rilievo
L’elemento base della documentazione applicata nel sito di “Mura Bastia” è il rilievo digitale bidimensionale effettuato con la tecnica del fotopiano.
Il metodo operativo prevede un’organizzazione del lavoro distinta in due fasi
principali: le misurazioni sul campo e il post-processing informatico. Nella
prima fase l’oggetto della documentazione (lo strato o la struttura muraria) viene diviso idealmente in differenti piani altimetrici a seconda della morfologia
della sua interfaccia superiore. Più la super�cie è irregolare, più è complesso
e laborioso il procedimento di rilievo. Per ogni piano vengono posizionate
almeno quattro marche di raddrizzamento, successivamente misurate con la
stazione totale, e in�ne viene scattata una fotogra�a zenitale. La verticalità
del punto di ripresa rispetto all’oggetto e la divisione in aree altimetriche
permettono di ridurre al minimo gli errori prospettici e le distorsioni.
3
html.
La versione completa della GPL è consultabile sul sito http://www.gnu.org/licenses/licenses.
4
A questo proposito vanno citati alcuni progetti: GFOSS (http://www.gfoss.it/drupal/),
IOSA (http://www.iosa.it/) e DAD Project (http://wiki.uibk.ac.at/con�uence/display/excavationtutor/Home).
361
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 9 – Fotopiano realizzato con il metodo “Aramus”: risultato �nale (a sinistra) ed evidenziazione
delle singole fotogra�e (a destra) (elaborazione A. Bezzi).
La seconda fase, svolta all’interno di stazioni informatiche, consiste
nella rielaborazione dei dati grezzi ottenuti sul campo. Il procedimento
impiegato per la creazione di fotopiani è il cosiddetto “metodo Aramus”
(Bezzi et al. 2006a)5, che permette di realizzare un fotomosaico dall’unione
delle singole riprese fotogra�che (Fig. 9). In sostanza, tale metodo consente
di distorcere, scalare e ruotare una fotogra�a originale sopra un’immagine
di base georeferenziata (modello) sulla quale sono riportate le marche di
raddrizzamento, attraverso una serie di passaggi qui brevemente riassunti
(Fig. 10). Le coordinate scaricate dalla stazione totale vengono importate
all’interno del programma GIS GRASS come livello vettoriale. Una volta
impostate l’area di visualizzazione del monitor sul nuovo layer, nonché la
risoluzione della regione del progetto (dimensione del pixel in metri), si
procede prima ad una conversione del �le vettoriale in raster e poi all’esportazione di questo in formato TIFF, con riferimento geogra�co TFW. Il �le
prodotto è un’immagine bianca con indicati in rosso i pixel associati alle
coordinate della marca di retti�ca, che però risulta di dif�cile lettura. Per
ovviare a questo problema e agevolare, quindi, la fase di comparazione tra
l’immagine originale e quella di base, è necessario esportare dal monitor di
5
Il metodo Aramus è stato ideato da Arc-Team s.n.c. per lo scavo scuola dell’Università di
Innsbruck (Institut für Alte Geschichte und Altorientalistik) ad Aramus, Armenia. L’intero procedimento è oggetto di un tutorial del DAD Project, accessibile al sito http://wiki.uibk.ac.at/con�uence/display/excavationtutor/Home/.
362
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
Fig. 10 – Esempli�cazione di alcuni passaggi per il raddrizzamento delle immagini: a) elaborazione
delle coordinate in un editor di testo; b) visualizzazione delle marche di retti�ca all’interno di GRASS;
c-d) comparazione tra la fotogra�a originale e il modello in E-FOTO; e) unione delle immagini e
calibrazione dei colori in GIMP; f) il fotomosaico �nale (elaborazione A. Bezzi).
GRASS la visualizzazione del livello vettoriale con l’indicazione del suo valore
numerico (nome della marca). La nuova immagine deve essere unita e scalata
sul primo elaborato all’interno del software di gra�ca raster GIMP. Ottenuto questo modello, il passaggio successivo avviene all’interno del modulo
RECTIFICATION della suite di fotogrammetria E-FOTO. L’uso di questo
363
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
modulo è abbastanza semplice e intuitivo: una volta caricati la fotogra�a
originale e il modello, è suf�ciente indicare al software, nello stesso ordine,
la posizione delle marche di raddrizzamento in entrambe le immagini, prima
di procedere alla retti�ca e al salvataggio. L’immagine originale viene così
scalata e posizionata sul modello precedentemente ottenuto, che mantiene
inalterate le sue dimensioni e la sua georeferenziazione. Il punto di forza
di questo procedimento consiste nel poter riunire tutti i �le raster esportati
da E-FOTO caricandoli come livelli all’interno di GIMP, dove peraltro sarà
possibile effettuare anche accorgimenti “estetici” come la calibrazione dei
colori e la sfumatura delle sovrapposizioni.
Tutti i fotomosaici vengono successivamente vettorializzati manualmente con OPENJUMP, un software territoriale con ottimi strumenti di disegno (Fig. 2). Le immagini georeferenziate e i livelli vettoriali con�uiscono,
in�ne, all’interno di gvSIG, strumento con il quale si sta realizzando il GIS
di scavo.
A.B.
3. Il rilievo 3D completo e texturizzato delle mura del castello di
Onigo ottenuto mediante metodologia laser scanning terrestre
3.1 Acquisizione di tutti gli alzati conservati
Il rilievo 3D completo delle mura del castello è stato effettuato nella
campagna di misure realizzata nel 2008, utilizzando il laser scanner a tempo di volo (TOF - Time Of Flight) HDS2500, che presenta una precisione
di 4/6 mm sul singolo punto per distanze laser scanner – oggetto da 1,5 a
50 m. In continuità con le acquisizioni realizzate nel 2007, durante le quali
sono stati rilevati gli alzati della torre, la cisterna e 10 blocchi del crollo
avvenuto nel 1989 (Frassine et al. 2008), nel 2008 sono state effettuate
scansioni laser di tutte le murature interne ed esterne del castello e di due
crolli della torre con passo medio di campionamento di 1 cm. Naturalmente,
per la generazione del modello 3D è necessario che le differenti scansioni
vengano allineate nello stesso sistema di riferimento dei dati acquisiti nella
campagna precedente: per questo motivo è stata progettata, materializzata e
misurata una rete topogra�ca di inquadramento, ampliando la rete de�nita
e rilevata nel 2007.
Da tre vertici di coordinate note della rete, che complessivamente era
costituita da sette punti, sono stati scelti altri otto riferimenti, intervisibili con
i vertici noti, in modo da agganciare il nuovo rilievo con quello effettuato
l’anno passato. In questo modo, i vertici noti, in sede di elaborazione dati,
verranno considerati in�nitamente �ssi e saranno utilizzati per calcolare le
coordinate dei nuovi punti a partire da quelli noti. I nuovi punti della rete di
inquadramento sono stati scelti in modo da essere intervisibili a due a due
364
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
e, per ogni braccio, con almeno un vertice della rete del 2007. Inoltre, questi
punti sono stati posizionati in zone accessibili, internamente ed esternamente
al castello in quanto serviranno per il rilievo dei target laser scanning. Infatti,
prima dell’acquisizione delle nuvole di punti, sulle murature degli alzati sono
stati posti segnali retro-ri�ettenti che lo strumento può riconoscere in modo
semi-automatico: operativamente, vengono effettuate le singole scansioni
generali sull’area da rilevare e, dopo aver generato la nuvola di punti, i target
vengono identi�cati manualmente sulla visualizzazione 3D. In questo modo
il laser scanner effettua scansioni di dettaglio in corrispondenza dell’area
selezionata, individuando le coordinate del centro dei target laser scanning
come baricentro delle nuvole di punti acquisite con altissima risoluzione.
Questi riferimenti risultano necessari per l’allineamento delle scansioni che
non presentano sovrapposizioni reciproche oppure che sono molto scarse.
Sebbene il numero minimo di segnali necessario per effettuare la co-registrazione deve essere di tre, in realtà sono stati posizionati sempre almeno
cinque target nella �nestra visibile con una singola acquisizione. Tale scelta
è stata attuata non solo per prevenire eventuali problemi legati al mancato
rilievo di qualche segnale che avrebbe potuto compromettere l’intero lavoro,
ma anche per incrementare la precisione della roto-traslazione delle nuvole
di punti nella fase di allineamento. Inoltre, i target sono stati collocati in
modo da coprire uniformemente l’area di scansione, evitando allineamenti
e favorendo il posizionamento su piani diversi. Alcune scansioni sono state
realizzate senza predisporre i target laser scanning a causa dell’inaccessibilità
del sito: in queste situazioni sono state previste ampie sovrapposizioni delle
nuvole di punti (40÷50%), dovendo poi realizzare il loro allineamento solo
nella zona in comune tra scansioni adiacenti.
Oltre alle murature presenti, sono state acquisite anche le super�ci di due
crolli della torre che non erano stati adeguatamente rilevati nella campagna del
2007, ma che erano stati identi�cati e posizionati in 2D nell’analisi basata sul
confronto con fotopiani ottenuti da immagini antecedenti il crollo (Frassine
et al. 2008, 301-309). Il rilievo è stato effettuato con passo di campionamento
medio di 0,5 cm a causa della complessità morfologica dei blocchi e senza
utilizzare target laser scanning. Analogamente alla campagna 2007, per ridurre
il numero complessivo di scansioni, è stata acquisita l’intera area nella quale
erano posizionati i crolli, anziché operare masso per masso.
Considerando entrambe le campagne, sono state acquisite complessivamente 131 scansioni e rilevati 92 target. L’acquisizione delle caratteristiche
radiometriche è stata effettuata con la camera digitale metrica Canon EOS
1 DS Mark II che fornisce immagini con risoluzione di 16,7 Megapixel: le
riprese sono state realizzate sia dai punti di stazionamento del laser scanner,
che da altre posizioni per ridurre le zone d’ombra e gli elementi in sottosquadro.
365
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
3.2 Estrazione del modello complessivo
La rete topogra�ca di inquadramento, rilevata con misure sovrabbondanti, è stata compensata nel sistema di riferimento della rete calcolata nel
2007. Fissando tre vertici di quest’ultima, le coordinate dei nuovi punti sono
state determinate secondo lo schema a rete vincolata; in questo modo è stato
possibile ottenere le coordinate dei nuovi vertici con errori massimi di 4÷5
mm, che risultano suf�cientemente contenuti per l’estrazione di un modello
3D completo, metricamente corretto, accurato e ad alta risoluzione, di tutti gli
elementi rilevati mediante il laser a scansione. Le coordinate dei target sono
quindi state ottenute rispetto alla rete topogra�ca locale complessivamente
costituita da 15 vertici.
Le nuvole di punti sono state allineate mediante il software Cyclone v.
5.3, utilizzando due differenti procedure: le acquisizioni provviste di target
laser scanning georiferiti sono state roto-traslate nel sistema di riferimento
dei segnali (e quindi della rete topogra�ca di inquadramento) imponendo
i valori delle coordinate rispettive (modalità survey registration); invece, le
scansioni senza target sono state allineate tra loro e con quelle contenenti
i segnali, per mezzo delle ampie sovrapposizioni tra acquisizioni successive
(modalità cloud registration). Operativamente, nella prima fase le due generiche scansioni sono state avvicinate su punti naturali omologhi comuni, ben
visibili e riconosciuti sulle nuvole di punti: successivamente è stato applicato
l’algoritmo ICP (Iterative Closest Point) per realizzare un allineamento più
preciso (Besl, McKay 1992; Chen, Medioni 1992; Rusinkiewicz, Levoy
2001). La co-registrazione di tutte le nuvole di punti degli alzati conservati,
relativi sia alla campagna del 2007 sia a quella del 2008, ha permesso di generare il modello 3D �nale per nuvola di punti con errore massimo di 6 mm
e risoluzione non superiore ad 1 cm (Fig. 11).
Nel caso invece dei due blocchi di crollo, l’allineamento delle nuvole
di punti è stato effettuato solo in modalità cloud registration per l’assenza di
target laser scanning georiferiti. I modelli 3D �nali dei due blocchi sono stati
generati con errore massimo di 5 mm.
3.3 Texture mapping dei modelli generati
L’informazione radiometrica, correttamente texturizzata sui rispettivi
modelli tridimensionali, fornisce prodotti fotorealistici e immediatamente
utilizzabili, che risultano molto utili soprattutto per rilievi ad alta risoluzione e
analisi globali. Il texture mapping dei modelli per nuvola di punti con immagini
digitali ad alta risoluzione è stato realizzato con il software Reconstructor 2.
Sono stati identi�cati e misurati punti omologhi, facilmente riconosciuti tra
modello 3D visualizzato in base ai valori di ri�ettanza e le immagini digitali.
In questo modo, sia per le murature che per i paramenti murari dei blocchi
366
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
Fig. 11 – Modello �nale 3D del castello di Onigo ottenuto dall’allineamento di tutte le nuvole
di punti.
367
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 12 – Scansioni relative alla muratura in prossimità dell’ingresso al castello: a) per nuvola di
punti e b) dopo la texturizzazione del modello 3D.
Fig. 13 – Visualizzazione tridimensionale della porzione muraria relativa alla cinta meridionale del
dongione: si notino le parti rappresentate per nuvola di punti e quelle texturizzate.
acquisiti, ad ogni punto del modello è stata associata l’informazione di colore
che deriva dai pixel delle immagini digitali (Figg. 12-13).
Il modello texturizzato ottenuto permette una chiara lettura della tessitura dei paramenti, metricamente corretta e utile per analisi comparative
e studi di stratigra�a muraria; inoltre, consente di progettare restauri con368
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
Fig. 14 – Rappresentazione esempli�cativa del grado di dettaglio della texturizzazione che consente
un’agevole lettura della tessitura muraria.
servativi mirati, anche per quelle strutture dif�cilmente rilevabili con metodi
diretti (Fig. 14).
3.4 Anastilosi virtuale della torre
In continuità con quanto realizzato precedentemente, i modelli dei due
crolli rilevati nella campagna del 2008 sono stati roto-traslati nella posizione
fornita dal raddrizzamento delle immagini disponibili prima del crollo del 1989
(Frassine et al. 2008, 307-309). Non avendo altre informazioni, per la collocazione virtuale dei blocchi è stata mantenuta l’ipotesi di verticalità della torre
rispetto al piano del prospetto individuato dal fotopiano. È stato quindi possibile
posizionare virtualmente in 3D cinque blocchi di crollo con la relativa texture,
ossia tutti quelli individuati dallo studio compiuto sulle murature (Fig. 15).
369
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Fig. 15 – Anastilosi parziale texturizzata della torre con l’esatta collocazione virtuale dei cinque
blocchi di crollo.
3.5 Conclusioni
L’integrazione delle metodologie di rilievo 3D, e in particolare del laser
scanning terrestre, con le tecniche topogra�che classiche, ha permesso l’estrazione di un modello accurato e ad alta risoluzione di tutto il castello di Onigo.
La topogra�a classica risulta, infatti, indispensabile per la realizzazione di reti
di inquadramento, necessarie per la misura di tutti i target laser scanning in
uno stesso sistema di riferimento. In questo modo è dunque possibile allineare
le singole scansioni laser utilizzando le coordinate dei target georiferiti come
punti �ssi senza la necessità di sovrapposizioni reciproche tra nuvole di punti
adiacenti, se non per garantire la continuità di rilievo e di rappresentazione.
Il modello estratto è stato quindi texturizzato con immagini digitali metriche
ad alta risoluzione ottenendo un prodotto non solo metricamente corretto,
ma anche fotorealistico con una chiara lettura della tessitura muraria.
370
“Mura Bastia”. Dati archeologici, informatizzazione e rilievi 3D laser scanning
Il rilievo dei blocchi, già posizionati in 2D sulla base di immagini storiche
retti�cate antecedenti al crollo del 1989, è stato completato nella campagna
del 2008. I modelli dei due massi rimanenti sono stati roto-traslati nel sistema di riferimento della torre ottenendo l’anastilosi parziale del paramento
est mediante il posizionamento virtuale 3D di cinque crolli texturizzati. La
metodologia descritta risulta quindi particolarmente utile per la ricostruzione
virtuale di strutture ridotte in frammenti, quando sono disponibili due fattori
essenziali: il rilievo 3D dei singoli elementi, insieme alle informazioni inerenti
la forma originaria dell’oggetto prima della distruzione.
M.F., V.A., D.B.
Matteo Frassine
Dipartimento di Archeologia
Università di Padova
Alessandro Bezzi
Arc-Team s.n.c
Massimo Fabris, Vladimiro Achilli, Denis Bragagnolo
Dipartimento di Architettura, Urbanistica e Rilevamento
Laboratorio di Rilevamento e Geomatica
Università di Padova
Ringraziamenti
Gli autori desiderano ringraziare coloro che hanno consentito lo svolgersi delle attività di
ricerca in tutti questi anni: la Regione Veneto, il Comune di Pederobba e la fondazione Opere Pie.
Un sentito ringraziamento per la sponsorizzazione fornita deve essere rivolto alla ditta locale “Asolo
Costruzioni e Restauri”, nonché al signor Renzo Sartor, titolare dell’“Autof�cina concessionaria
automobili Sartor” di Onigo di Pederobba, che ha gentilmente messo a disposizione un piccolo
ultraleggero (P92-S Echo), grazie al quale è stato possibile eseguire un lungo sorvolo del sito forti�cato, ottenendo una nuova documentazione fotogra�ca aerea dell’area di scavo. In�ne, gli autori
ringraziano l’ing. Andrea Menin e la dott.ssa Ginevra Boatto del Laboratorio di Rilevamento e
Geomatica dell’Università di Padova per il contributo fornito nell’elaborazione dei dati.
BIBLIOGRAFIA
Bagnara R., Macchi Jànica G. (eds.) 2006, Open Source, Free Software e Open Format nei
processi di ricerca archeologici. Atti del I Workshop (Grosseto 2006), Firenze, Centro
Editoriale Toscano.
Barton M., Bezzi A., Bezzi L., Francisci D., Gietl R., Neteler M. 2006, GRASS, un potente
GIS per archeologi, in Bagnara, Macchi Jànica 2006, 95-101.
Besl P.J., McKay N.D. 1992, A method for registration of 3-D shapes, in IEEE Transactions
on Pattern Analysis and Machine Intelligence, 14, 2, 239-256.
Bezzi A., Bezzi L., Francisci D., Gietl R. 2005a, L’utilizzo di GRASS in archeologia, «Geomatic Workbooks», 5, 2005.
Bezzi A., Bezzi L., Francisci D., Gietl R. 2005b, ArcheOS 1.0 Akhenaton, the �rst GNU/
Linux live distribution for archaeologists, in W. Boerner, S. Uhlirz (eds.), Archäologie
und Computer 2005. Workshop 10, Kulturelles Erbe und neue Technologien, Wien,
CD-Rom.
371
M. Frassine, A. Bezzi, M. Fabris, V. Achilli, D. Bragagnolo
Bezzi A., Bezzi L., Gietl R. 2006a, Aramus 2006: an international archaeological expedition
completely supported by Free and Open Source Software, in W. Boerner, S. Uhlirz
(eds.), Archäologie und Computer 2006, Workshop 11, Kulturelles Erbe und neue
Technologien, Wien, CD-Rom.
Bezzi A., Bezzi L., Francisci D., Gietl R. 2006b, ArcheOS 1.1.6. Akhenaton: la nuova
release della prima distribuzione GNU/Linux per archeologi, in Bagnara, Macchi
Jànica 2006, 7-16.
Chen Y., Medioni G. 1992, Object modelling by registration of multiple range images, «Image
and Vision Computing», 10, 3, 145-155.
Ercolino R. 2004, Settore H, in G. Rosada (ed.), Pederobba - Onigo (Treviso): Mura della
Bastia. Scavo delle strutture e del deposito medievale: campagna 2003, «Quaderni di
Archeologia del Veneto», 20, 49-54.
Frassine M. 2007, Settore H ambiente 200, in G. Rosada (ed.), Onigo (Treviso): Mura della
Bastia. Campagna 2006, «Quaderni di Archeologia del Veneto», 23, 60-62.
Frassine M. 2008, Una campagna di passaggio, una svolta per il sito ‘Mura Bastia’, in M.
Frassine, G. Rosada (eds.), Onigo (Treviso): Campagna 2007. Scavo archeologico e
rilievo 3D laser scanning di “Mura Bastia”, «Quaderni di Archeologia del Veneto»,
24, 51-54.
Frassine M. 2009, Scavi, rilievi e restauri nel castello degli Onigo, in M. Frassine, G. Rosada
(eds.), Onigo, “Mura Bastia”: campagna 2008, «Quaderni di Archeologia del Veneto»,
25, in corso di stampa.
Frassine M., Rosada G., Fabris M., Achilli V., Bragagnolo D., Bezzi A. 2008, “Mura
della Bastia” - Onigo di Pederobba (Treviso). Ricerche archeologiche, rilievo 3D laser
scanning e anastilosi virtuale in un castello medievale del Pedemonte trevigiano, «Archeologia e Calcolatori», 19, 293-321.
Grossi P., Pirotti F., Pontin M. 2004, Rilievo, posizionamento geodetico, elaborazione gra�ca
nelle campagne 2002-2003, in G. Rosada (ed.), Pederobba - Onigo (Treviso): Mura
della Bastia. Scavo delle strutture e del deposito medievale: campagna 2003, «Quaderni
di Archeologia del Veneto», 20, 47-49.
Marchiori A. 2003, Settore H, in A. Marchiori (ed.), Onigo (Treviso) 2002: ripresa degli
scavi del castello in località “Mura della Bastia”, «Quaderni di Archeologia del Veneto», 19, 77-82.
Rusinkiewicz S., Levoy M. 2001, Ef�cient variants of the ICP algorithm, in Proceedings of
the Third International Conference on 3D Digital Imaging and Modelling (Quebec
City 2001), 145-152.
ABSTRACT
This paper concerns computer applications for the management of archaeological data
through GIS software, as related to the 2008 excavation campaign at “Mura Bastia”, Onigo
(Treviso), Italy. The approach allows for the correlation of data previously acquired with
those collected more recently using newer technologies. The shift from the traditional way
of drawing archaeological records to the new digital technique began during the excavation
of 2007. All of the walls and the layers were documented using a total station and a digital
camera (photomosaic method). The elaboration of raw data was obtained using Free and Open
Source Software only (GRASS, E-FOTO, GIMP, OPENJUMP, gvSIG). All of the new information levels (bi-dimensional raster and vector layers) were connected with the digitized plan of
the old excavation into a GIS project that became the �nal product of the whole work. 3D
terrestrial laser scanning surveys, integrated with classical topography and digital photogrammetry methodologies, allowed us to extract an accurate and photorealistic digital model of the
Onigo castle. Moreover, a partial 3D virtual anastylosis of the tower was completed thanks to
the reallocation of two missing elements in their correct position.
372
Archeologia e Calcolatori
20, 2009, 373-396
BAIA: LE TERME SOMMERSE A PUNTA DELL’EPITAFFIO.
IPOTESI DI RICOSTRUZIONE VOLUMETRICA E CREAZIONE
DI UN MODELLO DIGITALE*
1. Introduzione
Quando, ventiquattro anni fa, iniziammo il rilievo dei ruderi sommersi
presso Punta dell’Epitaf�o a Baia elaborammo un disegno in scala 1:250 di
quei resti murari nei quali fu possibile riconoscere un complesso termale1. Un
accurato esame delle murature superstiti e di interventi, quali ristrutturazioni,
ripavimentazioni e tompagnature, ci permise di ricostruire anche le principali
fasi di vita di quegli edi�ci.
In questa sede intendiamo andare oltre nell’analisi del primo rilievo per
tentare di ricostruire la volumetria delle terme sommerse a Punta dell’Epitaf�o,
ovvero analizzeremo gli aspetti peculiari di taluni ambienti e, di volta in volta,
ne proporremo un’ipotesi di ricostruzione tridimensionale.
Ovviamente nessun risultato de�nitivo può scaturire da dati parziali
come quelli che emergono da un’indagine dei soli resti murari ancora visibili (il
rilievo subacqueo è stato condotto unicamente sulle strutture che emergevano
dal fondo sabbioso preventivamente liberato dal perenne “tappeto” di alghe).
Tuttavia sentivamo impellente l’esigenza di non fermarci al solo rilievo; volevamo ridare dignità di monumento a quelli che, da sempre, apparivano come
anonimi ammassi di pietre o, dopo la loro pubblicazione, �gure geometriche
disegnate su un foglio. Abbiamo quindi intrapreso un cammino lunghissimo
che ha richiesto l’acquisizione delle tecniche di modellazione tridimensionale
e di tutte quelle metodiche, divenute ormai classiche, di texturing e rendering
per giungere, in�ne, alla realizzazione di un modello tridimensionale con resa
il più possibile fotorealistica (Borra 2000, 259-272).
Partendo da un accurato rilievo manuale delle dimensioni delle murature
superstiti e delle rispettive altezze dai piani di calpestio sono stati creati due
modelli: il primo mostra la situazione dei resti murari come si presentavano
negli anni Ottanta al tempo del rilievo e quindi riproduce, in ambiente subacqueo, i “ruderi” del quartiere termale e la strada che lo �ancheggia (Fig. 1).
* Desidero ringraziare l’ing. Pompeo Vallario la cui pazienza e competenza sono state per me
indispensabili per la creazione delle immagini di questa relazione. Un ringraziamento va anche al dott.
Eduardo Scognamiglio con il quale ho condiviso lunghe ore in immersione e lunghissime serate a discutere
sui molti misteri ancora insoluti di queste terme sommerse. Sono grato anche all’amico dott. Di Fraia a
cui si deve la prima interpretazione di quei resti murari.
1
I risultati di questa ricerca sono pubblicati in Di Fraia et al. 1985-86. In quella sede sono state
presentate le descrizioni accurate di tutte le murature riportate nel rilievo, a cui si fa riferimento nel presente
articolo. Cfr. più di recente Lombardo 1993.
373
N. Lombardo
Per le oggettive dif�coltà di operare in ambito subacqueo e per l’impossibilità
di realizzare scavi sistematici che restituissero gli ambienti nella loro totalità,
non sono state applicate texture tratte da foto scattate in situ, ma riprese
da murature fotografate in ambito aereo, rispettando, ovviamente, il tipo di
muratura e/o di rivestimento. Il secondo modello, partendo dalle informazioni
del primo, propone una ricostruzione totale degli ambienti, aggiungendo le
porzioni mancanti delle pareti e le coperture. In un secondo momento si sono
create e aggiunte le decorazioni parietali e pavimentali e pochi, scelti, elementi
d’arredo (porte, cancelli, transenne, panche), evitando una sovrabbondanza
di elementi, soprattutto decorativi che, pur aumentando l’impatto visivo,
avrebbero difettato di veridicità.
Per quanto riguarda le immagini, ad esclusione della planimetria, si
tratta di inediti. Queste immagini sono in realtà singoli fotogrammi estrapolati da una serie di animazioni realizzate intorno e all’interno di un modello
digitale in 3D del quartiere sommerso di Punta dell’Epitaf�o ricostruito, da
chi scrive, in scala 1:1.
Il lavoro di ricostruzione tridimensionale in digitale degli edi�ci sommersi nella rada di Baia è stato iniziato, come si è detto, circa venti anni or
sono e in questa sede sono presentati, per la prima volta, i risultati di questa
ricerca.
2. La pianta
Anche ad un osservatore inesperto non sfugge il disegno poco omogeneo
degli spazi: ad un nucleo, quello settentrionale (Tav. I, in giallo), con orientamento nord-sud, ben in asse anche con la breve rampa che dalla strada basolata
consentiva la discesa alle terme, si af�anca un blocco obliquo con orientamento
nord-est/sud-ovest (Tav. I, in verde) e tra i due un terzo blocco costituito da due
ambienti dalla forma irregolare e da un corridoio il cui pavimento è impostato
su muretti paralleli a mo’ di suspensurae (Tav. I, in rosso).
Di Fraia ha chiarito i motivi salienti di questa disomogeneità planimetrica (Di Fraia et al. 1985-86, 253-254); qui ci limiteremo a dire che si tratta
di due nuclei chiaramente distinti per funzione e cronologia.
3. L’ambulacro n. 62
L’ambulacro, che all’epoca del nostro rilievo ancora conservava in
parte il suo tessellato bianco (Di Fraia et al. 1985-86, 227-230, �gg. 9-10),
limita ad ovest tutto il quartiere sommerso e corre parallelo alla strada che,
in posizione più elevata, �ancheggia le terme.
2
374
La numerazione degli ambienti corrisponde a quella indicata nella pianta a Tav. I.
Baia: le terme sommerse a Punta dell’Epitaf�o
Tav. I – Le terme di Punta dell’Epitaf�o.
Fig. 1 – Strada sommersa. I gradini di accesso alle terme, la piccola vasca rettangolare n. 17 e, al
centro, il corridoio n. 6.
375
N. Lombardo
Discesi i due gradini che dalla strada immettono alle terme (Di Fraia et
al. 1985-86, 218-250; cfr. anche Lombardo 1993, 57, �g. 1), come doveva
presentarsi questo spazio ai frequentatori di III secolo che lo percorrevano
da nord verso sud? Purtroppo il pessimo stato di conservazione di quest’area,
invasa da crolli di ogni genere e ricoperta da un compatto strato di pietrisco
e di alghe, fornisce scarsissimi elementi documentari.
Analizziamo comunque i resti sommersi della parte orientale. Sul lato
sinistro, ad angolo con la corte d’ingresso (Tav. I, n. 2), un piccolo vano cieco (m
1,63×2,10), il cui elevato si conserva per non più di due �lari laterizi, potrebbe
far pensare ad un bacino di fontana o ad un castellum aquae (Tav. I, n. 17).
Subito oltre, verso sud, si riconosce un ambiente rettangolare interpretato come natatio (Di Fraia et al. 1985-86, 246-248, �gg. 18-19; Lombardo
1993, 61, �g. 8). Per accedere a questo vano si realizzò il corridoio rialzato su
muretti paralleli che si rinviene subito a sud e che corre in direzione ovest-est
(Tav. I, in rosso).
È probabile che su questo lato (ovest) la natatio fosse priva di aperture così da assicurare ai bagnanti anche una certa privacy rispetto a quanti
transitavano nell’adiacente corridoio (n. 6). Quindi in questo primo tratto la
parete orientale dell’ambulacro n. 6 presumibilmente doveva apparire lineare
e continua, forse movimentata appena da una decorazione di lesene e lastre di
marmo (in più punti nelle pareti si sono notati i fori per le grappe metalliche
atte a fermare le lastre del rivestimento in marmo).
Continuando verso sud, si è in corrispondenza del piccolo vano cieco di
forma triangolare e della vasca minore del frigidario (n. 13) ricavata per intero
nello spessore del muro; pertanto anche questo tratto dif�cilmente poteva
prevedere delle aperture. Troviamo una seconda apertura solo all’estremità
meridionale di questo lungo tratto rettilineo, nel punto in cui si rinviene
l’ingresso principale alla parte propriamente termale; qui la parete piegava
ad “elle” verso sud-ovest e il corridoio che stiamo seguendo raggiungeva la
zona antistante il ninfeo di Claudio.
Percorriamo adesso la facciata ovest, ossia il muro che materialmente
separava le terme dalla strada. Pinneggiando da nord verso sud, e cioè dai
gradini della strada soprelevata sino al punto in cui il corridoio svolta a sudovest, si resta colpiti dalla maestosità dei crolli e degli smottamenti dei basoli
della strada che hanno invaso, scivolando via dalla sede originaria, una parte
del corridoio (Fig. 1).
Ciò nonostante, quando fu eseguito il rilievo della zona ancora si riconoscevano due tratti di cementizio rivestiti di opus reticulatum e latericium: i
miseri resti del muro occidentale. Non è dif�cile immaginare che anche questa
parete doveva presentarsi rettilinea e uniforme per tutta la sua lunghezza
con un’unica apertura in corrispondenza dei gradini che davano accesso alle
terme. Negli anni Ottanta due brevi ante in laterizio erano ancora in parte
376
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 2 – Corridoio n. 6. A destra le scale di accesso alle terme; a sinistra il bacino di fontana e la
corte scoperta antistante le scale.
visibili ai lati di questo ingresso (Tav. I, sui lati dei due basoli rettangolari;
cfr. anche Fig. 1).
Ci sembra che nulla ostacoli l’ipotesi che l’ambulacro n. 6 fosse dotato
di una copertura, se non il fatto che uno spazio lungo 27 m e largo appena 2
poteva creare qualche problema di luminosità se destinato ad essere coperto.
Forse una serie di aperture era sul lato occidentale verso la strada; alcune �nestre, poste in posizione elevata, impedivano ai curiosi di sbirciare all’interno
e fornivano l’illuminazione di cui c’era bisogno. In realtà, particolarmente
per questo spazio adiacente alle scale, per i problemi di conservazione a cui si
accennava in precedenza, la nostra ricostruzione non può che essere parziale:
in che modo l’eventuale volta dell’ambulacro si raccordava con l’area della
corte (n. 2)? Questo spazio era a sua volta coperto? Questi e per la verità
molti altri interrogativi restano per ora senza risposta (Fig. 2).
Per il corridoio n. 6 abbiamo immaginato una copertura con volta a
botte e solaio (un esempio di corridoio di servizio coperto con solaio in Broise
1987, 103-107, 111-113).
377
N. Lombardo
Fig. 3 – Interno dell’ambiente n. 9. Volta coperta a botte con due �nestre sui lati brevi. Al centro
l’ingresso orientale da cui si accedeva al tepidario.
4. L’ambiente n. 9
L’ambiente misura m 3,28×5,94 e al momento del rilievo mostrava tre
ingressi e i resti del pavimento in tessere bianche. Siamo nel cuore del nucleo
termale, a ridosso della parte centrale del frigidario e dell’abside settentrionale del calidario n. 10. Un ambiente di dimensioni ridotte, dalla forma
rettangolare allungata, nel quale possiamo riconoscere un apodyterium. Un
tempo, forse, sulla parete settentrionale (oggi crollata e riversa al suo interno) ci potevano essere nicchie entro le quali i frequentatori depositavano le
proprie vesti per poi avviarsi, attraverso l’ingresso posto ad est, nel tepidario
n. 11 (Fig. 3).
Per la nostra ricostruzione abbiamo immaginato le pareti di questo
ambiente lisce e in parte ci siamo rifatti all’apodyterium del settore femminile delle Terme Stabiane a Pompei, che presentava pareti intonacate di
colore rosso e giallo con volta a botte e lunette di colore chiaro (Eschebach
1979).
378
Baia: le terme sommerse a Punta dell’Epitaf�o
5. Il tepidario n. 11
Siamo nella zona meglio conservata di queste terme sommerse, tanto che
le altezze delle pareti variano da m 0,40 �no a m 1,35. Pinneggiando sul fondo,
la lettura della pianta è immediata: un bell’ambiente di forma rettangolare
(misura m 5,30×7,33) con numerosi ingressi, due dei quali tompagnati.
Il rilievo e lo studio dei livelli hanno chiarito che il piano di calpestio è
stato divelto; così gli elementi in cotto visibili, ancora ben ancorati tra loro,
sono quel che resta della sottopavimentazione.
Due piastrini laterizi, lungo le pareti orientale e occidentale, testimoniano
che un tempo il pavimento doveva essere sorretto da simili elementi. Ai tempi
del rilievo si conservava solo un piccolissimo tratto del piano originario, nell’angolo occidentale, nei pressi della soglia di accesso al frigidario; ma i resti di
queste lastre di marmo erano talmente esigui che non possono aiutarci in una
ricostruzione attendibile. Anche in questo ambiente abbiamo immaginato delle
nicchie per il deposito di effetti personali e qualche panca lungo le pareti.
Con buona probabilità il tepidario non prevedeva �nestre, ma la luce
poteva �ltrare da aperture nelle lunette della volta che, nella nostra ricostruzione, è stata ipotizzata essere a botte (Fig. 4).
6. Il calidario n. 10
Le sue possenti pareti, risultato di numerosi rimaneggiamenti, raggiungono lo spessore massimo di m 1,65 e l’altezza di m 1,60. Si presenta di
forma rettangolare (misura m 8,88×5,86), con due absidi sui lati brevi. Gli
ingressi, in numero di tre sui lati lunghi, ne completano la pianta. Il piano
di calpestio è completamente scomparso e in buona parte ricoperto di crolli;
in taluni punti emerge la sottopavimentazione in bessales: gli unici elementi
certi che hanno guidato la nostra ricostruzione.
La parete nord è leggermente absidata ed è qui che abbiamo posto il
labrum, in questa sorta di schola labri; la parete sud, invece, mostra una nicchia rettangolare nella quale facilmente poteva essere collocata una vasca per
le abluzioni (alveus). Le pareti, immaginate prive di �nestre per ovvi motivi
pratici, nella nostra ricostruzione sono state rivestite di marmi policromi con
una sobria decorazione di tipo generico. Lungo le pareti, anche in questo caso,
ci è sembrato opportuno disporre delle panchine in marmo. La volta è stata
immaginata del tipo a crociera (Fig. 5).
7. Il frigidario n. 13
Con i suoi m 17,50×8,50 è l’ambiente più grande di questo quartiere sommerso e ne rappresenta, anche visivamente, il centro. Il rilievo ha
379
N. Lombardo
Fig. 4 – Interno del tepidario. A destra, in fondo, l’ingresso al calidario. Probabilmente non vi erano
�nestre, ma la luce penetrava dalle aperture sulla volta.
evidenziato numerosi rimaneggiamenti che, nel tempo, ne hanno mutato
notevolmente l’aspetto. Si notano, infatti, due ingressi tompagnati nell’area
occupata dalla grande vasca, una tompagnatura poi occultata da un muro
con andamento curvilineo e un riempimento assai eterogeneo nella parte mediana di forma quadrata; per motivi di simmetria, certamente anche sul lato
meridionale venne aggiunto un elemento murario con andamento curvilineo
di cui però non resta alcuna traccia.
Il fatto poi che si sono rinvenuti i due ingressi tompagnati nella porzione orientale può signi�care solo una cosa: nel progetto originario questo
spazio non doveva essere una vasca. Pur tuttavia il rilievo ha evidenziato un
piano cementizio posto a m -1,75 (la misura va riferita alla strada sommersa
assunta come quota zero), mentre la parte centrale del frigidario conserva
la ruderatio a m -1,10 ca. e, a marcare verso ovest questo spazio-vasca, nel
1984, era ancora possibile seguire la labile traccia di un muretto spesso, come
quelli perimetrali, ca. 52 cm (Fig. 6).
380
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 5 – Interno del calidario. Al centro, l’abside settentrionale che ospita il labrum. A destra l’ingresso
al tepidario e sulla parete opposta la porta che immette nell’ambiente di transito n. 8.
Una vasca, dunque, dal fondo absidato e delimitata da un muretto,
similmente a molti esempi presenti a Ostia, a Villa Adriana e a Roma3. Nella
nostra ricostruzione, rifacendoci a questi esempi, abbiamo immaginato che
l’ingresso alla vasca potesse anche prevedere delle colonne a sostenere un
architrave con funzione puramente decorativa (Fig. 7).
Purtroppo nulla resta degli antichi pavimenti. La nostra ricostruzione
può solo servire da spunto per immaginare la ricchezza di quelli originali.
Tuttavia si è cercato di disegnare un pavimento con piccole tarsie policrome
che rispecchiassero il più fedelmente possibile la forma, le dimensioni e la
tipologia dei marmi rinvenuti durante la pulizia e il rilievo dell’ambiente.
3
Ad Ostia il frigidario delle Terme del Foro aveva 2 colonne all’ingresso (resta solo la traccia delle
basi e delle lesene laterali). Due gradini formano la vasca profonda ca. m 1, lungo le pareti si notano ancora
due nicchie e sul fondo l’abside con un’apertura nel centro forse una �nestra. Anche il frigidario delle
Piccole Terme a Villa Adriana ha una forma rettangolare allungata che termina con un’abside �nestrata.
A Roma il frigidario delle Terme degli Arvali ha una pianta del tutto simile al nostro, ma sdoppiata.
381
N. Lombardo
Fig. 6 – La scheda di immersione n. 24 redatta il 27/8/1984, che mostra la prima
fase del rilievo della vasca del frigidario con le annotazioni relative. Si nota bene il
muro di delimitazione della grande vasca (cortesia E. Scognamiglio).
Identico discorso vale per la decorazione parietale. Un solo elemento
è stato rinvenuto in situ e fedelmente riportato nella nostra ricostruzione: si
tratta di una spessa lastra di marmo grigio con venature bianche che, nel 1984,
ancora si conservava nell’angolo occidentale della grande vasca. Per il resto
si è scelto di usare crustae marmoree a formare semplici disegni geometrici
con specchiature policrome impiegando quegli stessi marmi, i cui frammenti
382
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 7 – Frigidario. Dalla grande vasca lo sguardo dei bagnanti era guidato verso la piccola vasca
sul lato opposto. Nelle ore centrali della giornata il sole, penetrando dalle �nestre del lato breve a
sud-ovest, creava suggestivi giochi di luce.
furono rinvenuti sparsi al suolo nella pulizia dell’ambiente. Si tratta soprattutto
di por�do rosso, “portasanta”, “serpentino” e rosso antico. In alternanza si
è scelto di usare marmo bianco venato e grigio venato, giallo antico e verde
antico (un sondaggio eseguito nella vaschetta del frigidario restituì numerosi
frammenti di questi e altri tipi di marmi).
Nella nostra ipotesi di ricostruzione abbiamo immaginato il frigidario
così come poteva apparire intorno al III secolo d.C., quando un frequentatore, immerso nella grande vasca absidata, poteva vedere la parte mediana di
questo edi�cio caratterizzata da due setti murari curvilinei che “guidavano”
lo sguardo verso la piccola vasca ad ovest, creata nello spessore della parete
di fondo. Gli antichi architetti escogitarono, dunque, un espediente prospettico per creare, all’interno di un perimetro convenzionale, un insospettabile
“gioco volumetrico” (Fig. 7).
Sul lato occidentale, opposta alla grande vasca e incassata nello spessore
murario, si conservava, al tempo del rilievo, una piccola abside in opera reticolata rivestita di signino; gli scarsi resti di un muretto posto dinnanzi lasciavano
intuire che in quel punto, in antico, dovette esserci una seconda vasca.
383
N. Lombardo
Certamente, a giudicare dai fori presenti nell’opera reticolata, almeno
�no ad una certa altezza, l’abside era rivestita di marmi, mentre la parte alta,
forse, prevedeva stucchi e pitture policrome. Durante le fasi di pulizia, si rinvenne anche un frammento di intonaco rosso con strisce dorate (Fig. 8).
In considerazione dei numerosi rimaneggiamenti e forse anche dei
cambiamenti di funzione (cfr. supra), anche in questo caso per il tipo di copertura del frigidario si è preferito proporre la soluzione più semplice: una
volta a botte dotata di �nestroni sui lati brevi (nella nostra ricostruzione ci
siamo limitati alle murature e a poche decorazioni, ma era uso comune dotare
le �nestre degli ambienti termali di vetri: Seneca, Epistulae morales, 90.25;
Broise 1991, 61-78) (Fig. 9).
Questa soluzione permette di risolvere senza troppi problemi statici e
strutturali il raccordo tra la grande vasca e la parte mediana in corrispondenza con l’ingresso all’ambiente n. 11. Osservando la pianta, infatti, si nota
che in questo punto la larghezza del frigidario subisce un restringimento. Se
la parete settentrionale prosegue ben dritta dall’angolo nord-orientale della
grande vasca sino all’angolo nord-occidentale oltre l’ingresso del calidario
n. 14, la parete meridionale subisce un’interruzione subito ad ovest del muro
di accesso alla grande vasca per proseguire poi in modo più arretrato sino
all’ingresso a sud della piccola vasca. Questo particolare comporta, inevitabilmente, un restringimento anche della copertura che, nel caso di una volta
a botte, è risolvibile con un tramezzo che raccorda, su questo lato, le due
diverse ampiezze.
8. Il calidario n. 14
Quest’ambiente rettangolare absidato, rinvenuto a ridosso del frigidario
con cui comunica tramite un ingresso sulla parete meridionale, non presenta la
canonica forma dei calidaria dei bagni pubblici che prevedevano generalmente
un aspetto più allungato e un alveus. Anche la sua collocazione spaziale è
anomala essendo posto a nord del frigidario (generalmente i calidaria erano
posizionati a sud-ovest: Vitruvio, De Architectura, 5.10.1); pur tuttavia durante il rilievo eseguito nel 1984 si rinvennero nell’angolo sud alcuni tubuli
�ttili ancora in situ, disposti verticalmente nella parete. Il piano di calpestio,
al contrario, era completamente scomparso e restava solo una minima traccia
della sottopavimentazione laterizia. La parte mediana dell’abside era divelta
e giaceva sulla ruderatio (un’immersione eseguita nel 2001 ha evidenziato
tracce che farebbero pensare ad un ingresso poi tompagnato).
La decorazione parietale e pavimentale di quest’ambiente è dunque completamente e de�nitivamente scomparsa, ma le descrizioni di autori classici ed
esempi ancora visibili a Ostia e a Pompei ci danno un’idea e ci hanno guidato
nella nostra ricostruzione. Inoltre, nelle fasi di pulizia e rilievo si rinvennero
384
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 8 – Parte occidentale del frigidario. Sul fondo, a sinistra, l’ingresso all’ambiente n. 8; al centro
la piccola vasca ricavata nello spessore della parete e i due tramezzi con andamento curvilineo; in
primo piano le colonne che decoravano l’ingresso della grande vasca.
Fig. 9 – Le tre fasi del lavoro di ricostruzione. 1: il modello ricavato dal rilievo (in primo piano i
resti murari del frigidario); 2: ricostruzione volumetrica del frigidario (in spaccato); 3: aggiunta
delle decorazioni parietali e pavimentali.
sparsi al suolo frammenti di marmo rosso del Tenaro e “serpentino”; così
abbiamo immaginato una pavimentazione marmorea che contenesse soprattutto questi tipi di marmi.
Per la decorazione parietale ci siamo fatti guidare dalle parole di Seneca
(Epistulae, 86: Alexandrina marmora Numidicis crustis distincta sunt) e ab385
N. Lombardo
biamo rivestito le pareti con lastre di marmo a formare semplici specchiature
con colori alternati giallo e nero. Ci è sembrato opportuno inserire un sedile
di marmo lungo le pareti (un bell’esempio ad Ostia, nelle Terme di Buticosus)
e, rifacendoci agli insegnamenti di Vitruvio, abbiamo coperto quest’ambiente
con una volta a botte rivestita di stucco con le tipiche strigilature che favorivano il de�usso del vapore verso le pareti (una copertura simile a quella delle
Terme Stabiane di Pompei). Per quanto riguarda l’illuminazione, la soluzione
più adeguata è sembrata una �nestra zenitale al centro dell’abside. Per gli ambienti riscaldati queste aperture risultavano più adatte rispetto a quelle poste
a mezza altezza poiché favorivano in maniera più ef�cace la ventilazione e la
regolazione della temperatura. Oltretutto in tal modo si evitava che i bagnanti
avvicinandosi al labrum lo oscurassero con le proprie ombre (Vitruvio, De
Architectura, 5.10.5) (Fig. 10).
9. Il cortile (palestra?) n. 7
Posto all’estremo sud del nucleo propriamente termale, questo spazio,
delimitato a sud-est e a sud-ovest da esili pareti in laterizio spesse appena cm
25-30, ha subito, molto più dei vani ad esso adiacenti, i danni del tempo. Le
pareti più esterne, infatti, si conservano per un’altezza massima di soli cm 8
e sono state quasi del tutto ricoperte, così come il piano di calpestio, da uno
strato di fanghiglia e alghe che rese faticosissimi la pulizia e il rilievo. Unico
elemento degno d’interesse e utile per la ricostruzione di questo spazio dalla
forma quadrangolare irregolare è la presenza, sul lato nord-orientale, di una
soglia in marmo bianco, che nel 1984 ancora mostrava un cardine bronzeo
�ssato con una colatura di piombo4. Due basi rettangolari caratterizzano la
parete nord-ovest che mostra tre ingressi (Fig. 11).
Quale dovette essere la funzione di quest’ambiente, verosimilmente
scoperto, posto all’estremo meridionale delle terme di Punta dell’Epitaf�o?
Forse si tratta di uno spazio-cortile che fungeva da palestra e da raccordo
tra quest’area termale e quella posta nelle immediate adiacenze del Ninfeo
di Claudio.
10. Il cortile n. 3
Esaminiamo ora la parte settentrionale di questo quartiere sommerso.
Discese le scale di accesso alle terme, pinneggiando verso nord-est, ci si ritrova in un spazio di vaste proporzioni (m 24,60×7,50) di forma rettangolare,
4
Purtroppo non esiste alcuna documentazione fotogra�ca di questo singolare oggetto, poiché il
giorno successivo il suo rinvenimento risultava già scomparso. C’è da considerare che negli anni Ottanta
l’area di Punta dell’Epitaf�o con i suoi preziosi resti sommersi non era sottoposta a nessuna forma diretta
di vincolo o tutela; anzi era frequentata da numerosissimi subacquei che si dedicavano alla pesca di frutti
di mare e alla raccolta indiscriminata dei più svariati tipi di souvenir.
386
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 10 – Calidario. In alto si nota la volta con strigilature. La luce penetra dall’alto da una �nestra
azimutale. Al centro dell’ambiente si è ipotizzata la presenza di un labrum di marmo e lungo le pareti
di una panca in muratura rivestita di marmo. In fondo, a sinistra, l’accesso al frigidario.
invaso da alcuni crolli e ricoperto da uno spesso tappeto di matta di posidonia. Il rilievo subacqueo ha restituito il perimetro di uno spazio lineare, quasi
elementare, ma nello stesso tempo elegante e raf�nato.
Solo in parte è possibile seguire il lato settentrionale in caementicium
privo di paramento; meglio conservato è il lato lungo ad est �no all’innesto
con la parete meridionale. Un sondaggio eseguito nell’angolo nord-est del
cortile ha chiarito che solo in un secondo momento si costruì, parallelamente
al muro perimetrale, un muretto che addossava le sue testate al rivestimento
parietale in marmo della prima fase.
Questo spazio tra i due muri, lungo m 24,60 e largo m 1, non presenta
tracce di alcun riempimento né indizi che facciano pensare ad un addossamento reso opportuno per problemi statici; anzi il fondo in caementicium
appare lisciato. Riteniamo che questo lato del cortile, in una fase collocabile
nella prima metà del II secolo d.C., vide l’aggiunta di un bacino di fontana,
alto forse intorno al metro, rivestito di marmo e rifornito, mediante cascatelle,
387
N. Lombardo
Fig. 11 – Cortile-palestra. A destra l’ingresso sud-orientale dove, al momento del rilievo, ancora si
conservava un cardine bronzeo. A nord, ben illuminato, uno dei due ingressi al calidario. Al centro
l’ambiente n. 8 con (da nord a sud) l’ingresso al frigidario, la porticina dell’ambiente tessellato n.
9 e un secondo ingresso al calidario.
dall’acqua di una �stula inserita all’interno dello stesso muro perimetrale: un
vero e proprio euripo (Fig. 12). La parete di fondo a sud non presenta particolarità se non nel grande spessore che in taluni punti arriva sino a m 1,20,
tale da giusti�care l’ipotesi della presenza di nicchie atte, magari, ad ospitare
delle statue. Seguendo un gusto che si riscontra in numerose ville impreziosite da decorazioni egittizzanti5, nel nostro caso non è azzardato supporre
che, trattandosi di Baia, la città degli eccessi, si pensò in grande, inserendo
nelle nicchie del muro perimetrale esemplari originali, già all’epoca antichi e
preziosi. Forse in una di queste era collocata quella statua di marmo nero di
cui nel 1985 si rinvenne un frammento di gamba recante su due lati simboli
di scrittura gerogli�ca (Di Fraia et al. 1985-86, 221, �gg. 2-4; attualmente il
5
Un bell’esempio di euripo con annesso ninfeo si conserva ad Ostia nella Domus della Fortuna
Annonaria. Nella casa di Loreio tiburtino a Pompei, intorno ad una vasca lunga e stretta, sono disposte
erme dionisiache, una s�nge e statuette varie.
388
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 12 – Cortile del ninfeo triabsidato. A sinistra l’euripo con le nicchie e le cascatelle; al centro le colonne
e i pilastri coperti da un solaio e, a destra, le due colonne che marcano l’accesso al podio. Sul fondo, in
una nicchia, è stata collocata la statua egizia di cui si rinvenne un frammento durante il rilievo.
reperto si trova esposto al Museo Archeologico Nazionale di Napoli, all’ingresso della Sezione egizia).
Noi immaginiamo, sul lato orientale di questo cortile, una serie di nicchie
che ospitavano cascatelle d’acqua che si riversavano nel sottostante euripo6 e,
sul lato meridionale, statue di provenienza esotica. Un elegante espediente che
in un certo senso “sfondava” il monotono andamento rettilineo dei muri perimetrali e accompagnava lo sguardo dei frequentatori, i quali, entrando in questo
cortile, scoprivano gradualmente, volgendo lo sguardo sempre più verso destra,
il disegno spiccatamente scenogra�co concepito dagli antichi architetti.
Nella parte mediana del cortile, parallelamente all’euripo, dalla piatta
distesa sabbiosa che ricopre il battuto cementizio emergono i resti dei fusti di
6
A Ostia la Domus del Ninfeo presenta un tipo di cascatelle a gradini realizzate con marmi policromi. Nella nostra ricostruzione abbiamo ricreato questo tipo di cascatella.
389
N. Lombardo
Fig. 13 – Facciata del ninfeo con le colonne tortili, le transenne, le colonne trasformate in pilastri e l’ingresso al podio. Sullo sfondo la porzione superiore e la volta della facciata orientale del frigidario.
quattro colonne tortili in basalto nero: quelle centrali mostrano le scanalature
che si avvolgono in senso speculare (Lombardo 1993, 57, �g. 2), quelle più
esterne in un secondo momento furono rivestite di intonaco e trasformate in
tozzi pilastri. Nell’intercolumnio esterno si rinvennero anche i resti di una
transenna di marmo bianco (Di Fraia et al. 1985-86, 224, �g. 5; altre transenne rinvenute nelle acque di Baia sono in Maniscalco 1997: per la nostra
ricostruzione ci siamo ispirati all’esemplare n. 23, 50-52) (Fig. 13).
Le colonne e i pilastri erano liberi o sostenevano una copertura? Se
consideriamo il contesto, un cortile �ancheggiato da un euripo e verosimilmente decorato da cascatelle d’acqua, è plausibile pensare che questa parte del
quartiere era la zona dove si radunavano quanti cercavano un po’ di refrigerio.
Pertanto abbiamo ipotizzato che la parte antistante l’accesso al podio fosse
coperta da un solaio; si creava in tal modo una piccola passeggiata coperta:
l’unico spazio, per quel che sappiamo, utilizzabile per questo scopo all’interno
di questo quartiere termale.
390
Baia: le terme sommerse a Punta dell’Epitaf�o
11. Il ninfeo emidecagonale triabsidato n. 4
I quattro elementi verticali fronteggiano perfettamente la facciata
dell’edi�cio più scenogra�co di tutto il quartiere sommerso: il ninfeo emidecagonale triabsidato su podio (Di Fraia et al. 1985-86, 225-227, �gg. 6-7;
250-258; Lombardo 1993, 59, �g. 3)7.
La presenza delle transenne poste negli intercolumni laterali fa capire
quanto dovesse essere studiato tutto l’insieme del cortile e del ninfeo: i frequentatori erano obbligati, dalla presenza di questi ostacoli sistemati lì appositamente, a compiere un preciso percorso per raggiungere il ninfeo e solo
sostando nello spazio dell’intercolumnio centrale si potevano rendere conto
dell’articolata architettura del ninfeo (e della sua copertura).
Dall’esterno, infatti, era impossibile sospettare che questo vano prevedesse nicchie disposte addirittura radialmente. Una sorpresa dunque attendeva
i visitatori, i quali, discesi in questo cortile dalle canoniche forme rettilinee,
inaspettatamente si trovavano “faccia a faccia” con un edi�cio dalla forma
innovativa e ancor più sorprendente perché camuffato da linee esterne di
tipo consueto.
All’epoca dei nostri rilievi erano ancora ben leggibili il podio e le due
rampe che ne consentivano l’accesso; nella nicchia meridionale erano perfettamente visibili una �la di tarsie policrome in marmo e i resti di una gettata che
aveva ricoperto questo piano. Tuttavia un’immersione esplorativa effettuata
nell’anno 2001 ha reso evidente il devastante trascorrere del tempo: non vi è
più traccia di tarsie marmoree e tutto il podio appare eroso e mancante del
suo piano in vari punti.
I dati in nostro possesso non consentono di rispondere ad alcuni interrogativi su cosa conteneva il ninfeo e sulla presenza di vasche e di nicchie sulle
pareti da cui sgorgava acqua, convogliata in canalette poste sul pavimento.
Negli anni Ottanta il piano di calpestio del ninfeo si presentava abbastanza ben
conservato, ma bisogna considerare che sui resti del podio insistevano crolli,
smottamenti e uno strato compatto di pietrame e alghe che, avviluppando
tutta la parte settentrionale delle terme, rendeva particolarmente laboriosa la
pulizia e il rilievo di quest’area. Nella nostra ricostruzione si è scelto di lasciare
vuoto questo enigmatico edi�cio, dotandolo solo di una decorazione parietale
di genere, immaginata come marmorea sino all’imposta della volta (Fig. 14).
Sulla base di alcuni scatti fotogra�ci eseguiti negli anni Ottanta, ormai unica
e preziosa testimonianza dell’esistenza di quell’antico pavimento, si è scelto di
7
La Domus sul Decumano ad Ostia presenta un cortile rettangolare con il lato di fondo occupato
interamente da uno stretto bacino di fontana; sul lato opposto vi è un ambiente soprelevato il cui ingresso
è marcato da due colonne. Nella Domus della Fortuna Annonaria a Ostia si accede al ninfeo tramite due
ingressi posti ai lati di due pilastrini. Il ninfeo presenta 4 nicchie alternativamente rettangolari e absidate;
su un lato vi è un euripo e sul fondo dell’abside una nicchia.
391
N. Lombardo
Fig. 14 – Interno del ninfeo. Nelle prime ore della mattina il sole inondava di luce il podio. A sinistra
l’ingresso all’ambiente n. 5.
ricostruire il piano del podio del ninfeo con piccole tarsie marmoree, replicando
dimensioni e applicando delle texture che riproducessero il più fedelmente possibile i marmi che realmente si rinvennero al momento del rilievo subacqueo (Di
Fraia et al. 1985-86, 225, �gg. 6 e 7; Lombardo 1993, 55, �g. 3). Ovviamente,
considerando il numero esiguo di tarsie che all’epoca ancora si trovavano in situ,
il disegno originario è destinato a rimanere ignoto; ci limitiamo in questa sede,
ed è opportuno ricordarlo, a fornire una semplice ricostruzione ipotetica.
Identico discorso vale per il tentativo, arduo anch’esso, di ipotizzare il
tipo di copertura di questo edi�cio. È noto che con l’utilizzo del conglomerato
cementizio gli antichi architetti riuscirono a svincolarsi dalle forme canoniche
�no ad allora adottate e a cimentarsi in ardite sperimentazioni volumetriche e
spaziali (per una sintesi Ward Perkins 1989, 59-104) e in tal ambito Baia fu
terreno di continue innovazioni (a Baia compare la prima calotta emisferica
dal diametro interno di ben 21 m a copertura del c.d. Tempio di Mercurio).
Di Fraia a suo tempo ebbe modo di delineare l’ambito “culturale” in cui si
inserisce l’edi�cio sommerso di Baia e i suoi aspetti innovativi.
392
Baia: le terme sommerse a Punta dell’Epitaf�o
Fig. 15 – Volta a padiglioni del ninfeo. Da notare la copertura, immaginata piana, dell’ambiente n.
5 (se ne intravede la �nestra in basso sulla destra) e delle latrine (solaio in primo piano).
Per la copertura del ninfeo, nella nostra ricostruzione ipotetica, ci siamo
rifatti a quegli edi�ci, noti a Roma e a Ostia, che presentano forma poligonale e nicchie laterali coperte a botte8. Pertanto non sembra inopportuno,
per il ninfeo baiano, una cupola a padiglioni che poteva ergersi dal piano di
imposta delle coperture a botte delle nicchie laterali; ma certo nulla vieta di
immaginarla simile alla copertura del c.d. Tempio di Venere a Baia o a quella
del Canopo di Villa Adriana che mostrano padiglioni nella parte interna e
una super�cie liscia all’esterno (Fig. 15).
12. Le latrine
Osservando la pianta delle terme sommerse a Punta dell’Epitaf�o colpisce la forma ad “elle” di un vano posto a ridosso delle absidi settentrionale
8
Uno dei primi esempi è la Domus Transitoria dove dal vano centrale coperto a cupola si aprivano quattro vani coperti a botte. La Domus Augustana presenta due aule ottagone coperte a padiglione
con i lati sfondati da nicchie. Cfr. anche Scurati-Manzoni 1991, 237-238 e 250-252. Tutti esempi con
copertura che si imposta su un piano superiore rispetto a quella delle nicchie.
393
N. Lombardo
e occidentale del ninfeo (Tav. I, è l’ambiente tra i nn. 2 e 4). Si tratta di un
ambiente dalla forma irregolare con due muretti paralleli che delimitano un
corridoio la cui �ne si può solo intuire poiché in quest’area, più che altrove,
l’insabbiamento e l’effetto della risacca hanno completamente sconvolto la
situazione originaria.
Solo la particolare forma di questo vano, che sembra voler celare la sua
parte più interna allo sguardo di quanti transitano nella corte antistante le
scale di accesso alle terme, ci induce a credere di poter riconoscere in esso le
latrine di questo quartiere sommerso, per la cui ricostruzione ci siamo rifatti
a quelle ottimamente conservate a Ostia in prossimità delle Terme del Foro.
Tuttavia solo uno scavo sistematico riuscirebbe a chiarire l’esatta forma e,
forse, la destinazione originaria dell’ambiente e dell’area limitrofa che in
questa relazione presentiamo come una corte scoperta (Fig. 2).
Abbiamo immaginato le latrine e il quasi simmetrico ambiente pentagonale n. 5 coperti con solai. Questa soluzione poteva consentire una buona
illuminazione all’interno del ninfeo il quale, pur se aperto sul davanti, essendo
orientato perfettamente ad est, godeva di un’ottima irradiazione diretta solo
nelle prime ore della giornata; nelle ore pomeridiane la luce penetrava esclusivamente dalle �nestre delle lunette della volta. Inoltre, una copertura piana
avrebbe permesso anche un agevole movimento degli inservienti addetti alla
manutenzione e alla regolazione dell’apertura delle �nestre sulle volte degli
ambienti termali.
13. I percorsi
È ben nota l’attenzione che i Romani prestavano ai �ussi di persone per
evitare intasamenti e calca nelle terme e nelle cerimonie; per non ritornare sui
propri passi, si preferiva predisporre percorsi di tipo circolare che prevedevano
partenza e arrivo separati (notissimo è il passo del Satyricon 72, 10 in cui uno
schiavo di Trimalcione rimprovera alcuni ospiti che cercano di uscire dalla
stessa porta da cui erano entrati).
Per quanto riguarda le terme sommerse a Punta dell’Epitaf�o, riteniamo che gli antichi frequentatori potevano adottare questo tipo di percorso: discese le scale, coloro che intendevano dirigersi nel quartiere termale
percorrevano per intero il corridoio n. 6, transitavano nell’ambiente n. 8
(che a nostro giudizio aveva solo una funzione di raccordo e smistamento:
Fig. 11), deponevano gli abiti nell’apoditerio n. 9 (anch’esso conserva due
aperture sul lato occidentale) ed entravano nel tepidario n. 11. A questo
punto avevano due possibilità: per quanti non gradivano il caldo torrido
del calidario, l’ingresso nord-occidentale del tepidario li dirottava immediatamente nella zona centrale del frigidario e in questo caso l’ingresso posto
nell’angolo sud-occidentale del frigidario riconduceva poi velocemente allo
394
Baia: le terme sommerse a Punta dell’Epitaf�o
spogliatoio n. 9. Gli altri, decisi a compiere il giro “canonico”, attraverso
la porta sud-occidentale del tepidario n. 11, potevano sostare nel calidario
n. 10 e scegliere per l’uscita due possibilità: la porta nord-occidentale del
calidario immetteva nell’ambiente n. 8 e quindi velocemente nell’apoditerio n. 9 per recuperare i propri effetti personali. Uscendo dalla porta sudoccidentale ci si ritrovava invece nel cortile-palestra n. 7. Tuttavia è bene
ricordare che non era vietato seguire percorsi alternativi a seconda dei gusti
e delle abitudini personali.
14. Conclusioni
Negli ultimi anni si assiste sempre più spesso alla nascita di progetti di
studio �nalizzati alla realizzazione di prodotti multimediali a carattere scienti�co e divulgativo che giustamente prevedono l’intervento di centri di ricerca
statali e privati, di sponsorizzazioni, di so�sticate workstation, di adeguati
�nanziamenti, di interventi di specialisti in molteplici discipline.
In questo senso la nostra esperienza, iniziata a Baia ventiquattro anni
fa, rappresenta certamente un unicum. Il campo di azione fu (per lo meno
nella sua prima fase) un quartiere termale di epoca imperiale sommerso, per
effetto del bradisismo �egreo, nelle acque di Baia presso Napoli e le “forze”
scese in campo furono quelle di un gruppo di archeologi che auto�nanziarono
tutte le fasi di questa pluriennale ricerca.
I risultati di questa onerosa, faticosa, ma esaltante esperienza sono con�uiti in una serie di pubblicazioni e hanno consentito la creazione (da parte
del Ministero dell’Ambiente con il Ministero dei Beni Culturali e la Regione
Campania) del Parco Sommerso di Baia (D.I. 7.08.2002).
Inoltre, l’accuratezza di quel lavoro ha consentito oggi, con l’ausilio
delle moderne tecnologie informatiche digitali, di poter tentare la ricostruzione
volumetrica di queste antiche terme sommerse. Ovviamente, nel presentare
queste ricostruzioni, chi scrive non è privo di dubbi (che per ora restano insoluti) ed è consapevole di qualche inesattezza dovuta al fatto che il rilievo
è stato eseguito unicamente sui resti murari emergenti dalla sabbia senza
l’ausilio dello scavo archeologico.
Riteniamo sia indispensabile avviare un progetto, adeguatamente strutturato, per una conoscenza il più possibile esaustiva dell’immenso patrimonio
archeologico sommerso nelle acque di Baia e dei Campi Flegrei e in questo
senso la creazione di modelli digitali “multi livello” può essere il mezzo migliore per renderlo di facile accesso a quanti, a vario titolo, ne fossero interessati
e per conservare la memoria di preziose testimonianze che ineluttabilmente
col passare del tempo tendono a scomparire per sempre.
Nicolai Lombardo
395
N. Lombardo
BIBLIOGRAFIA
Borra D. 2000, La modellazione virtuale per l’architettura antica. Un metodo verso l’isomor�smo percettivo, «Archeologia e Calcolatori», 11, 259-272.
Broise H. 1991, Vitrages et volets des fenètres thermales à l’époque impériale, in Les thermes romains. Actes de la Table ronde (Rome 1988), Rome 1991, Ecole française de Rome.
Broise H., Scheid J. 1987, Recherches archéologiques à la Magliana. Le balneum des Frères
Arvales, Rome, Ecole française de Rome - Soprintendenza Archeologica di Roma.
Di Fraia G. 1993, Baia sommersa. Nuove evidenze topogra�che e monumentali, «Archeologia
Subacquea. Studi, ricerche, documenti», 1, 21-48.
Di Fraia G., Lombardo N., Scognamiglio E. 1985-86, Contributi alla topogra�a di Baia
sommersa, «Puteoli. Studi di Storia Antica», 9-10, 211-299.
Eschebach H. 1979, Die Stabianer Thermen in Pompeji, Berlin, De Gruyter.
Gnoli R. 1988, Marmora Romana, Roma, Edizioni dell’Elefante.
Lombardo N. 1993, Le terme di Punta Epitaf�o a Baia, «Archeologia Subacquea. Studi,
ricerche, documenti», 1, 55 ss.
Maniscalco F. 1997, Ninfei ed edi�ci marittimi severiani del Palatium imperiale di Baia,
Napoli, Massa.
Salsa Prina Ricotti E. 1988, Villa Adriana. Un singolare solaio piano in opus caementicium,
«Palladio», 1, 1-12.
Scognamiglio E. 1993, Il rilievo di Baia sommersa: note tecniche e osservazioni, «Archeologia
Subacquea. Studi, ricerche, documenti», 1, 65-70.
Scognamiglio E. 1997, Aggiornamenti per la topogra�a di Baia sommersa, «Archeologia
Subacquea. Studi, ricerche, documenti», 2, 35-46.
Scognamiglio E. 2002, Nuovi dati su Baia sommersa, «Archeologia Subacquea. Studi, ricerche, documenti», 3, 47-55.
Scurati-Manzoni P. 1991, L’architettura romana dalle origini a Giustiniano, Milano, Guerini-Studio.
Ward Perkins J.B. 1989, Architettura romana, Milano, Electa-Mondadori.
ABSTRACT
Twenty-four years ago in Baia, at the North end of the Bay of Naples, a group of archaeologists began a series of surveys. Their work made it possible to reconstruct the topographic
structure of the ancient city and the creation of the “Parco sommerso di Baia”. This article
shows, for the �rst time, the volumetric reconstruction of a thermal bath of the Imperial age.
Starting from an accurate survey of surviving walls, two digital models have been created:
the �rst one shows them in an underwater environment, as they were in the 1984; the second
model integrates the missing parts of the walls and roofs.
In Campi Flegrei and Baia numerous villas, spas and roads are hidden underwater.
Discovering and protecting this historical heritage is essential for the planning of research
projects including digital multi-level models, in order to make this knowledge accessibile to
everyone and to preserve its memory.
396
Archeologia e Calcolatori
20, 2009, 397-419
“PROGETTO CALVATONE”: DALLO SCAVO
ALL’EDIZIONE MULTIMEDIALE
1. Introduzione
Il rapporto tra multimedia e archeologia, indagato a partire dalla �ne
degli anni ’90 e fonte di un vivace dibattito sulle problematiche ad esso connesse (Forte 2000; Sanders 2000; Guermandi 2000, 2003, 2004; Clarke
2002; Zanini 2004), si è sempre più rafforzato nel corso dell’ultimo decennio
e numerosi risultano oramai i prodotti multimediali caratterizzanti il vasto
panorama archeologico. È necessario, tuttavia, soffermarsi sulla natura di tali
prodotti, distinguibili in “prodotti chiusi”, quali pubblicazioni su CD-Rom e
DVD, e “prodotti aperti”, come i siti Internet, diversi per tipologia, destinazione �nale, qualità di contenuti e comunicazione (Zanini 2004, 64).
Le pubblicazioni su supporto multimediale spesso si con�gurano
come prodotti a larghissima diffusione, destinati a un pubblico vasto per un
utilizzo occasionale (Zanini 2004, 64). Da questi si distinguono i prodotti
legati a esposizioni museali temporanee e i primi tentativi di pubblicazioni
scienti�che a carattere enciclopedico (Manacorda et al. 2001) o specialistico,
come nel caso di edizioni su supporto multimediale di indagini archeologiche: tali pubblicazioni, tuttavia, risultano per la maggior parte funzionali
a un evento espositivo1 e non delle vere e proprie edizioni scienti�che su
Cd-Rom/DVD, ancora rare nel panorama scienti�co italiano. Tale lacuna
è tanto più rilevante se si considera quanto l’ambiente accademico italiano
sia all’avanguardia in molti settori della ricerca archeologica che prevedono
l’impiego di applicazioni informatiche e, tuttavia, ancora frenato da una
certa dif�denza nei confronti di soluzioni multimediali per la pubblicazione
dei risultati scienti�ci conseguiti in favore del «numero di pagine a stampa»
(Zanini 2004, 65).
In tale prospettiva si inserisce l’edizione multimediale degli scavi
archeologici condotti dal 2001 al 2006 presso il vicus romano di CalvatoneBedriacum (CR), realizzata dall’Università degli Studi di Milano in collaborazione con Regione Lombardia, che presenta una soluzione innovativa
nell’ambito della divulgazione scienti�ca, con l’obiettivo di sviluppare un
modello funzionale alla pubblicazione di qualunque scavo archeologico.
1
A tale proposito cfr. Zanini 2001, 2002 e le pubblicazioni curate dal LIAAM di Siena, tra
cui si ricordano i CD-Rom L’Ospedale Santa Maria della Scala. Storia e Archeologia (2003) e C’era
una volta. La ceramica medievale nel convento del Carmine a Siena (2002).
397
L. Palmieri
2. “Progetto Calvatone”: lo scavo archeologico
2.1 Calvatone-Bedriacum: “[...] vicus, duabus iam Romanis cladibus notus
infaustusque”
Il sito romano individuato presso l’odierno centro di Calvatone si identi�ca con l’antico vicus a carattere commerciale noto alle fonti col toponimo
di Bedriacum2, il cui territorio subì, nel 69 d.C., lo svolgersi delle campagne
militari tra gli eserciti di Otone, Vitellio e Vespasiano per la conquista del
potere imperiale.
La fondazione del vicus, nella seconda metà del II sec. a.C., è strettamente
collegata ad alcuni provvedimenti che interessarono il territorio di Cremona,
la più antica colonia latina fondata a nord del Po (218 a.C.), �nalizzati ad una
migliore strutturazione dell’area transpadana: tra questi, oltre alla centuriazione e alla creazione di centri minori, si ricorda in particolare la costruzione
della via Postumia, principale arteria di collegamento dell’Italia settentrionale
da Genova ad Aquileia, disposta nel 148 a.C. dal console Spurio Postumio
Albino (Fig. 1). Bedriacum, sito ubicato tra Verona e Cremona, assumerà
importanza nell’ager Cremonensis grazie alla sua funzione di nodo stradale
e �uviale: la sua posizione sulla via Postumia, nel punto di attraversamento
dell’Oglio, ne fece, infatti, un centro di smistamento commerciale strategicamente importante.
La maggior parte delle fonti antiche si riferisce a Bedriacum soltanto
come al luogo in cui furono combattute le battaglie del 69 d.C., dandone
tuttavia una collocazione topogra�ca precisa, in rapporto alle strade e alle
città romane dell’area centro-padana. Tacito (Historiae, II, 23, 5), nel ricordare i tragici avvenimenti, situa Bedriacum tra Verona e Cremona (Inter
Veronam Cremonamque situs est vicus, duabus iam Romanis cladibus notus
infaustusque); Plutarco (Otho, 8, 1) localizza il piccolo centro (πολíχνη) non
lontano da Cremona (πλησíον Κρεμωνης), mentre tra Ostiglia e Cremona lo
pone lo scoliasta di Giovenale (Scol. in Iuven., 2, 106). Del tutto simili le
informazioni che provengono dalle fonti più propriamente geogra�che: il
vicus appare nella Tabula Peutingeriana (segm. IV) situato lungo la via Ostiglia-Mantova-Cremona3.
L’apparente discordanza tra le fonti, per cui Bedriacum sembra collocarsi da una parte tra Verona e Mantova, dall’altra tra Ostiglia e Cremona,
2
Il toponimo è stato tramandato dalle fonti scritte nelle forme Bedriacum, Betriacum,
Bebriacum e Beloriacum. La forma più diffusa è comunque Bedriacum/Betriacum, attestata nelle
principali fonti sopra citate, quasi sempre utilizzata negli studi storico-archeologici dedicati al sito
a partire dalla prima metà dell’Ottocento e tuttora adottata: Grassi 2008a, 11; Grassi 2008b.
3
Per una completa rassegna di tutte le fonti riguardanti Calvatone-Bedriacum cfr. Corsano
1991, 51-59.
398
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 1 – La via Postumia e Bedriacum.
trova le sue ragioni nel fatto che in realtà il vicus si situa al bivio tra la via
Postumia – il tratto Cremona-Verona – e la via Ostiglia-Mantova-Cremona:
Bedriacum si trova quindi in un punto particolarmente importante della
viabilità centro-padana, dove ha origine la diramazione della Postumia verso
est/sud-est (Grassi 2008a, 11; Grassi 2008b).
2.2 Le ricerche archeologiche: dai rinvenimenti ottocenteschi al “Progetto
Calvatone”
Nella prima metà dell’Ottocento, sotto l’impulso di eruditi locali stimolati dalle indicazioni fornite dalla tradizione letteraria, si effettuarono
le prime ricerche archeologiche nei pressi di Calvatone, in località Costa
di Sant’Andrea, un’area in aperta campagna, in cui si concentravano maggiormente i rinvenimenti fortuiti di materiali antichi, af�oranti a seguito dei
lavori agricoli. Tali ricerche condussero al recupero, nel 1836, di frammenti
pertinenti ad una statua in bronzo raf�gurante una “Vittoria” che si posa
su un globo, acquistati nel 1841 dai Musei di Berlino, la cui iscrizione, con
399
L. Palmieri
dedica agli imperatori Marco Aurelio e Lucio Vero, permette una datazione
tra il 161 e il 169 d.C.4
Al primo pro�cuo periodo di ricerche – durante il quale si recuperarono
anche altri materiali antichi quali monete, bronzetti, ceramica, vetri, in gran parte
dispersi tra collezioni museali e private – e all’entusiasta attività di personalità
locali, tra cui si ricorda il parroco di Romprezzagno, don Luigi Luchini, autore
di un’opera illustrativa sulle indagini condotte nei pressi di Calvatone (Bebriaco
illustrato dai suoi scavi archeologici, 1878), seguirono pochi interventi sporadici
nell’area nella prima metà del Novecento5. L’indagine archeologica riprese per
opera della Soprintendenza alle Antichità della Lombardia attraverso gli scavi
diretti dal Soprintendente Mario Mirabella Roberti, negli anni 1957-1961: in
particolare vennero alla luce «una strada porticata […] la casa del Labirinto
[…] una domus con cortile e altre costruzioni» (Mirabella Roberti 1972,
104), che consentirono di determinare l’orientamento dell’abitato antico.
Oltre agli importanti risultati ottenuti in campo scienti�co attraverso tali
esplorazioni, a Mirabella Roberti si deve riconoscere anche il merito di aver
intuito l’importanza archeologica del sito, tanto da proporre alla provincia di
Cremona nel 1964 l’acquisizione dei terreni in località Costa di Sant’Andrea,
al �ne di preservare il deposito archeologico dai danni provocati dai lavori
agricoli, condotti con tecniche sempre più invasive.
Dopo una lunga pausa, nel 1986 la Soprintendenza Archeologica della
Lombardia mostra un rinnovato interesse per le indagini riguardanti il territorio di Calvatone e, in collaborazione con gli Istituti di Archeologia delle
Università degli Studi di Milano e di Pavia, nasce il “Progetto Calvatone”,
con una diversi�cazione delle aree di intervento, nel tentativo di comprendere, per quanto possibile, lo sviluppo urbanistico del centro abitato e de�nire
l’estensione della città antica (Passi Pitcher, Finzi, Sena Chiesa 1987). A
una felice realizzazione del progetto ha contribuito, in primo luogo, la particolare situazione di Bedriacum, spostato di alcuni chilometri rispetto al paese
moderno di Calvatone, che ha favorito la programmazione di un’esplorazione
sistematica sul lungo periodo.
Ad una prima fase (1986-1987), caratterizzata da ricerche topogra�che
e d’archivio, dallo studio dei materiali provenienti dai vecchi scavi e da ricerche di super�cie (Calvatone romana 1991), è poi seguito, nel 1988, l’avvio
di nuovi scavi stratigra�ci. In particolare, mentre la Soprintendenza (sotto
4
Ne esistono oggi cinque copie: al Museo di Cremona, al Museo della Civiltà Romana di
Roma, al Museo Puskin di Mosca (forse l’originale scomparso da Berlino alla �ne della Seconda Guerra
Mondiale) e due a Calvatone stessa, una delle quali è conservata presso il Municipio mentre l’altra orna
il Monumento ai Caduti della piazza principale del paese (monumento alla Vittoria di Calvatone).
5
Il più importante intervento di scavo, effettuato dal Patroni nel 1919-1920 e pubblicato
nel 1926 sul «Bullettino di Paletnologia Italiana», portò alla luce, a nord del Dugale Delmona, un
abitato del Bronzo Medio (XV-XIV sec. a.C.): Lorenzi 1996.
400
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 2 – Calvatone, loc. Costa di Sant’Andrea: scavi archeologici condotti dal 1988
al 2008 presso l’area di proprietà provinciale e il Campo del Generale.
la direzione di Lynn Pitcher) ha effettuato una serie di saggi (Passi Pitcher
1996), gli scavi delle Università (sotto la direzione di Gemma Sena Chiesa e
di Maria Paola Lavizzari Pedrazzini) hanno contribuito all’ampliamento e
all’approfondimento dell’indagine nei settori segnalati dalle ricerche degli anni
1957-1961, all’interno dell’area di proprietà provinciale: sono così riprese le
401
L. Palmieri
ricerche nell’area della “domus con cortile” (scavo Sud6), in quella della “strada
porticata” (saggio Nord7) e nell’area della Domus del Labirinto8. Dal 2005,
sotto la direzione di Maria Teresa Grassi, l’indagine è stata estesa anche ad
un nuovo settore, il cosiddetto “Quartiere degli Artigiani”, non interessato da
interventi precedenti9 (Fig. 2). Attraverso tali indagini, è stato possibile delineare un quadro piuttosto articolato della storia del vicus romano, compreso
tra la tarda età repubblicana e il V sec. d.C. (Grassi 2008a, 17).
2.3 Lo scavo dell’area della Domus del Labirinto: una sintesi dei risultati
Nell’ambito del “Progetto Calvatone”, dal 2001 al 2006 le indagini
archeologiche si sono concentrate nella fascia nord-orientale dell’area di
proprietà provinciale, nel luogo in cui era stata parzialmente riportata in luce
nel 1959 la cosiddetta Domus del Labirinto (Fig. 3). L’area è così denominata
per la presenza di un emblema a mosaico con la raf�gurazione di un labirinto
(conservato presso il Civico Museo Archeologico di Piadena), che ornava il
pavimento di uno dei due triclini caratterizzanti il nucleo principale di una
lussuosa abitazione, databile alla prima età imperiale. Le nuove ricerche hanno
interessato dapprima tale zona di rappresentanza e hanno in seguito assunto
carattere estensivo, al �ne di indagare i settori limitro� al nucleo centrale
e comprendere lo sviluppo planimetrico del complesso e l’organizzazione
dell’area circostante: attraverso queste esplorazioni è stato possibile chiarire
la sequenza cronologica dell’area, caratterizzata da una fase precedente alla
costruzione degli ambienti di rappresentanza della Domus, e da una successiva, con la rifunzionalizzazione dell’area in favore dello sviluppo di attività
artigianali.
La prima fase di frequentazione di questo settore del vicus si data tra la
�ne del II sec. a.C. e la �ne del I sec. a.C. (fase I; Ravasi 2008). Alla metà del
I sec. a.C. risale la costruzione di almeno due edi�ci residenziali, già orientati
secondo la strutturazione urbanistica del vicus di età imperiale. Uno di essi è
meritevole di particolare attenzione, in quanto si con�gura quale antecedente
della Domus del Labirinto: si tratta della cosiddetta Domus del Focolare, di
cui è stato possibile indagare il cortile. Il rinvenimento, al suo interno, di una
fossa – caratterizzata da un riempimento ricco di materiali di pregio, talvolta
6
Campagne di scavo 1988-1991, 1993, 1995-1998, 2000. La pubblicazione dello Scavo Sud
è in corso di preparazione a cura di G. Sena Chiesa. Sintesi preliminari dei risultati sono pubblicate
nel «Notiziario della Soprintendenza Archeologica della Lombardia», dal 1988-89 al 1998 (G. Sena
Chiesa) e nel «Notiziario della Soprintendenza per i Beni Archeologici della Lombardia», 19992000 (G. Sena Chiesa, M.T. Grassi). Cfr. anche Sena Chiesa 1998.
7
Campagne di scavo 1994-1995: Calvatone romana 1997.
8
Campagne di scavo 2001-2006: Grassi 2008b.
9
Le relazioni preliminari di queste campagne (2005-2008) sono pubblicate in Grassi 2007,
2008c. Cfr. anche Bacchetta 2009, Bacchetta c.s.
402
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 3 – Area della Domus del Labirinto. Settori indagati nelle campagne di scavo 2001-2006.
eccezionali (come l’olla situliforme in ceramica a vernice nera tipo Morel 7431
di produzione adriese, II sec. a.C.) – legata ai riti di fondazione della domus di
fase I permette di collocare il primo impianto dell’edi�cio intorno alla metà I
sec. a.C. (Palmieri 2008). Le strutture mostrano tracce di frequentazione per
tutta la seconda metà del I sec. a.C. e la loro distruzione, forse a causa di un
incendio di modesta estensione che le ha parzialmente interessate, è compresa
tra la �ne del I sec. a.C. e l’inizio del I sec. d.C.
La ristrutturazione di questo settore del vicus è da ascrivere alla prima età imperiale, in epoca tiberiano-claudia (fase II), con l’edi�cazione di
403
L. Palmieri
due complessi residenziali, la Domus del Labirinto (Bacchetta 2008) e la
Domus delle Esagonelle (Benedetti 2008a), separati da uno spazio aperto
transitabile (una strada?) caratterizzato da un piano in pezzame laterizio
(Benedetti 2008b).
La Domus del Labirinto, in particolare, presenta la medesima articolazione planimetrica della precedente Domus del Focolare, con il nucleo
strutturato a occidente e un cortile aperto a oriente, con un orientamento
nord-est/sud-ovest, caratteristico del vicus, e con uno schema paratattico,
in cui ad un settore propriamente residenziale, costituito da due triclini
contrapposti e due cubicula destinati a funzioni di rappresentanza, e alcuni
ambienti di servizio, si af�ancano, sia a ovest che a est, due aree aperte. L’originale soluzione planimetrica adottata, che vede contrapporsi i due triclini,
per i quali si può ipotizzare una speci�ca caratterizzazione d’uso in chiave
prettamente “stagionale”, e la raf�natezza dei materiali impiegati e delle soluzioni decorative scelte per i piani pavimentali (Slavazzi 2008) consentono
di de�nire la Domus del Labirinto come una residenza di livello elevato, non
solo nel ristretto ambito del vicus, ma anche più in generale nel panorama
della Cisalpina romana.
Il periodo di frequentazione della Domus del Labirinto, così come della
Domus delle Esagonelle e del piano in pezzame laterizio che le separava, è da
circoscriversi al I sec. d.C., con probabili sporadici interventi destinati alla
manutenzione e/o al rifacimento di strutture e decorazioni: sebbene manchino
quasi integralmente i livelli e i materiali pertinenti alla fase di frequentazione
di queste strutture di fase II, tuttavia l’obliterazione dei due principali impianti
idraulici della Domus del Labirinto (una canalina e il pozzo del cortile est;
Ossorio 2008a, 2008b), tra la �ne del I e gli inizi del II sec. d.C. (fase III),
sembra segnare la �ne della destinazione esclusivamente residenziale dell’area
e l’avvio del contestuale processo di rifunzionalizzazione degli spazi.
L’abbandono della Domus del Labirinto coincide con la creazione, ad
ovest della domus eponima, di una nuova struttura (Ambiente C), che, per
posizione, tipologia, destinazione funzionale e cronologia, se ne distingue
molto nettamente. Si tratta di un ambiente affacciato su un’area aperta,
destinato principalmente ad attività artigianali/produttive, sebbene non se
ne possa escludere del tutto una parziale funzione residenziale: una “casabottega” (forse anche con funzioni di magazzino) la cui frequentazione è
documentata per circa un secolo, dalla metà del II sec. d.C. alla metà del III
sec. d.C. (Albeni 2008; Orsenigo 2008a; Sperti 2008a).
Caratteristica peculiare della fase III, e, in particolare, dell’Ambiente
C, è la quantità considerevole di frammenti ceramici, per la maggior parte
orli ritagliati intenzionalmente, pertinenti a un tipo non ancora noto di olla
in ceramica comune, de�nito “olla tipo Calvatone” (Orsenigo 2008b). Non
è stato ancora chiarito quale fosse la destinazione funzionale di questi orli
404
“Progetto Calvatone”: dallo scavo all’edizione multimediale
frammentari, benché siano state avanzate delle ipotesi, legate soprattutto al
contesto di riferimento10.
Il complesso gravitante intorno all’Ambiente C viene abbandonato
nella seconda metà del III sec. d.C. e le sue strutture crollano gradualmente
(Orsenigo 2008c; Sperti 2008b); risulta di particolare interesse la precisa
de�nizione cronologica, tra �ne III e IV sec. d.C., di alcune attività di spoglio
delle strutture murarie non solo dell’Ambiente C, ma anche di quanto probabilmente sopravviveva delle domus di età imperiale (Nava 2008; Romagnolo
2008), attività presumibilmente proseguite ben oltre il V sec. d.C., orizzonte
a cui si ascrivono i materiali più recenti rinvenuti nel corso dell’indagine, tra
cui si segnalano in particolare alcune monete (Crisà 2008).
3. “Progetto Calvatone”: l’edizione multimediale
3.1 Genesi e sviluppo del progetto multimediale
Il progetto informatico, collegato all’edizione dei nuovi scavi condotti
nell’area della Domus del Labirinto tra il 2001 e il 2006, nasce dall’esigenza
di voler comunicare, alla �ne di un percorso di ricerca, i risultati scienti�ci
conseguiti dall’Università degli Studi di Milano. La volontà di sperimentare
una nuova forma di comunicazione in ambito archeologico, che consentisse di
offrire una conoscenza il più completa possibile dell’attività svolta nel corso
degli anni dall’équipe di ricerca di Calvatone e permettesse la consultazione
non solo del dato archeologico già interpretato (contributi scienti�ci), ma anche di tutta la documentazione di scavo (inventari, schede, fotogra�e, rilievi),
si deve a Maria Teresa Grassi, direttore degli scavi di Calvatone-Bedriacum
e coordinatore del progetto scienti�co: da questa felice intuizione ha preso
le mosse l’edizione multimediale dello scavo dell’area della Domus del Labirinto. Il progetto è stato �nanziato dall’Università degli Studi di Milano con
un contributo della Regione Lombardia (Assessorato alle Culture, Identità e
Autonomie della Lombardia).
Il processo di modellizzazione per la progettazione di un multimediale
comporta necessariamente ri�essioni di carattere metodologico, in relazione alla
struttura da adottare (paratattica o sintattica) per una migliore presentazione
del dato archeologico. In considerazione di ciò, il progetto ha attraversato due
fasi di sviluppo, che hanno comportato in primo luogo la de�nizione della
struttura del DVD e, in un secondo momento, la realizzazione dell’interfaccia
10
È stato ipotizzato che nell’Ambiente C si svolgessero attività collegate alla lavorazione
e l’immagazzinamento di cereali o di farina in un impianto di tipo domestico e familiare, con una
produzione limitata e forse solo in parte destinata alla vendita. Ad un’attività produttiva si collegano
presumibilmente gli orli ritagliati dalle olle (per un uso edilizio?), ma non è chiaro quale fosse il
rapporto tra queste attività, se vi fosse un’attività primaria destinata unicamente alla vendita (olle)
e una secondaria principalmente domestica (cereali).
405
L. Palmieri
gra�ca attraverso linguaggi di programmazione adeguati (in particolare, XHTML e CSS) e l’inserimento dei dati relativi alla pubblicazione archeologica, nel
rispetto dei criteri di accessibilità promossi dai protocolli internazionali.
Per la progettazione dell’architettura e la de�nizione del modello gra�co
ci si è avvalsi dell’esperienza precedentemente acquisita per la creazione, nel
2007, del sito web realizzato per la divulgazione in rete dell’attività scienti�ca condotta dall’Università degli Studi di Milano presso il vicus romano
di Calvatone11. Analogamente a quanto avvenuto per il sito web, l’ideazione
e lo sviluppo informatico del multimediale sono stati curati da chi scrive e
la realizzazione del prodotto è avvenuta interamente per opera dell’équipe
di ricerca coordinata dalla prof. Grassi, avvalendosi di un supporto esterno
esclusivamente per la masterizzazione delle copie previste. Il prodotto (distribuito gratuitamente dall’Università degli Studi di Milano previa richiesta da
inoltrare attraverso la pagina del sito web di Calvatone dedicata al DVD12) è
ottimizzato per i principali browser utilizzati per la navigazione in rete (Internet Explorer 7.0 e Mozilla Firefox 3.0) e necessita del software gratuito
Adobe Reader per la consultazione di alcuni dei contenuti inseriti.
3.2 L’architettura del DVD multimediale
L’interfaccia gra�ca del DVD si presenta con un’architettura semplice e
intuitiva (Fig. 4), caratterizzata da pochi elementi funzionali alla navigazione:
il corner, il banner, il menu di navigazione, il content.
All’interno del “corner” (area quadrangolare collocata in alto a sinistra
nella schermata) è visualizzata l’immagine di copertina del DVD: in essa si riconosce il mosaico del Labirinto sullo sfondo, e, in primo piano, sulla sinistra,
l’olla situliforme in ceramica a vernice nera tipo Morel F7431 (Palmieri 2008) e,
sulla destra, l’olla in ceramica comune “tipo Calvatone” (Orsenigo 2008b).
La scelta di tale immagine è stata dettata dalla volontà di sottolineare
il passaggio, per la storia archeologica del sito, da «uno scavo di interesse
artistico», come de�niva il Mirabella Roberti l’intervento presso la Domus
del Labirinto (Mirabella Roberti 1972, 106), a uno scavo in cui la cultura
materiale permette di ricostruire lo sviluppo diacronico dell’area e un contenitore in ceramica comune, classe spesso tenuta in scarsa considerazione a
causa delle genericità dei dati cronologici che è solita fornire, diventa il “fossile
guida” di una delle fasi di sviluppo (fase III). I tre elementi scelti rappresentano,
inoltre, le tre fasi principali caratterizzanti l’area della Domus del Labirinto.
Alla fase I si collega l’olla situliforme in ceramica a vernice nera tipo Morel
F7431, rinvenuta in una fossa rituale individuata nel cortile della Domus del
Focolare (fase I, periodo 2): si tratta di un vaso di importazione adriese datato
11
12
406
http://users.unimi.it/calvbedr/.
http://users.unimi.it/calvbedr/pages/dvd.html.
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 4 – Pagina illustrativa di un contesto archeologico, esempli�cativa dell’architettura del DVD.
al II sec. a.C. e di uno tra i manufatti più antichi mai rinvenuti nell’area del
vicus �nora esplorato. La fase II è rappresentata dal mosaico del Labirinto, la
cui de�nizione cronologica, �nora fondata esclusivamente su considerazioni
di carattere iconogra�co e stilistico e oscillante tra l’età cesariana e l’ultimo
quarto del I sec. d.C., appare ormai certa grazie al contributo di uno scavo
stratigra�co, con una precisa attribuzione al secondo quarto del I sec. d.C.
(Volonté 2008), momento di edi�cazione della Domus del Labirinto. L’olla
“tipo Calvatone” si con�gura, in�ne, quale emblema della fase III: il recipiente, rinvenuto in stato frammentario nell’Ambiente C, risulta costantemente
407
L. Palmieri
presente nei contesti di fase III, in particolare in forma di orlo ritagliato, e
spesso dirimente ai �ni di una de�nizione cronologica puntuale.
Il “banner” (in alto nella schermata, a destra del “corner”) ha la funzione
principale di esempli�care visivamente, attraverso delle immagini pertinenti,
l’ambito cui afferisce la pagina che si sta consultando, fornendo immediatamente dati utili alla contestualizzazione delle pagine: così, ad esempio, nel
banner delle pagine relative ai contesti compare l’emblema della fase cui il
contesto stesso pertiene (olla in vernice nera, mosaico del Labirinto, olla “tipo
Calvatone”), per un suo immediato inquadramento cronologico.
Il menu di navigazione rappresenta lo strumento principale con cui
rapportarsi nell’interfaccia gra�ca, e un suo corretto utilizzo permette un’agile
navigazione tra i contenuti del DVD. L’ideazione del menu ha richiesto un’accurata progettazione, che coniugasse esigenze diverse: era necessario, infatti,
creare un elenco che richiamasse l’articolato indice della pubblicazione, ma
che avesse un carattere di sinteticità e immediatezza, per consentire una facile
consultazione. A tal �ne è stato ideato un menu verticale a scomparsa, de�nito
per le sue caratteristiche morfologiche “dinamico”, creato mediante l’utilizzo di
script Java: tale menu consente la visualizzazione delle sezioni in cui è suddiviso
il DVD – caratterizzate dall’utilizzo di caratteri in grassetto – e dei principali
“capitoli” ad esse afferenti. Il menu di navigazione presenta due modalità di
interazione, a cui corrispondono due modalità di funzionamento: alcune celle
permettono l’accesso diretto alle pagine di pertinenza attraverso un semplice
click del mouse, altre consentono l’apertura di un sottomenu, contenente i titoli
delle sottosezioni o dei contributi correlati alla sezione in esame.
Il “content” (al di sotto del banner, a destra del menu di navigazione)
è l’area entro cui si visualizzano tutti i contenuti di una pagina. Tra gli elementi funzionali alla navigazione bisogna includere anche le icone: si tratta
di elementi gra�ci inseriti all’interno del “content”, che indicano un collegamento con altri contenuti presenti all’interno del DVD. Le icone progettate
sono due, poiché segnalano due tipologie di link differenti: una raf�gura il
Labirinto della domus eponima, e indica il link con un’altra pagina del DVD
in versione HTML; l’altra raf�gura una pagina con la sigla PDF, e indica un
link funzionale all’apertura di un documento in versione PDF.
Il DVD risulta organizzato in tre sezioni principali, corrispondenti alle tre
parti in cui è suddivisa la pubblicazione scienti�ca: FASI E CONTESTI, MATERIALI E STRUTTURE, ARCHIVIO, a cui si aggiunge una quarta sezione, la
BIBLIOGRAFIA. Ogni sezione presenta delle caratteristiche strutturali precipue,
per la cui realizzazione ci si è avvalsi di software informatici eterogenei.
La prima sezione, FASI E CONTESTI, contiene l’analisi delle fasi, dei
contesti e della cronologia. La cella di riferimento permette la visualizzazione
di una pagina con la sintesi cronologica delle evidenze rinvenute nell’area della
Domus del Labirinto. Una tabella mostra l’orizzonte cronologico di apparte408
“Progetto Calvatone”: dallo scavo all’edizione multimediale
nenza dei contesti archeologici presi in esame all’interno della pubblicazione,
esempli�candone la pertinenza a ciascuna fase attraverso un colore differente.
Tali fasi, elencate nella prima colonna della tabella cronologica, sono tutte
collegate alle rispettive piante di fase e periodo attraverso link attivi: cliccando
sulla de�nizione di ogni fase e periodo si ottiene la visualizzazione in formato
PDF della pianta pertinente, derivante da una elaborazione della stessa con software CAD, caratterizzata dai colori propri della fase, con sfumature del colore
dominante di fase che consentono di identi�care la suddivisione in periodi. Ai
�ni di una migliore lettura delle piante di fase, e dello sviluppo diacronico dell’area in esame, si è scelto di visualizzare sempre, in ogni pianta di fase/periodo,
i quattro pavimenti (i due triclini e i due cubiculi) pertinenti al nucleo principale
della Domus del Labirinto, rappresentati attraverso una linea di contorno di
colore blu (il colore della fase II), e di inserire nelle piante di fase III e IV, ove
opportuno, il riferimento ai pavimenti caratterizzanti l’area a sud della Domus
del Labirinto (attraverso una linea di contorno di colore blu) e l’Ambiente C
(attraverso una linea di contorno di colore verde, il colore della fase III).
Le successive sottosezioni corrispondono ai capitoli di analisi delle aree
indagate: ogni sottosezione (Prima frequentazione, Domus del Labirinto, Domus delle Esagonelle, media età imperiale) presenta un sottomenu che permette
di accedere ai contributi dedicati alla fase e ai contesti di riferimento.
Le pagine relative ai contributi scienti�ci (fasi e contesti) presentano una
struttura comune: esse risultano costituite da un titolo, un ipertesto, disponibile
anche in versione PDF per la stampa, e una serie di immagini che ne illustra il
contenuto. Il testo è caratterizzato da una serie di hotwords, collegamenti che
consentono una navigazione dinamica tra i contenuti del DVD, come ad esempio
la consultazione delle note – accessibili attraverso l’apertura di una �nestra di
“pop-up” – o, nei testi di fase, ciascun titolo di paragrafo, all’interno del quale
viene esaminato un determinato orizzonte cronologico, collegato alla pianta di
fase/periodo di pertinenza attraverso un link insito nel titolo stesso.
Le pagine dedicate ai contesti sono caratterizzate da una struttura particolare e progettate per facilitare la consultazione di tutta la documentazione
collegata. Il contesto si muove, infatti, su due livelli e risulta costituito da due
pagine complementari: una principale contenente il testo dell’articolo scienti�co, e una secondaria, di collegamento, contenente tutta la documentazione
pertinente al contesto stesso. È a questo punto necessario sottolineare il ruolo
fondamentale delle immagini, da considerarsi non più «semplice corredo e
arricchimento esplicativo», ma «elemento argomentativo in rapporto dialogico
con il testo» (Zanini 2004, 71).
La pagina principale di contesto presenta tutti gli elementi propri della struttura comune a tutte le pagine caratterizzanti i contributi scienti�ci,
descritta in precedenza: il titolo, il testo (disponibile anche in versione PDF
per la stampa) e le immagini esplicative del testo – de�nite da una didascalia
409
L. Palmieri
che compare al passaggio del mouse sull’immagine d’interesse – che possono
essere visualizzate a tutto schermo. Le immagini inserite nei contributi sono
tratte dall’Archivio fotogra�co dell’Università degli Studi di Milano. Una
serie di collegamenti, de�niti dalla presenza di hotwords, consente il link ad
altri contributi oppure alle note, visualizzate in una �nestra di “pop-up”. Un
ulteriore collegamento, importante ai �ni dell’inquadramento cronologico
del contesto, caratterizza la pagina e si trova al di sotto del titolo: si tratta
del link che permette la visualizzazione diretta della pianta di fase/periodo
pertinente.
Nel corpo del testo si distinguono due link, progettati per i contributi
dedicati ai contesti. Il primo dà accesso a un’ulteriore pagina dedicata al
contesto (“box”), in cui è raccolta tutta la documentazione relativa all’ Unità
Stratigra�ca (US) in esame (Fig. 5). In particolare, è possibile consultare in
formato PDF il RILIEVO – o i rilievi – dell’US; la TABELLA dei materiali,
che contiene l’elenco di tutti i materiali presenti nel contesto, ordinati per
numero di inventario, con l’indicazione della classe di appartenenza, una
breve descrizione, il disegno di riferimento (ove presente), indicato dal numero
di US e da una sigla identi�cativa della classe di pertinenza del materiale, e
la de�nizione cronologica; le TAVOLE dei materiali, con i disegni relativi ai
manufatti, realizzati dai singoli autori e lucidati in ambiente CAD, e successivamente assemblati in tavole di contesto. La documentazione fotogra�ca
completa l’apparato presente nel “box” di contesto: le fotogra�e sono tutte
tratte dall’Archivio fotogra�co dell’Università degli Studi di Milano e de�nite
da una didascalia nel caso in cui si tratti di fotogra�e particolari legate all’US
in esame. Il secondo link collega direttamente alle tavole dei materiali, senza
dover necessariamente accedere al “box” descritto. Tale link è segnalato nel
testo dalla presenza, tra parentesi e in genere accanto al numero di inventario,
della sigla del materiale di cui è presente il disegno (ad es. VN1).
La prima sezione si conclude con lo studio di un contesto moderno
(Bursich 2008), a testimonianza di una recentissima frequentazione dell’area
della Domus del Labirinto: tale contesto, particolare per sua stessa natura,
prende in esame soltanto i manufatti cronologicamente più tardi (una lattina
e un bossolo di proiettile) in esso presenti, e per tale motivo non risulta dotato
del “box” di contesto.
La seconda sezione, MATERIALI E STRUTTURE, contiene degli approfondimenti speci�ci su alcuni materiali e sulle strutture: in essa sono stati
inseriti gli studi relativi a singoli pezzi di particolare interesse (frammento di
Terra Sigillata, bottiglia Isings 50, applique in bronzo a maschera teatrale), a
classi (anfore, monete, pesi, gemme) o tipologie di materiali (lucerne a vernice
nera, olla “tipo Calvatone”) particolarmente signi�cative, gli studi relativi
alle strutture edilizie (alzati in terra cruda, laterizi di rivestimento, intonaci)
e le indagini scienti�che.
410
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 5 – Esempio di “box”, contenente la documentazione relativa al contesto in esame.
Benché tutti gli ipertesti della sezione presentino una struttura del tutto
simile a quella dei testi descritti in precedenza, è tuttavia necessario focalizzare l’attenzione su un contributo in particolare, che si distingue per la sua
struttura articolata: si tratta dello studio relativo all’olla “tipo Calvatone”,
con l’Appendice dedicata alla ceramica comune di Calvatone (Orsenigo
2008b). Il contributo si apre con un’introduzione di carattere metodologico
sullo studio della ceramica comune, e in particolare di quella di Calvatone,
ed è proprio a questo proposito che si fa riferimento all’Appendice, dedicata
alla presentazione in forma sintetica di tutta la ceramica comune �nora nota
(edita e inedita). Il collegamento all’Appendice avviene anche attraverso l’icona
411
L. Palmieri
“Labirinto”, collocata in fondo alla pagina del contributo. Tale link permette
l’accesso alla pagina HTML contenente le avvertenze alla Tabella di sintesi
della ceramica comune di Calvatone e il collegamento sia alla Tabella sia alle
Tavole di sintesi, entrambe in formato PDF.
La Tabella di sintesi contiene la classi�cazione tipologica della ceramica
comune di Calvatone, con la suddivisione della classe stessa in Sezioni (Sezione
I e Sezione II) e Gruppi. Ogni gruppo, identi�cato dalla sigla “Calv”, da un
numero romano indicante la sezione di pertinenza, e da una lettera dell’alfabeto, è collegato direttamente alle tavole di riferimento del gruppo stesso. Un
secondo link in fondo alla pagina principale dell’Appendice permette, invece,
di visualizzare in un unico documento tutte le tavole contenenti i disegni di
sintesi della tipologia elaborata per la ceramica comune di Calvatone. Tali
tavole sono state realizzate in occasione della pubblicazione dei nuovi scavi
dell’area della Domus del Labirinto e rivelano una natura composita, in quanto
derivanti dall’assemblaggio di elementi eterogenei. Per la loro realizzazione,
infatti, sono stati impiegati sia disegni editi, tratti dalla pubblicazione relativa al “saggio 6” della Soprintendenza Archeologica della Lombardia (Passi
Pitcher 1996), sia disegni inediti relativi ai materiali recuperati nello scavo
Sud e nell’area della Domus del Labirinto in occasione degli interventi ad
opera dell’Università.
La terza sezione, l’ARCHIVIO, contiene tutta la documentazione di
scavo ed è risultata senza alcun dubbio la più impegnativa dal punto di vista
progettuale. Sono state, innanzitutto, create delle sottosezioni di riferimento,
in cui far con�uire tutto il materiale documentario: Inventari e Schede, Fotogra�e, Rilievi. Per ogni sottosezione è stato programmato un lavoro preventivo
per la trasformazione della maggior parte dei documenti, solo parzialmente
in formato digitale.
La prima sottosezione – Inventari e Schede – risulta presente nel menu
di navigazione attraverso una cella attiva che permette la visualizzazione di
un sottomenu, in cui compaiono le due voci di riferimento: Schede e Inventari.
La pagina HTML dedicata alle Schede (Fig. 6) contiene tutte le schede di US
redatte nel corso delle campagne di scavo dell’area della Domus del Labirinto,
ordinate per numero progressivo di US: le singole schede, originariamente
in formato Word, sono state riunite in gruppi di venti all’interno di un unico
documento in formato PDF, e risultano consultabili attraverso l’icona di collegamento presente nella pagina (PDF), che permette la visualizzazione del
gruppo di schede indicato dal numero identi�cativo delle US collocato al di
sotto dell’icona di collegamento.
Anche gli Inventari, originariamente in formato Excel, sono stati trasformati in formato PDF. Suddivisi per anno, dal 2001 al 2006, gli Inventari
contengono la lista di tutti i reperti recuperati nel corso delle sei campagne di
scavo effettuate nell’area della Domus del Labirinto, e conservati in deposito
412
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 6 – Pagina di accesso alla consultazione delle schede di Unità Stratigra�ca.
temporaneo su autorizzazione della Soprintendenza per i Beni Archeologici
della Lombardia, presso il magazzino-laboratorio dell’Università degli Studi
di Milano a Calvatone.
La seconda sottosezione riguarda la documentazione fotogra�ca degli
scavi eseguiti nell’area della Domus del Labirinto. Per ogni anno di scavo è
stata effettuata una selezione e per ogni ripresa è stato scelto lo scatto migliore, mantenendo inalterata la numerazione originaria dell’archivio fotogra�co
generale. Gli archivi così creati, divisi per anno di scavo, sono stati utilizzati
per realizzare delle gallerie fotogra�che, per la cui creazione è stato utilizzato Adobe Photoshop CS3. Dalla cella relativa alle Fotogra�e, contenuta nel
413
L. Palmieri
Fig. 7 – Esempio di galleria fotogra�ca.
menu di navigazione, si visualizza il sottomenu di riferimento, che presenta
due tipologie di collegamenti differenti: il primo (Elenco fotogra�e) consente
l’accesso a una pagina HTML in cui è presente il link all’elenco delle fotogra�e,
un documento in formato Excel, inserito nel DVD in formato PDF, contenente
la lista delle immagini presenti nelle gallerie fotogra�che, ordinata per numero
progressivo di US, e facilmente consultabile attraverso la funzione “Trova”
del software Adobe Acrobat.
Il secondo collegamento è rappresentata dai link che permettono l’accesso diretto alle singole gallerie fotogra�che. Le pagine HTML dell’Archivio
fotogra�co risultano di facile lettura, in quanto composte da pochi elementi
414
“Progetto Calvatone”: dallo scavo all’edizione multimediale
Fig. 8 – Pagina di accesso alla consultazione della Bibliogra�a.
(Fig. 7). Ogni fotogra�a contenuta nelle gallerie fotogra�che può essere ingrandita: tale operazione consente l’accesso a una seconda galleria fotogra�ca,
attraverso cui è possibile visualizzare ogni singola immagine, procedendo
o retrocedendo nella visualizzazione attraverso le frecce grigie situate al di
sopra dell’immagine stessa, con la freccia centrale che consente di ritornare
al primo livello di visualizzazione.
La terza e ultima sottosezione riguarda i Rilievi di scavo: anche per
questa documentazione è stato necessario programmare un lavoro preliminare, funzionale all’immissione dei rilievi delle singole US all’interno del DVD.
415
L. Palmieri
L’archivio contenente la documentazione gra�ca degli scavi condotti nell’area
della Domus del Labirinto, al momento iniziale del progetto, era già in formato digitale, grazie a un grosso sforzo effettuato nel 2004 per recuperare la
documentazione pregressa. I rilievi presenti nell’archivio di scavo sono stati
così trasformati da �le in formato DWG (AutoCAD) a �le in formato PDF,
per un corretto inserimento nel DVD, mantenendo inalterata la scala originaria (1:20), e rinominati con il nome di US di riferimento, per consentire
una rapida identi�cazione del rilievo stesso (abbandonando in questo caso
la numerazione d’archivio). La pagina HTML dedicata ai Rilievi presenta la
medesima interfaccia gra�ca della pagina dedicata alle Schede di US, e identica
risulta la struttura: i singoli rilievi sono stati riuniti in gruppi di venti all’interno
di un unico documento in formato PDF e risultano consultabili attraverso
l’icona di collegamento presente nella pagina che permette la visualizzazione
del gruppo di rilievi indicato dal numero identi�cativo delle US collocato al
di sotto dell’icona di collegamento.
La quarta sezione è costituita dalla BIBLIOGRAFIA, e rappresenta lo
spazio virtuale in cui sono raccolti tutti i riferimenti bibliogra�ci citati nei
contributi scienti�ci. La cella attiva relativa alla Bibliogra�a, presente nel menu
di navigazione, consente l’accesso alla pagina HTML in cui sono visualizzate
le abbreviazioni bibliogra�che afferenti alla lettera “A” (Fig. 8): da questa pagina è possibile accedere alle altre pagine caratterizzanti la sezione attraverso
il menu situato al centro, in cui sono riportate tutte le lettere dell’alfabeto,
funzionali ai collegamenti alle singole pagine di pertinenza della lettera di
riferimento. È possibile inoltre consultare tutta la bibliogra�a presente nella
pubblicazione in formato PDF, attraverso l’icona di collegamento PDF che
consente la visualizzazione del documento in versione stampabile
4. Conclusioni
Attraverso la descrizione del progetto informatico realizzato per la
pubblicazione dei nuovi scavi nell’area della Domus del Labirinto, si è voluto
dimostrare l’assoluta conformità di un supporto multimediale quale il DVD
all’edizione di uno scavo archeologico. Da notare, in particolare, le possibilità
offerte in relazione alle potenzialità di visualizzazione e di consultazione dei
contenuti, che permettono una rapida divulgazione dei risultati conseguiti
e una condivisione delle nuove conoscenze acquisite in ambito scienti�co
(e non solo), per uno scambio pro�cuo ai �ni di un continuo sviluppo della
disciplina archeologica.
Lilia Palmieri
Dipartimento di Scienze dell’Antichità
Università degli Studi di Milano
416
“Progetto Calvatone”: dallo scavo all’edizione multimediale
BIBLIOGRAFIA
Albeni M. 2008, ES 8905. La frequentazione dell’Ambiente C. Analisi dei materiali datanti,
in Calvatone-Bedriacum 2008.
Bacchetta A. 2008, La Domus del Labirinto, in Calvatone-Bedriacum 2008.
Bacchetta A. 2009, Scavi e ricerche a Calvatone romana: il “Quartiere degli Artigiani”
(scavi 2005-2007), «Lanx. Rivista della Scuola di Specializzazione in Archeologia
- Università degli Studi di Milano», 2, 169-183.
Bacchetta A. c.s., Calvatone (CR), Costa di S. Andrea - Area di proprietà provinciale. Un
nuovo mosaico dal vicus di Bedriacum, «Lanx. Rivista della Scuola di Specializzazione
in Archeologia - Università degli Studi di Milano», in corso di stampa.
Benedetti D. 2008a, La Domus delle Esagonelle, in Calvatone-Bedriacum 2008.
Benedetti D. 2008b, ES 9013. Il piano in pezzame laterizio, in Calvatone-Bedriacum
2008.
Burenhult G., Arvidsson J. (eds.) 2002, Archaeological Informatics: Pushing the Envelope.
CAA 2001 (Gotland), BAR International Series 1016, Oxford, Archaeopress.
Bursich D. 2008, Un contesto moderno: analisi dei materiali per la de�nizione di un orizzonte cronologico e delle più recenti attività nell’area di proprietà provinciale, in
Calvatone-Bedriacum 2008.
Calvatone-Bedriacum 2008, M.T. Grassi (ed.), Calvatone-Bedriacum. I nuovi scavi nell’area
della Domus del Labirinto (2001-2006), Milano, DVD.
Calvatone romana 1991, G.M. Facchini (ed.), Calvatone romana. Studi e ricerche preliminari, Quaderni di Acme 13, Milano.
Calvatone romana 1997, G. Sena Chiesa, S. Masseroli, T. Medici, M. Volonté (eds.),
Calvatone Romana. Un pozzo e il suo contesto. Saggio nella zona nord dell’area di
proprietà provinciale, Quaderni di Acme 29, Milano.
Cerutti A. 2008, ES 9301. Una fossa di scarico, in Calvatone-Bedriacum 2008.
Clarke J. 2002, Questions raised by electronic publication in archaeology, in Burenhult,
Arvidsson 2002, 351-355.
Corsano M. 1991, Le fonti antiche, in Calvatone romana 1991, 51-59.
Crisà A., Le monete, in Calvatone-Bedriacum 2008.
Forte M. 2000, Comunicazione archeologica, in R. Francovich, D. Manacorda (eds.),
Dizionario di archeologia, Roma-Bari, Laterza, 75-80.
Grassi M.T. 2007, Calvatone (CR). Località Costa di S. Andrea, area di proprietà provinciale. Vicus di età romana: la fase pre-Labirinto e l’ambiente 2005, «Notiziario della
Soprintendenza per i Beni Archeologici della Lombardia», 2005, 109-116.
Grassi M.T. 2008a, La ceramica a vernice nera di Calvatone-Bedriacum, Flos Italiae. Documenti di archeologia della Cisalpina Romana, 7, Firenze.
Grassi M.T. 2008b, Introduzione. Dal Labirinto all’olla “tipo Calvatone”, in CalvatoneBedriacum 2008.
Grassi M.T. 2008c, Calvatone (CR). Località Costa di S. Andrea, area di proprietà provinciale. Vicus di età romana: scavi oltre la Domus del Labirinto e nel Quartiere degli
Artigiani, «Notiziario della Soprintendenza per i Beni Archeologici della Lombardia»,
2006-2007, 73-81.
Guermandi M.P. 2000, L’archeologia in rete. Internet e Multimedia, «Archeologia e Calcolatori», 11, 391-395.
Guermandi M.P. 2003, Internet e Multimedia, «Archeologia e Calcolatori», 14, 336339.
Guermandi M.P. 2004, Nuovi linguaggi e “vecchie tecnologie”: comunicare la conoscenza
archeologica attraverso la rete, «Archeologia e Calcolatori», 15, 483-496.
417
L. Palmieri
Lorenzi J. 1996, Il territorio di Calvatone in epoca preistorica, in Passi Pitcher 1996,
1,1, 45-54.
Manacorda D., Caravale A., Laudando M.T., Zanini E. 2001, Il mondo dell’archeologia. Storia, metodi, protagonisti, Roma, Istituto della Enciclopedia Italiana Treccani,
CD-ROM.
Mirabella Roberti M. 1972, Scavi a Bedriacum, in Archeologia e storia nella Lombardia
padana. Bedriacum nel XIX centenario delle battaglie. Atti del Convegno (Villa Monastero di Varenna, Lago di Como 1969), Como, 103-122.
Nava S. 2008, ES 9116. Un cumulo di macerie dopo la fase residenziale, in Calvatone-Bedriacum 2008.
Orsenigo C. 2008a, La media età imperiale: rinnovamento e trasformazione, in CalvatoneBedriacum 2008.
Orsenigo C. 2008b, L’olla tipo Calvatone, in Calvatone-Bedriacum 2008.
Orsenigo C. 2008c, ES 8908. Il crollo dell’Ambiente C, in Calvatone-Bedriacum 2008.
Ossorio F. 2008a, I contesti nella Domus del Labirinto: osservazioni generali, in CalvatoneBedriacum 2008.
Ossorio F. 2008b, ES 9226. Il riempimento del pozzo, in Calvatone-Bedriacum 2008.
Palmieri L. 2008, ES 9228. Una fossa rituale nella Domus del Focolare, in Calvatone-Bedriacum 2008.
Passi Pitcher L. 1996 (ed.), Bedriacum. Ricerche archeologiche a Calvatone, Milano, Edizioni Et.
Passi Pitcher L., Finzi E., Sena Chiesa G. 1987, Calvatone (Cremona). Programma di ricerche nel “vicus”. Studio geomorfologico e geo�sico. Piano di intervento, «Notiziario
della Soprintendenza Archeologica della Lombardia», 1986, 223-225.
Ravasi T. 2008, Prima frequentazione dell’area e impianto degli edi�ci residenziali, in Calvatone-Bedriacum 2008.
Romagnolo M. 2008, ES 8904, ES 8814, ES 8963, ES 8907. Una grande fossa e i suoi livelli
di riempimento, in Calvatone-Bedriacum 2008.
Sanders D.H. 2000, Archaeological publications using Virtual Reality: case studies and caveats, in J.A. Barceló, M. Forte, D.H. Sanders (eds.), Virtual Reality in Archaeology,
BAR International Series 843, Oxford, Archaeopress, 351-355.
Sena Chiesa G. 1998, Calvatone-Bedriacum: un vicus commerciale lungo la via Postumia,
in Sena Chiesa, Arslan 1998, 345-367.
Sena Chiesa G., Arslan E.A. 1998 (eds.), Optima Via. Postumia. Storia e archeologia di
una grande strada romana alle radici dell’Europa. Atti del Convegno Internazionale
di Studi (Cremona 1996), Cremona.
Slavazzi F. 2008, I pavimenti del settore di rappresentanza, in Calvatone-Bedriacum
2008.
Sperti L. 2008a, ES 8905. La frequentazione dell’Ambiente C. Per la cronologia dell’olla
tipo Calvatone, in Calvatone-Bedriacum 2008.
Sperti L. 2008b, ES 8916, ES 8923, ES 8973. I contesti “post-Ambiente C”, in CalvatoneBedriacum 2008.
Volonté M. 2008, Il mosaico del Labirinto, in Calvatone-Bedriacum 2008.
Zanini E. 2001, L’anfora e i suoi miti, Piombino, Museo Archeologico del Territorio di
Populonia.
Zanini E. 2002, Dalla “Villa Publica” alla Via delle Botteghe Oscure, Roma-Milano, Museo
Nazionale Romano-Crypta Balbi.
Zanini E. 2004, Scrivere per il multimediale: alcune ri�essioni di un non-specialista, a partire
da un’esperienza recente, «Archeologia e Calcolatori», 15, 63-80.
Zenoni G. 2008, US 8148. Una fossa di scarico, in Calvatone-Bedriacum 2008.
418
“Progetto Calvatone”: dallo scavo all’edizione multimediale
ABSTRACT
The paper presents the project for the publication of archaeological excavations conducted from 2001 to 2006 by the University of Milan in collaboration with the University
of Pavia at Calvatone-Bedriacum (CR), in the area of the Domus del Labirinto. The project
proposes to test a new form of communication, which permits to offer complete information
on the research carried out over the years. In particular, the project aims at a more effective
and immediate form of communication, mediated by the use of a multimedia support such as
the DVD, with the purpose of developing a functional model for the edition of any archaeological excavation. The innovative and experimental publication on DVD, made possible by
the contribution of the Regione Lombardia (Assessorato alle Culture, Identità e Autonomie
della Lombardia), has allowed us not only to present the analysis and interpretation of the
excavations, through a large number of images, but also to provide the full documentation of
the archive – inventories, recording sheets, photographs, drawings, plans – which is usually
excluded from publication, for obvious problems of space and costs.
419
Archeologia e Calcolatori
20, 2009, 421-427
F. D’Andria, G. Scardozzi, A. Spanò (eds.), Atlante di Hierapolis di Frigia, Istanbul
2008, Ege Yayınları.
Il volume, curato da Francesco D’Andria, Giuseppe Scardozzi e Antonia Spanò,
è il secondo della Collana “Hierapolis di Frigia” pubblicata dalla MAIER (Missione
Archeologica Italiana a Hierapolis), che da più di cinquanta anni opera sul pianoro
occupato dalle rovine dell’antica città, che si affaccia sulla valle del �ume Lykos. Come
rileva F. D’Andria nell’introduzione, «L’Atlante vuole sancire un cinquantennio di
ricerche, offrirne una sintesi facilmente consultabile, proiettare le attività nella prospettiva di un futuro in cui la conoscenza di Hierapolis sarà af�data ai tanti giovani
che hanno trovato nei nostri cantieri un’opportunità unica di formazione». Si tratta,
dunque, di un’opera monumentale, caratterizzata da un approccio metodologico
interdisciplinare che ha visto il concorso di numerosi ricercatori specializzati in diverse discipline e la stretta collaborazione tra l’équipe di geomatica del Politecnico di
Torino e i topogra� dell’Università del Salento e dell’Istituto per i Beni Archeologici
e Monumentali (IBAM) del CNR di Lecce.
Il volume è suddiviso in due sezioni principali: “Cartogra�a e carta archeologica
di Hierapolis di Frigia” (pp. 1-47) e “Atlante di Hierapolis di Frigia” (pp. 48-147). La
prima sezione, preceduta da una pianta generale dell’area urbana in cui è evidenziata
la suddivisione in regiones e insulae, s’incentra sulla cartogra�a numerica e sulle
metodologie adottate per offrire una con�gurazione unitaria alla rappresentazione
della città, attraverso un processo di armonizzazione della documentazione idoneo a
fondere insieme «le “tante” Hierapolis che ad oggi costituiscono il poliedrico quadro
insediativo che gli studi archeologici e storici hanno delineato» (A. Spanò, p. 1). Questo
approccio, necessariamente interdisciplinare, ha portato alla fusione di tre diversi tipi
di rappresentazione gra�ca: la carta topogra�ca, per delineare i caratteri del territorio,
la carta archeologica, per documentare le testimonianze riportate in luce, le tracce
ancora interrate e le proposte ricostruttive, e in�ne la rappresentazione architettonica
per presentare nel dettaglio i complessi monumentali e il sistema urbano.
Le tre fonti principali di informazione della carta di Hierapolis, costantemente
sottoposte a veri�ca, confronto e integrazione, sono il rilievo metrico di dettaglio a
terra, l’ortofoto satellitare, che deriva da una scena QuickBird del 2005, e la restituzione cartogra�ca turca degli anni Novanta, realizzata in base a un volo più antico.
A partire dal 2001, l’adozione e l’uso sempre più intensivo di nuove tecnologie e
nuovi strumenti, quali le immagini satellitari e il GPS, hanno determinato l’esigenza
di riferire la carta di Hierapolis a sistemi di riferimento nazionali e in particolare a
due diversi sistemi cartogra�ci: quello topogra�co, a piccola scala, e quello catastale.
I dati, organizzati all’interno di un database relazionale, sono stati archiviati in una
piattaforma GIS e la loro elaborazione ha dato vita a Modelli Digitali del Terreno,
che favoriscono la visualizzazione di informazioni altrimenti non apprezzabili, quali
la pendenza del terreno, l’esposizione dei versanti, le direzioni di scorrimento e i potenziali volumi dei corsi d’acqua, agevolano lo studio integrato dei dati archeologici e
di quelli morfologici e, con la loro tridimensionalità, danno una visione del complesso
informativo in maniera assai vicina alla realtà.
Particolare attenzione è stata dedicata alla rappresentazione delle evidenze
archeologiche e architettoniche, frutto dell’integrazione dei rilievi forniti dai singoli
gruppi di lavoro che operano sul pianoro. Tale rappresentazione, che riguarda in
particolare l’edi�cato antico, le necropoli monumentali e la viabilità urbana ed extra421
Recensioni
urbana, «è stata affrontata tramite la continua sintesi, integrazione e omogeneizzazione delle informazioni al �ne di ottenere una proposta di rappresentazione adatta
alla scala utilizzata (1:1000)» (C. Bonfanti, p. 10). Inoltre, dal 2001, la gestione del
rilievo archeologico a Hierapolis è avvenuta all’interno del sistema messo a punto
dal Politecnico di Torino per la planimetria della città, giovandosi dell’integrazione di
diverse tecnologie (Stazione Totale, GPS e GIS). I rilievi di scavo, realizzati utilizzando
la tecnica celerimetrica, trasformati in formato digitale, georeferenziati e digitalizzati, sono andati a implementare l’archivio dei dati gra�ci, che costituisce il cuore
del sistema informativo elaborato dal Laboratorio di Informatica per l’Archeologia
dell’Università del Salento (B. Pecere).
Due capitoli in particolare forniscono elementi di dettaglio relativi all’applicazione di moderne tecnologie di elaborazione dei dati: l’ortoproiezione di immagini
satellitari per la realizzazione di prodotti cartogra�ci, con precisioni compatibili a
quelli della tradizionale cartogra�a numerica e/o fotogra�ca (F. Chiabrando); le
elaborazioni multispettrali delle acquisizioni satellitari per meglio evidenziare le
tracce e le anomalie riferibili a resti archeologici sepolti o a elementi paleo-ambientali; l’integrazione delle ricerche di super�cie e dei dati telerilevati con prospezioni
geomagnetiche e con l’utilizzo del GPR (G. Scardozzi).
La prima sezione si chiude con un capitolo di sintesi archeologica, dedicato
alle principali fasi di trasformazione dell’impianto urbano: dalla fondazione di
Hierapolis in epoca ellenistica alla prima età imperiale (III sec. a.C.-età neroniana),
per passare attraverso l’età imperiale (età �avia-IV sec. d.C.) e l’età proto-bizantina
(V-metà VII sec. d.C.) e per giungere in�ne alle epoche medio-bizantina, selgiuchide e
ottomana (post metà VII sec. d.C.). L’impianto urbanistico ortogonale di Hierapolis,
che risulta fortemente integrato con la morfologia del terreno, risale al periodo della
fondazione e rimane sostanzialmente invariato �no all’età proto-bizantina, nonostante
gli ingenti danni provocati nel tempo da tre grandi eventi sismici (nel 60 d.C., nella
seconda metà del IV secolo d.C. e alla metà del VII secolo d.C.), che hanno segnato
la storia della città e che hanno comportato ripetuti interventi di ristrutturazione e
di ricostruzione (G. Scardozzi).
La seconda sezione del volume è dedicata all’Atlante vero e proprio. Ad
un’iniziale descrizione del repertorio delle entità e dei simboli gra�ci utilizzati, che
permette di avere un quadro sintetico della corrispondenza tra i dati (le entità spaziali)
e i simboli gra�ci associati, segue l’illustrazione dei 4 Quadri d’insieme. Il Quadro
1 è caratterizzato dalla sovrapposizione dei dati relativi all’antropizzazione antica
all’ortofoto satellitare (scala 1:25.000) e offre con immediatezza una panoramica
della morfologia del territorio su cui sorge Hierapolis. Il Quadro 2 e il Quadro 3
contengono gli strati informativi di natura vettoriale che compongono la cartogra�a:
nel primo caso è riportato il taglio dei fogli dell’Atlante (1:10.000), mentre nel secondo l’estensione è limitata all’area urbana e alle strutture edi�cate extraurbane più
prossime (1:5000). In�ne, il Quadro 4 concerne la restituzione vettoriale dell’area
della Necropoli Nord (1:4000). I Fogli, in scala 1:1000, sono complessivamente 53
e analizzano in dettaglio la città procedendo da Nord a Sud. Schede sintetiche descrivono le evidenze antiche presenti nell’area urbana e nelle necropoli circostanti,
soffermandosi, oltre che sui principali complessi monumentali, sui resti dell’impianto
urbano, sul sistema di forti�cazione e sulla viabilità antica.
Termina il volume un’Appendice dedicata all’Atlante di Hierapolis on-line, che
si basa sulla realizzazione di una piattaforma webGIS, a completamento, supporto
e integrazione del testo, che «nasce con speci�che �nalità di comunicazione e di
condivisione delle informazioni» (p. 149). Il progetto, coordinato da G. Scardozzi, è
422
Recensioni
stato sviluppato dal Laboratorio di Topogra�a Antica, Archeologia e Telerilevamento
dell’IBAM ed è accessibile sia dal sito web dell’Istituto del CNR (http://www.ibam.
cnr.it/) sia da quello della MAIER (http://www.misart.it/). Rispetto alla versione
cartacea, la versione in rete anzitutto svincola l’utente dal fattore di scala e dalla
consultazione per fogli distinti e gli offre la possibilità di navigare in modo agile e
rapido all’interno delle informazioni. La ricerca può essere effettuata per Monumenti
o per Fasi cronologiche, con esiti che portano alla costruzione dinamica di mappe
tematiche e alla integrazione di dati spaziali e temporali.
Allegata al volume si trova anche una versione su DVD, che si ispira alla struttura dell’Atlante on-line e ne costituisce il collegamento ideale con la versione cartacea.
I contenuti, articolati in 4 sezioni – Atlante della città e delle necropoli, Cartogra�a,
Immagini da satellite e Modelli tridimensionali del terreno – possono essere infatti
consultati attraverso due modalità di navigazione: quella per fogli, tipica della consultazione tradizionale, e quella topogra�ca, tipica della versione in rete.
Nel complesso, l’Atlante di Hierapolis di Frigia costituisce una testimonianza
esemplare di continuità di intenti, di evoluzione metodologica, di approccio interdisciplinare, di utilizzazione cosciente e pro�cua di tecnologie innovative: tutti elementi
indispensabili per operare, nel quadro di una sinergica collaborazione scienti�ca e
in funzione di una condivisione degli esiti della ricerca, il necessario passaggio dalla
fase di lettura diretta sul terreno a quella di progettualità operativa, anche in vista
della tutela e della valorizzazione del sito archeologico.
Paola Moscati
L. Valdés, Gastiburu: el santuario vasco de la Edad del Hierro, Madrid 2009, Real
Academia de la Historia.
Le ricerche di Luis Valdés, pubblicate dalla Real Academia de la Historia in due
imponenti volumi, si pongono come un importante passo nello sviluppo degli studi
sull’area basca nell’età del Ferro, periodo di nebulosa trasformazione sociale e politica
della penisola iberica. Valdés ripercorre le tappe dell’urbanizzazione nella Valle del
Fiume Oka, centrando la sua attenzione sull’importante oppidum di Marueleza e le
sue mura, testimonianza dello sforzo sociale e amministrativo delle élites dell’insediamento, dimostrazione ideologica del loro potere. Punto chiave delle interpretazioni
storiche di Valdés è il locale santuario di Gastiburu. Qui gli scavi dell’autore hanno
portato alla luce una complessa fabbrica sacra, il cui impianto geometrico e la cui
cura nella costruzione, provata fra l’altro dall’identi�cazione di un preciso modulo
di misura, testimonia un altro importante sforzo pubblico della comunità del IV sec.
a.C. che lo ha costruito.
L’impianto architettonico del santuario è accuratamente descritto in uno dei
capitoli centrali del libro e colpisce per la particolare forma comprendente quattro
sporgenze con pianta a ferro di cavallo estese su una piattaforma di roccia pentagonale. La forma a ferro di cavallo che caratterizza gli spazi sacri interni del santuario
è oggetto dell’analisi speculativa di Valdés che ne chiari�ca l’originalità nel panorama
culturale contemporaneo. La mancanza di dati sulla cultura materiale nel santuario,
se si escludono ritrovamenti certo di gran signi�cato come le rappresentazioni di
animali totemici come il cavallo, il bue ed il cane e le tavole da gioco con possibile
valore divinatorio, porta l’autore ad implementare l’uso di metodologie sussidiare per raccogliere più dati possibili sulla funzione dell’area sacra. Proprio questo
423
Recensioni
approccio multidisciplinare rappresenta la conquista più signi�cativa del lavoro
di Valdés, perfetto esempio di una “Archeologia del Paesaggio” volta all’unione di
diverse metodologie, come l’analisi spaziale degli insediamenti, le analisi geologiche,
paleobotaniche e topogra�che dell’ambiente circostante il santuario di Gastiburu e
lo studio dei suoi orientamenti astronomici.
Il territorio in cui l’area sacra fu eretta diventa quindi esso stesso centrale
nell’analisi di Valdés, permettendogli di interpretare la sua funzione nel complesso
panorama storico culturale nel quale lo stesso santuario fu eretto. Questa attenta e
fruttuosa metodologia di indagine, a cui viene associata una corposa documentazione
gra�ca, che comporta dettagliate piante topogra�che della regione, numerosi rilievi di
fase, piante geologiche del territorio e ricostruzioni 3D, analisi botaniche con i relativi
gra�ci, fotogra�e di scavo ed in�ne un completo catalogo dei ritrovamenti del santuario
di Gastiburu, risulta essere la forza maggiore dell’interpretazione storica dell’autore.
L’approccio multidisciplinare permette, anche in assenza di dati epigra�ci, di ricostruire,
in un rigoroso rispetto del contesto storico, le ideologie e le credenze religiose di dif�cile
interpretazione, ma fondamentali nello studio delle civiltà proto-urbane. Questi sono
infatti i contesti di cambiamento, precedenti a quelli economici e sociali, che portano
al costituirsi di una cultura urbana: lo sviluppo ideologico e religioso è inevitabilmente
necessario alla classe sacerdotale e alle élites claniche per creare le condizioni di pax
sociale che permettono la nascita di un insediamento urbano.
Proprio l’analisi archeoastronomica è fondamentale per cercare di interpretare questi cambiamenti nell’ideologia, in particolar modo davanti ad un’assenza
di riferimenti testuali, come è il caso dell’età del Ferro nella Valle del Fiume Oka.
All’analisi degli allineamenti astronomici nel sito di Gastiburu è dedicato infatti un
lungo paragrafo del saggio di Valdés, nel quale si dimostra in modo inequivocabile
che il santuario fu costruito in una località scelta accuratamente in base alla necessità
di trovare nella cerchia di cime montuose che la circondano riferimenti opportuni per
l’osservazione di eventi astronomici. Le strutture del santuario furono poi costruite in
modo da garantire, dal centro della piazza centrale, allineamenti con questi riferimenti
che consentivano la determinazione precisa delle date dei solstizi e dei lunistizi.
L’ampia documentazione presentata dimostra pienamente l’esistenza degli allineamenti affermati e la loro intenzionalità, punto questo di fondamentale importanza
in ogni indagine archeoastronomica ma che viene ancora troppo spesso trascurato.
Lo studio mette così in evidenza come i costruttori di Gastiburu fossero pienamente a
conoscenza non solo del moto apparente del Sole durante l’anno ma anche di quello,
pluriennale e molto più complesso, della Luna: ciò dimostra che essi, anche se non
vi sono prove evidenti che fossero in grado di prevedere le eclissi, avevano scelto il
luogo del santuario sulla base di osservazioni che si erano protratte per decenni e
che erano state accuratamente documentate (anche se non possiamo per ora dire con
quali mezzi) in modo da potere essere trasmesse nel tempo, �no al momento nel quale
avvenne la decisione �nale sulla localizzazione e sulla pianta del santuario.
La presenza di questi allineamenti conferma quindi ulteriormente la conclusione
dell’autore che Gastiburu fosse un “luogo centrale”, sia religioso che amministrativo,
di una società ben organizzata e gestita da una élite religiosa, esperta nelle misure
astronomiche utilizzate sia per scopi rituali che calendariali. Probabilmente, un’ulteriore analisi archeoastronomica sia del santuario di Gastiburu sia dell’oppidum
di Marueleza, condotta utilizzando tutti i mezzi che l’Astronomia e l’informatica
mettono ora a disposizione di questi studi, potrebbe evidenziare altri elementi capaci
di farci meglio comprendere il livello di conoscenze di questa società, evidentemente
ben più sviluppata di quanto sia stato ritenuto in passato.
424
Recensioni
In�ne, notevole è l’attenzione dell’autore alle attività di restauro e conservazione di questo importante santuario di Gastiburu e del sito di Marueleza, a cui nel
libro viene dedicato un intero capitolo nella parte �nale. La valorizzazione di questo
patrimonio archeologico è infatti, e ancor di più in un contesto come il territorio basco, centrale nel contributo che la pubblicazione degli scavi al santuario di Gastiburu
può dare alla diffusione delle conoscenze relative all’origine della identità culturale
del territorio nel quale si colloca.
Andrea Polcaro
Vito Francesco Polcaro
V. Fronza, A. Nardini, M. Valenti (eds.), Informatica e Archeologia Medievale.
L’esperienza senese, Firenze 2009, All’Insegna del Giglio.
Le attività e le esperienze dell’Area di Archeologia Medievale del Dipartimento
di Archeologia e Storia delle Arti dell’Università di Siena nel campo delle applicazioni
informatiche e tecnologiche nella pratica delle discipline archeologiche sono raccolte
in sintesi in un agile e interessante volume di recente edito a cura di V. Fronza, A.
Nardini e M. Valenti. Da circa quindici anni le attività di questo gruppo di archeologi si sono concentrate a sviluppare strumenti e prodotti informatici di supporto
alla ricerca e alla catalogazione. Nel 1996 è stato creato il LIAAM (Laboratorio
di Informatica Applicata all’Archeologia Medievale), di cui fanno parte archeologi
che hanno sviluppato tecniche di documentazione digitale al �ne di gestire in modo
ottimale il dato archeologico e di renderlo fruibile sia dalla comunità scienti�ca, sia
dal pubblico dei non esperti. Gli articoli presentati, anche se relativi ad argomenti
di una certa complessità, offrono al lettore la possibilità di entrare con gradualità
nell’argomento e di comprendere con interesse gli sforzi e le procedure che hanno
portato alla realizzazione di strumenti informatici utili al progresso della ricerca.
Il volume si apre con un contributo di M. Valenti, Una via archeologica all’informatica (non una via informatica all’archeologia), che si pone come un’introduzione
al lavoro del gruppo senese e come una nota sintetica sulle applicazioni informatiche
nel settore archeologico e sulle vivaci attività svolte in questo settore dagli archeologi
di Siena e del gruppo del LIAAM, in particolare. Il testo sottolinea l’importanza ormai consolidata dell’uso dell’informatica nella ricerca archeologica, soprattutto per
quanto riguarda la gestione dei dati raccolti durante le ricerche: «senza l’impiego del
calcolatore non è assolutamente possibile governare in tempo reale la massa composita
dei dati osservati e prodotti durante le indagini, anche se si decidesse di mantenere un
grado di dettaglio fortemente approssimato» (p. 16). Valenti sottolinea in più momenti
l’importanza di «una via archeologica all’informatica, intesa soprattutto come il bisogno di mostrarsi poco informatici e molto archeologi»: questi sono i presupposti
fondamentali del lavoro del LIAAM senese, nell’ambito del quale si sono da anni
valorizzati «il protagonismo dell’archeologo e l’uso strumentale e �nalizzato della
tecnologia» (p. 12). Nel processo di archiviazione ed elaborazione dei dati tramite
gli strumenti informatici, il ricercatore è costretto ad attuare un processo mentale
rigoroso, fondato sulla sua cultura archeologica: ed è quindi «l’archeologo (con il
suo background, le sue conoscenze, la sua sensibilità storica, il suo intuito) a determinare in modo sostanziale e de�nitivo la qualità dell’interpretazione» (p. 18). Valenti
conclude con l’auspicio che l’informatica archeologica possa «diventare patrimonio
425
Recensioni
metodologico comune in ambito archeologico, meritando un appropriato spazio in
tutti i contributi relativi a progetti che ne prevedono l’uso» (p. 27).
I contributi che seguono illustrano le diverse applicazioni informatiche di supporto alla ricerca archeologica sviluppate dai ricercatori del LIAAM e principalmente
legate alla città di Siena e al suo territorio. Apre V. Fronza con L’archiviazione del
dato in archeologia, incentrato sull’uso del database nella registrazione della documentazione archeologica. Si presentano i risultati del lavoro compiuto sul DBMS
Carta Archeologica, un database �essibile e adattabile alle diverse situazioni, pensato
con un’interfaccia utente semplice che consente di effettuare con facilità le operazioni
base, con lineari esportazioni di dati e con possibilità di gestire immagini e �lmati.
F. Salzotti e A. Nardini analizzano, poi, tre diversi tipi di applicazione del GIS
sviluppati e portati avanti dal gruppo del LIAAM. Si inizia con la descrizione dettagliata dei metodi e delle procedure riguardanti l’applicazione del GIS alla ricerca
territoriale (L’applicazione del GIS alla ricerca territoriale: costruzione e gestione della
cartogra�a archeologica), e delle sue �nalità legate alla «produzione di conoscenza e
di cartogra�a per la ricostruzione di paesaggi storici» (p. 67). Si passa successivamente
a descrivere la soluzione GIS utilizzata per raccogliere e gestire dati e conoscenze
relative allo spazio urbano (Il sistema “GIS urbano”: una proposta di archiviazione e
gestione del patrimonio storico-archeologico presente all’interno della città), sistema
che ha forti potenzialità di utilizzo, dalla consultazione e ricerca alla conservazione
e tutela del patrimonio. In�ne in La gestione della documentazione archeologica di
scavo tramite GIS vengono indicate le grandi potenzialità nella gestione della documentazione dei contesti di scavo. Gli archeologi del LIAAM hanno sperimentato a
partire dal 1996 l’uso del GIS nello scavo di Poggio Imperiale a Poggibonsi (SI), pratica
che ha portato alla realizzazione di una soluzione, chiamata OpenArcheo: pensata
con l’obiettivo, assai valido, di creare uno standard di riferimento «che riuscisse a
far dialogare le migliaia di scavi condotti in tutta Italia, proprio come era accaduto
in occasione delle schede US e UT», essa è rimasta, purtroppo, circoscritta nell’uso
all’Area di Archeologia Medievale dell’Università di Siena.
M. Peripimeno presenta l’impiego delle tecniche di laser scanner nello studio
delle strutture architettoniche (Rilievo di monumenti e stratigra�e: l’uso del laser
scanner), con particolare riferimento all’uso che gli archeologi del LIAAM ne hanno
fatto nello scavo del Castello di Mirandolo (Chiusino, SI), mentre F. Salvadori (Modellazione dei reperti) ne analizza un uso legato allo studio di reperti.
Gli ultimi due articoli sono in�ne dedicati ad un aspetto di grande attualità
nella ricerca archeologica: la diffusione dei dati e dei risultati delle ricerche. Internet,
infatti, con il suo grande potenziale di diffusione dei dati, ha permesso negli anni più
recenti di percorrere nuove strade per rendere noti i risultati delle ricerche e divulgare
e scambiare le conoscenze acquisite, in alternativa alla stampa. L’obiettivo che deve
essere comunque perseguito è quello di una trasmissione culturale adeguata e corretta,
obiettivo che il LIAAM persegue tramite il Portale di Archeologia Medievale, on-line
dal 1996. Il portale, valorizzato da una gra�ca piacevole e chiara, mette a disposizione
oltre 8000 pagine che raccolgono progetti, attività e strumenti di diverso tipo (L. Isabella, Diffusione del dato: il portale web di archeologia medievale). L’ultimo articolo
di C. Tronti, Tecnologie multimediali per la documentazione e la comunicazione del
dato archeologico, è dedicato alla comunicazione tramite prodotti multimediali. Anche
in questo settore gli archeologi di Siena hanno portato avanti progetti innovativi,
come quello della collana Archeologia e paesaggi multimediali, progetto editoriale
particolarmente attento alle tecniche di comunicazione e di presentazione gra�ca.
Nell’articolo si spiegano in dettaglio il concetto di multimedialità, i procedimenti che
426
Recensioni
portano alla realizzazione di un prodotto multimediale (quali la de�nizione di una
sceneggiatura e la progettazione di un’interfaccia gra�ca) e la creazione di prodotti
interattivi destinati a mostre e musei.
A corredo degli articoli si trovano molte immagini in bianco e nero e a chiusura
del volume è presente un utile glossario dei termini di informatica archeologica.
Alessandra Caravale
427