Semantica_e_terminol..

Transcript

Semantica_e_terminol..
Università degli Studi di Firenze
Coordinamento centrale biblioteche
SEMANTICA E TERMINOLOGIA NEI PORTALI
Tavola rotonda
Firenze, 11-12 Dicembre 2000
2
INDICE
Semantica e terminologia nei portali…………………………………………….4
Il seguito di un'iniziativa
Giulia Maraviglia………………………………………………………...…….11
Conoscenza, coscienza, comunicazione: tre termini per una proposta operativa
Paola Capitani………………………………………………………………….15
Gli scenari della ricerca sul Web
Mario Rotta…………………………………………………………………….19
Systems for Collaboration
Peter Noerr……………………………………………………………………..27
Un portale europeo per la salute e la sicurezza del lavoro
Maria Castriotta…………………………………………………….…...……..33
Alinari Photolibrary: il controllo terminologico e l’organizzazione
dell’informazione in rete
Rita Scartoni…………………………………………………………..………..41
Biblioteca–Centro di documentazione di Polimoda
Paola Corrias…………………………………………………………………..45
Mediaset: il portale sulla comunicazione
Maria Eleanora Lucchin……………………………………………….……….51
Unioncamere: il portale sull’economia
Elisabetta Bidischini……………………………………………………………55
Internet a supporto della didattica
Giovanni Bonaiuti………………………………………………………………57
3
Problemi legati all’uso specifico di Internet
Cesare Grasso…………………………………………………………………..69
Principi di psicologia cognitiva nella progettazione delle interfacce
Anna Sette………………………………………………………………………73
Il problema delle interfacce
Sergio Cappelli…………………………………………………………………77
I portali visti da chi li usa
Cristina Bueti…………………………………………………………...………85
La catalogazione delle risorse di Internet
Nicola Benvenuti……………………………………………………………….93
Itineroteca Ulisse
Gianfranco Bettoni…………………………………………………………....103
APPENDICE………………………………………………………………….107
4
SEMANTICA E TERMINOLOGIA NEI PORTALI
Tavola rotonda, Firenze 11-12 Dicembre 2000
Abstract
“Semantica e terminologia nei portali”, organizzata dal Coordinamento centrale
biblioteche, Università degli Studi di Firenze, in collaborazione con University Press, fa
seguito al precedente incontro del 27 gennaio scorso sul tema "Il controllo
terminologico delle risorse elettroniche in rete". Il successo ottenuto ha motivato gli
organizzatori a rendere permanente l’occasione di discutere, in presenza e a distanza, tra
utenti ed esperti di gestione dell’informazione. L’obiettivo di questo incontro è
focalizzato sulla tematica dei portali, con l’intento di evidenziare problematiche e
opportunità attuali. La discussione analizzerà i seguenti temi: a. metadata e
interoperabilità; b. semantica nel web; c. usabilità. Per ciascuno di questi temi appositi
gruppi di lavoro predisporranno una sintesi con le proposte conclusive per la gestione
dei forum on line.
Programma
Lunedì 11 Dicembre 2000
10,00 Introduzione alla tavola rotonda (Giulia Maraviglia, Coordinamento centrale
biblioteche)
10,10 Presentazione degli atti della Prima Tavola rotonda "Il controllo terminologico
delle risorse elettroniche in rete" 27 gennaio 2000 (Paola Capitani, consulente sistemi
informativi)
10,20 Gli scenari della ricerca nel web - Mario Rotta (Laboratorio Tecnologie
Educative, Università degli Studi di Firenze)
10,40 Peter Noerr, Consulente, USA, Strumenti e standard per l’organizzazione della
conoscenza;
Software MUSE
5
11,00 Eugenio Picchi (CNR/Istituto di Linguistica Computazionale) Linguistica
computazionale, biblioteche digitali e recupero dell'informazione.
11,30 Introduzione ai gruppi di lavoro (Anna Maria Tammaro, University Press)
11,40 Presentazione di studi di caso nei settori: educazione, formazione, beni culturali,
cinema, ricerca scientifica, salute e prevenzione, economia, viaggi, informazione
giuridica, comunicazione, editoria, moda:
Archivio di Stato di Firenze, Archivio di Stato di Prato (Ida Toccafondi), Archivi
Alinari, (Rita Scartoni), Archivi della Comunità europea, Associazione Italiana
Formatori (Marco Del Medico), Biblioteca Nazionale Centrale di Firenze, CNR/Istituto
per la Documentazione Giuridica (Costantino Ciampi), CNR/Istituto di Studi sulla
Ricerca e Documentazione Scientifica (Adriana Valente), CNR/Istituto Tecnologie
Biomediche (Bruno Felluga, Paolo Plini), CNR/Istituto Tecnologie Didattiche
14,00 Proseguimento degli studi di caso, interventi programmati e comunicazioni
ISPESL (Maria Castriotta), Istituto Superiore di Sanità, Istituto Universitario Europeo
(Michiel Tegelaars), Mediaset (Elita Lucchin), Ministero Beni Culturali (Maria Pia
Mariani, Erilde Terenzoni), Ministero della Sanità (Roberto Cardea), Scala Group
(Paolo Lippi), Telecom, Unioncamere Roma (Elisabetta Bidischini), Polimoda (Tiziana
Marchi), Itinerarioteca Ulisse (Gianfranco Bettoni)
I portali
EULER: un portale della matematica – Patrizia Cotoneschi (Coordinamento centrale
biblioteche)
L’organizzazione delle risorse web all’Università – Nicola Benvenuti (Biblioteca di
Architettura, Università degli Studi di Firenze)
Il portale come supporto alla formazione a distanza - Giovanni Bonaiuti (Dipartimento
di Scienza della formazione, Firenze)
I portali commerciali (Sordi e Mortillaro, Superava Dada)
16,30 Dalla parte dell'utente (interventi di studenti universitari) (Cristina Bueti, Cesare
Grasso, Anna Sette)
16,40 Dibattito
6
17,00 Organizzazione dei gruppi di lavoro
Martedì 12 dicembre
9,00 Divisione nei gruppi di lavoro:
a. metadata ed interoperabilità (facilitatore: Patrizia Cotoneschi)
b. semantica nel web (facilitatore: Paola Capitani)
c. Usabilità dell’interfaccia e strumenti di assistenza (facilitatore: Michiel Tegelaars)
11.20 - Sintesi in plenaria di gruppi di lavoro
12,00 – Conclusione sui contenuti dei gruppi di lavoro (Mario Rotta)
12.30 – Le conclusioni come orientamenti programmatici per il 2001 (Anna Maria
Tammaro)
13,30 – Chiusura dei lavori (Giulia Maraviglia)
Round table "Semantics, terminology and portals"
Florence 11-12 December 2000
Università degli Studi, Florence – Palazzo Pazzi Ammannati - Borgo Albizi, 28 –
Florence Italy
The round table, organized by the Coordinamento centrale biblioteche, Università degli
Studi di Firenze, in cooperation with the University Press, follows the previous one held
last January on "Terminological control of elecronic sources in the web".
The success obtained with the first round table moved the organizers to maintain this
opportunity to discuss, also on distance, among users and experts of information
management. The main goal is the theme of portals, focusing on the actual problems
and the opportunities.
7
The discussion was on the following themes: a. metadata and interoperability; b.
semantic and web; c. interface usabilità and help tools. Each of these was followed by
working groups with operative solutions for further practical schedules.
Monday 11 December
9.30 Registration of participants
10.00 Introduction tothe
round table (Giulia Maraviglia, Coordinamento centrale
biblioteche)
10.10 Round table proceedings of 27 January 2000 “Terminological control of web
sources”(Paola Capitani, information systems consultant)
10.20 Web researches (Mario Rotta, LaboratorioTecnologie Educative, Università degli
Studi di Firenze)
10.40 Tools and standard for the knowledge management, Software Muse, (Peter Noerr,
consultant, USA)
11,00 Computational linguistics, digital libraries and information retrieval (Eugenio
Picchi, Pisa, Istituto di Linguistica Computazionale)
11,20 A national iniziative for the semantics of Internet sources (Jacopo Di Cocco,
CIB, Università di Bologna)
11,40 Metadata and portals: SBN – Claudia Parmegiani (ICCU)
12,00 Introduction to working groups (Annamaria Tammaro, University Press)
12,10 Case studies on the following areas: education, training,cultural heritage,
cinema, scientific research, health and prevention, legal information, communication,
publishing, fashion, travelling, press: Archivio di Stato di Prato (Diana Toccafondi),
Archivi Alinari (Rita Scartoni),
CNR/Istituto per la Documentazione Giuridica
(Costantino Ciampi), ISPESL (Maria Castriotta), Istituto Universitario Europeo
(Michiel Tegelaars), Mediaset (Elita Lucchin), Ministero Beni Culturali (Erilde
Terenzoni)
13,30 Lunch
14,30 Ent-Art Polimoda (Paola Corrias), Itinerarioteca Ulisse (Gianfranco Bettoni
16,00 The portals
EULER: a portal on mathematics (Patrizia Cotoneschi, Coordinamento centrale
biblioteche)
Web sources organization at the University (Nicola Benvenuti, Biblioteca di
Architettura, Università degli Studi di Firenze)
8
The portal as support to the training (Giovanni Bonaiuti, (Laboratorio Tecnologie
dell’Educazione, Facoltà di Scienze della Formazione, Firenze)
16,40 The user point of view (university’ students) (Cristina Bueti, Cesare Grasso,
Anna Sette)
17,10 Debate
17,30 Working groups setting
Tuesday 12 December
9,00 Working groups:
a. metadata and interoperability (facilitator: Patrizia Cotoneschi)
b. web semantic (facilitator: Paola Capitani)
c. interface usabilità and help tools (facilitator: Michiel Tegelaars)
11,00 Coffee break
11.20 Working groups setting
12,00 Conclusions about the three working groups contents (Mario Rotta)
12.30 Conclusions and programs for 2001 (Anna Maria Tammaro)
13,30 Final conclusion (Giulia Maraviglia)
url http://www.unifi.it/universita/biblioteche/eventi/11dic.htm
The proceedings will be published by the University Press of Florence, either on paper
or on line
http://casalini.digital.com
For further information please contact: [email protected], [email protected]
Secretery:
University Press
Palazzo Pazzi Ammannati
Borgo Albizi,28
50122 Firenze
tel. 0039 055 2347658
[email protected]
9
10
IL SEGUITO DI UN'INIZIATIVA
Giulia Maraviglia1
Abstract
I motivi dell’inziativa e le riflessioni sulle complesse ragioni che sono alla base
di questo incontro, destinato a rimanere costante come invito alla riflessione di addetti
ai lavori e di utenti sui temi portanti della gestione e soprattutto del recupero delle
informazioni disponibili e difficilmente, spesso, recuperabili.
La necessità di diffondete esperienze e competenze sono alla base di questo
incontro che vede riuniti bibliotecari, documentaristi, produttori di fonti di
informazione, tutti coinvolti in uno stesso problema: orientarsi nella rete e utilizzare le
risorse.
Parole chiave
Portali, Orientamento dell’utenza, Recupero dell’informazione, Terminologia
multilingue
L'iniziativa segue a distanza di un anno, la tavola rotonda dedicata al controllo
terminologico delle risorse elettroniche in rete. Un anno fa poco si parlava di portali. Un
solo anno di distanza segna un’evoluzione incredibile in questo settore di sviluppo.
Poco tempo è sufficiente a segnare sviluppi considerevoli che presuppongono la
massima attenzione da parte di noi tutti che operiamo in questo ambiente. Un
appuntamento annuale è il tempo massimo che possiamo permetterci di far intercorrere
per incontri come questo. Altrimenti rischiamo di non riuscire a legare un discorso
all'altro tanta è la strada che percorre la rete, la tecnologia ad essa legata, la capacità
umana di organizzare nuovi strumenti per l'archiviazione, la ricerca, il recupero
dell'informazione.
Abbiamo scelto la sede di Borgo Albizi, nuova anche per noi, per legare
maggiormente il tema della tavola rotonda al settore dell'editoria elettronica che,
all'interno dell'ateneo fiorentino, sta avviando una sua presenza con l'iniziativa di
Firenze University Press, che in questa sede ha iniziato, nel corso di quest'anno, la
propria attività.
11
Il successo della precedente tavola rotonda ci ha convinto a proseguire sulla
strada intrapresa, con la proposta di rendere direi permanente l'occasione di discutere
temi e problemi di sempre maggiore attualità e direi complessità, sia per chi come noi
bibliotecari deve fornire l'informazione giusta, deve suggerire all'utente il percorso
giusto per reperire l'informazione, sia per chi questa informazione la deve produrre e poi
organizzare e rendere accessibile. I ruoli si intersecano sempre di più e le occasioni di
scambio e arricchimento della conoscenza che ci consentono occasioni come questa
tavola rotonda con i successivi aggiornamenti futuri, come speriamo possano esserci,
sono preziose per proseguire poi anche a distanza la discussione.
La tavola rotonda di queste due giornate sarà dedicata a 3 temi:
1. Metadata e interoperabilità
2. Semantica nel web
3. Usabilità dell'interfaccia e strumenti di assistenza
A ciascuno di questi temi si dedicherà un gruppo di lavoro che predisporrà una
sintesi che ci fornirà la linea guida per lo sviluppo futuro, per la programmazione futura.
Nel corso della mattinata, prima di passare alla presentazione dei gruppi di
lavoro e degli studi di caso in settori specifici ascolteremo i contributi di:
•
Mario Rotta che introdurrà gli scenari della ricerca nel web;
•
Peter Noerr che presenterà il software Muse, uno strumento di estremo interesse
per tutti gli operatori del settore;
•
Eugenio Picchi che ci introdurrà nel mondo della linguistica computazionale, in
un tema cruciale come quello della biblioteca digitale e del recupero
dell'informazione, tema in cui ormai ci stiamo dibattendo alla ricerca delle
soluzioni migliori sapendo di non avere certezze.
•
Iacopo. Di Cocco con l'esposizione dell'iniziativa nazionale per la semantica
delle risorse Internet così vicina e così importante per la discussione in questa
nostra iniziativa;
•
e l'iniziativa dell'Iccu, il portale SBN, del Sistema bibliotecario nazionale a cui
tutti noi guardiamo come un punto di partenza ma anche di arrivo per tutte le
nostre biblioteche, con l'intervento di Claudia Parmeggiani.
1
Responsabile del Servizio Bibliotecario d’Ateneo, Coordinamento centrale biblioteche dell’Università di
Firenze, Piazza San Marco, 4- 50122 Firenze – tel. 055-2757688 – www.unifi.it, e-mail [email protected]
12
Una mattinata particolarmente intensa e interessante che nel pomeriggio
proseguirà con la presentazione di casi studio per poi entrare nello specifico del tema: i
portali.
Il Sistema bibliotecario dell'Università di Firenze presenterà EULER, un portale
della matematica, frutto di anni di lavoro e collaborazione a livello europeo grazie ad un
progetto specifico finanziato dalla Comunità europea i cui esiti attualmente sono di
estremo interesse sia per la metodologia seguita sia per il prodotto ottenuto che, in
questa occasione, saremo lieti di presentarvi.
E’ sembrato utile, e abbiamo anche creduto di interpretare le difficoltà che
saranno proprie anche di altre istituzioni come la nostra, presentare il punto della
situazione all'interno del nostro SBA sulla organizzazione delle risorse web per gli
utenti delle nostre biblioteche sempre più alla ricerca di risposte esaurienti dalla rete.
Ancora di estremo interesse in ambito universitario ma anche credo al di fuori di
esso è capire quanto il portale possa essere un valido supporto per l'attività formativa.
E infine un panorama, un contributo su quello che nella rete sta causando una
vera e propria rivoluzione: il commercio elettronico, il portale come strumento di
accesso, che identifica l'insieme dei servizi disponibili nell'ambito di uno stesso sito, che
si propone come punto di snodo, di accesso ad altri siti della Rete, dedicato ad una
disciplina specifica come punto di riferimento per una comunità di utenti con interessi
specifici in quel settore, il portale come un generico contenitore, il portale come sintesi
di portali e così via fino alla necessità di fare ordine, di semplificare un mondo sempre
più complesso.
Certo se è vero come è vero che l'informazione più importante è quella che si
trova, assume molto valore la strutturazione del documento immesso in rete oltre che la
necessità che esso venga in qualche modo censito, segnalato da una organizzazione
commerciale per ciò che interessa quel settore, culturale per ciò che interessa
biblioteche ecc.
L'uso di una terminologia condivisa, comune, la condivisione di una semantica
multilingue per la rete saranno dunque strumenti strategici per il successo, per un alto
fattore di reperibilità dell'informazione e dei documenti.
Entriamo quindi nello specifico dei temi che verranno discussi ed esplosi in
questa occasione in cui sentiremo anche il parere dell'utente, nel nostro caso saranno
interventi di studenti universitari. Da essi e anche da altre categorie di utenti dovremo
13
sempre più spesso avere un feedback per capire quanto le nostre strategie operative
siano in realtà funzionali.
Grazie
14
CONOSCENZA, COSCIENZA, COMUNICAZIONE: TRE TERMINI
PER UNA PROPOSTA OPERATIVA
Paola Capitani2
Abstract
I tre termini del titolo individuano sinteticamente gli aspetti che interagiscono
nella riuscita del percorso comunicativo/informativo. E’ infatti provato che la
conoscenza, stimolata dalla consapevolezza, rimane sul soggetto a meno che non
intervenga la comunicazione che produce il trasferimento di dati/informazioni su
soggetti esterni, realizzando quel processo che interessa l’ambito di interesse di questa
tavola rotonda.
A parte l’indispensabile presenza di questi tre fattori, entra in gioco il sistema di
rete senza il quale non si realizzano ricerche, lavori, cooperazioni in un’ottica di
condivisione e di reciproco rispetto.
I tre gruppi di lavoro, rispettivamente sui metadata, sulla semantica e
sull’interfaccia, organizzati nell’ambito della tavola rotonda, propongono tematiche di
particolare interesse, per le quali saranno organizzati gruppi operanti a distanza, per
poter operare celermente, razionalizzando risorse e tempi.
Parole chiave
Conoscenza, Consapevolezza, Comunicazione, Informazione, Reti
The three terms which are here considered synthetically identify the aspects that
will be considered and that interact in the success of the communicative course. It has in
fact been proven that knowledge, stimulated by consciousness, remains in the individual
unless communication intervenes to produce the transfer of data to exterior individuals
thus achieving that process which concerns the sphere of interest of this round table.
Separately from the indispensable presence of these three factors, the networking
system enters into play without which researches, pieces of work, co-operations cannot
be realized in a viewpoint of sharing and reciprocal respect.
The three workgroups which were organized for this round table, respectively on
metadata, semantics, and interface, have proposed themes of particular interest, from
2
Consulente sistemi informativi e formatrice per biblioteche e centri di documentazione. [email protected]
15
which distance work groups will be organized, in order to be able to operate more
rapidly, thus rationalizing resources and time.
Key words
Knowledge, Consciousness, Communication, Information, Networks
Sempre più ci si sente costretti tra due stridenti forze: tecnologia e realtà. Una è
veloce, sintetica, moderna, irruenta, pratica; l’altra è lenta, burocratica, ottusa, con
tempi dilatati, granitica. Ho recentemente sentito un intervento di Stefano Mazzonis,
responsabile relazioni esterne della Federcomin, durante il convegno “Net economy &
skill shortage. Nuove professionalità e nuove modalità formative”3, pronunciare la frase
“il tempo medio di obsolescenza della tecnologia è di circa 6 mesi”. Se si pensa ai
tempi “tecnici” necessari alla pubblica istruzione (o anche a diversi contesti
imprenditoriali) per prendere decisioni e rendere operativi i progetti ci si sente subito
precipitare verso il baratro. Da tempo gira lo slogan che oggi “non è più il pesce grosso
che mangia il pesce piccolo, ma quello veloce che mangia il più lento”, con le
conseguenze che questa riflessione comporta.
Se poi si considera che viviamo nella società dell’informazione e della
comunicazione occorre riportare l’attenzione su tre parametri fondamentali senza i quali
non sono possibili attività, servizi e progetti: coscienza, conoscenza, comunicazione.
Coscienza o consciousness, è basilare per muoversi con competenza e serietà
alla ricerca dei possibili percorsi già presenti e disponibili, ammesso che usiamo la
conoscenza o knowledgement, della quale pare che solo ora ci siamo accorti. Forse il
termine inglese fa più tendenza di quello antico che avremmo dovuto usare da tempi
lontani Ed ecco che finalmente si usano i termini gestione della conoscenza, diffusione
della conoscenza, condivisione della conoscenza, che, grazie anche alle nuove
tecnologie e a Internet, è presente in quantità inimmaginabili, ma, anche in questo caso,
è necessario riuscire a conoscerla, a dominarla e soprattutto a diffonderla.
Da queste premesse nasce l’iniziativa di queste tavole rotonde, organizzate e
coordinate da University Press dell’Università di Firenze. La prima, del 27 gennaio
scorso sul tema “Il controllo terminologico delle risorse elettroniche in rete” di cui
sono disponibili gli atti al sito www.unifi.it/biblioteche, che ha iniziato a mettere
insieme risorse operanti nello stesso settore, nella stessa area, sulle stesse tematiche ma
3
Organizzato dalla Scuola Superiore Reiss Romoli all’Aquila nei giorni 1-2 dicembre 2000.
16
non ancora cooperanti tra di loro. Se la conoscenza non è condivisa è inutile utilizzare
Internet, se la rete non è prima concepita come sistema di cooperazione è inutile
accendere il PC, se non si utilizzano le stesse metodologie e non si hanno gli stessi
obiettivi non si costruirà mai un sistema.
L’organizzazione di questa seconda tavola rotonda “Semantica e terminologia
nei portali” procede nell’analisi del fenomeno che vede coinvolti la terminologia, le
metodologia e l’utenza. Il metodo è sempre lo stesso: coinvolgere gli attori che si
muovono nello scenario considerato, quindi i docenti, gli esperti, i ricercatori, gli
studenti universitari, gli editori. Infatti il programma prevede, al termine delle relazioni
che sintetizzano lo stato dell’arte nei rispettivi ambiti tematici, la costituzione di tre
gruppi di lavoro, rispettivamente su a. metadata e interoperabilità, b. semantica nel
web, c. usabilità dell’interfaccia e strumenti di assistenza. I gruppi di lavoro dovrebbero
continuare a svolgere un lavoro di analisi e studio, operando a distanza e mantenendo
contatti di cooperazione e collaborazione tra loro, creando sinergie anche con realtà
straniere. Non è un caso che nello stesso periodo nel quale è stata organizzata la tavola
rotonda anche a Bruxelles e a Parigi si sono svolti seminari e convegni sullo stesso
tema. E’ evidente che il tema è di interesse e per utilizzare tutte le risorse disponili ed
operare in un’ottica di rete occorre reperire tutti i soggetti coinvolti e costruire una vera
ed efficace rete di relazioni e di scambi, per procedere non solo velocemente, ma
razionalizzando competenze e conoscenze, utilizzando il principio su cui si basa la
condivisione e la gestione della conoscenza, di cui tanto si parla in teoria.
Per fare questo entro in gioco la comunicazione, fattore essenziale senza il quale
ogni conoscenza e ogni consapevolezza rimangono sul soggetto e non utilizzano alcuna
azione transitiva. Ma qui agiscono altre variabili che presuppongono la percezione del
gruppo, la percezione dell’obiettivo condiviso, il rispetto dei ruoli e delle dinamiche
relazionali con gli annessi e connessi. Basta vedere l’uso ancora primordiale che viene
fatto della posta elettronica per la quale non sono sempre rispettate le regole del gioco
previste da qualsiasi netiquette. E la posta elettronica è uno degli strumenti più efficaci e
potenti, oltre che facili da usare e da diffondere: ma occorre conoscere le metodologie e
usare le risorse con professionalità e competenza, come in tutte le attività. Se il gruppo
non è motivato, non è coordinato, non vede l’utilità degli obiettivi qualsiasi sforzo è
completamente nullo. Si tratta anche in questo caso di un lavoro di “formazione e di
orientamento”: basta infatti vedere come si opera diversamente in contesti
17
internazionali, nei quali la posta elettronica è strumento ormai consolidato, il gruppo è
un metodo datato e il rispetto degli altri un gene quasi naturale.
Non resta che procedere per obiettivi e stabilire momenti di verifica e controllo
per apportare modifiche e integrazioni, convinti che solo operando con queste procedure
oggi è possibile muoversi nella confusione dilagante della sovrainformazione, per
riappropriarsi di quella conoscenza che ha origini remote e che presuppone metodo e
organizzazione. Solo se la comunicazione riuscirà nel suo intento, la consapevolezza
avrà avuto ragione della sua essenza.
Già da ora si pensa al prossimo incontro, che sarà organizzato nel mese di
dicembre 2001, sul tema “Web semantico: i problemi della terminologia nella ricerca
scientifica”.
18
GLI SCENARI DELLA RICERCA SUL WEB
Mario Rotta4
Abstract
Percorsi di ricerca e tipologia dei naviganti in rete: queste alcune delle riflessioni
contenute nel testo che affronta le tematiche dalla ricerca sul web. Dall’accesso
all’informazione
alla
costruzione
di
informazioni,
dalla
comunicazione
alla
collaborazione che sono forse gli aspetti più significativi dei questo fenomeno che
sottolinea la ricerca e che accompagna il lavoro quotidiano.
Interessanti le riflessioni sui ruoli e le competenze degli “animatori del web”:
sempre meno "colui che insegna" o "colui che eroga conoscenze", sempre più tutor,
facilitatore, mediatore, moderatore, animatore di rete, una figura in grado di supportare
attività che si svolgono attraverso canali autonomi, attivando azioni/reazioni tra soggetti
attivi, presenti o "remoti".
Parole chiave
Reti, Tipologia dei ricercatori, Criteri di ricerca
Itineraries of research and typologies of web researchers: these are some of the
considerations contained in this work which discusses the topic of research on the Web.
From the access to information to the construction of information, to communication
and collaboration which are perhaps the most significant aspects of this phenomenon
underlining research and accompanying daily work.
The reflections on the roles and skills of "web animators", who are always less
"the person who teaches" or "the person who dispenses knowledge", and are ever more
tutors, facilitators, mediators, moderators, web animators, a figure able to support
activities
which
are
carried
out
through
autonomous
channels,
activating
actions/reactions between active individuals, whether face-to-face or "remote".
Key words
Networks, Researcher typology, Search criteria
19
Dal punto di vista didattico e in generale in Internet si intravedono almeno
quattro dimensioni significative. Una prima dimensione, la più evidente e spesso la sola
ad essere percepita, è l’accesso all’informazione. Internet implica la possibilità di avere
"a portata di mouse" la più grande biblioteca mai esistita, un archivio sterminato,
peraltro in continuo accrescimento. Una seconda dimensione è la possibilità di costruire
informazioni: in Internet non siamo solo lettori, ma anche autori, non solo perché noi
stessi determiniamo i percorsi di lettura delle informazioni che vengono erogate
attraverso Internet, ma anche perché è estremamente facile - e quindi siamo stimolati a
farlo - produrre delle informazioni e depositarle in rete, in modo da condividerle con
altri. Costruire informazione significa inoltre condividere, quindi comunicare: Internet è
anche questo, un modo nuovo e potente di comunicare, e questa dimensione
comunicativa interpersonale va capita e valorizzata, poiché è uno degli aspetti più
interessanti del fenomeno. Comunicare e condividere, produrre informazione e accedere
a informazioni distribuite, configurano complessivamente una quarta dimensione del
fenomeno: Internet è un modo di collaborare, una piattaforma attraverso cui si possono
risolvere insieme dei problemi.
La dimensione comunicativa e quella collaborativa sono sicuramente gli aspetti
più interessanti del fenomeno Internet, quelli su cui conviene soffermarsi più
attentamente: in queste dimensioni la rete in quanto tecnologia presuppone in realtà una
rete di persone. Configura quindi nuovi modi di pensare e nuove dinamiche sociali. La
rete è l'insieme delle persone che comunicano tra loro, che dialogano, che instaurano
delle relazioni, che si aiutano reciprocamente a crescere: l'orizzonte appare illimitato,
entusiasmante. In realtà, in questo potenziale si nascondo dei rischi: nella
comunicazione in rete il rischio principale è l’equivoco, poiché si tratta di una
comunicazione mediata ed è molto facile che si creino situazioni conflittuali, che
andranno, in qualche modo, pilotate, particolarmente in un contesto didattico. Se la
competenza dei docenti, dal punto di vista dell’accesso e della costruzione
dell'informazione, è legata alla capacità di pensare criticamente, da questo punto di
vista, quando si parla di dimensione comunicativa, il ruolo del docente si dovrà
ulteriormente riconfigurare: il docente dovrà imparare quindi a controllare i conflitti che
la comunicazione mediata finisce col generare, ma dovrà anche cercare di sviluppare un
4
Docente di Informatica presso la facoltà di Scienze della Formazione dell'Università di Firenze e collabora con
il Laboratorio di Tecnologie dell'Educazione della stessa Università. e-mail
[email protected] oppure
[email protected]
20
atteggiamento nuovo, sempre meno "colui che insegna" o "colui che eroga conoscenze",
sempre più tutor, facilitatore, mediatore, moderatore, animatore di rete, una figura in
grado di supportare attività che si svolgono attraverso canali autonomi, attivando
azioni/reazioni tra soggetti attivi, presenti o "remoti".
E dal punto di vista di chi vede in Internet prima di tutto un insieme di risorse?
Come si potrebbe definire la rete in termini meno rigidi di quanto non si faccia
solitamente? Personalmente, ritengo che si possa essere d’accordo con quanto
affermano Ibrahim e Franklin, ripresi poi da altri , circa le due direzioni verso cui
Internet, considerata ovviamente come ambiente di apprendimento, si sta evolvendo:
•
da un lato la rete si può considerare come un closed corpus, ovvero come
insieme di informazioni pre/strutturate rivolte a gruppi ben definiti di utenti.
•
dall’altro la rete può essere percepita come un open corpus, una vera e propria
esperienza, uno strumento per costruire attività educative a distanza, dialogare o
condividere situazioni formative.
Nel primo caso l’aspetto su cui si dovrà indagare sarà quello legato alle strategie
di navigazione e di ricerca: usare Internet come insieme strutturato di fonti implica
infatti, prima di tutto, la capacità di sapersi destreggiare tra le infinite sollecitazioni
offerte dalla struttura ipermediale delle informazioni distribuite attraverso la rete.
Internet, da questo punto di vista, può rivelarsi un ottimo sussidio didattico, ma a patto
che si sappia che cosa cercare, come trovarlo, come utilizzarlo, a volte semplicemente
da dove cominciare, superando sia le inevitabili delusioni - il cosiddetto “effetto
silenzio”- che le facili illusioni, il cosiddetto “effetto rumore”. Nel secondo caso, il
problema è più complesso: perché l’uso di Internet possa configurarsi come vera e
propria condivisione di esperienze, infatti, non è solo necessario che gli utenti sappiano
navigare, ma occorre che si abituino da un lato ad elaborare direttamente le
informazioni, dall’altro a dialogare tra loro utilizzando tutti la gamma degli strumenti di
cui si può disporre in rete, ben al di là del browser e della posta elettronica. Ciò implica
dimestichezza con le logiche di programmazione e con la pratica del design, con le
tecniche della comunicazione, con le tecniche di interazione e con i linguaggi e le
logiche della rete, un retroterra di conoscenze che spesso docenti e studenti non
possiedono, tanto che per molti di loro risulta decisamente più difficile sfruttare la rete
in questo senso. Si è osservato che la prima tipologia di approccio produce forme
relativamente tradizionali di didattica a distanza e sfrutta soprattutto le potenzialità del
World Wide Web a livello di accesso remoto e navigazione ipertestuale, mentre la
21
seconda è più orientata verso forme di apprendimento aperte e flessibili, di ispirazione
costruttivistica, basate sulla collaborazione e sul continuo riuso delle informazioni,
connotando conseguentemente Internet come ambiente di condivisione.
Per riassumere, tra le tante descrizioni possibili, ha senso affermare che Internet:
•
è un insieme di risorse, fonti e documenti in continua evoluzione
•
è un insieme di metarisorse in continuo aggiornamento
•
è uno spazio in cui le conoscenze si formano
•
è un insieme di esperienze continuamente in progress
•
è un ambiente per comunicare in tempo reale
•
è un ambiente per collaborare con interlocutori remoti
•
è un modo per condividere conoscenze ed esperienze
C’è una seconda considerazione da fare. Una comprensione più ampia del
fenomeno Internet non può essere affidata solo ad una più larga definizione di campo.
Non è sufficiente. Internet è un ambiente con cui si interagisce: il rapporto tra utente e
informazioni assume quindi un particolare valore.
Al Georgia Institute of Technology di Atlanta due studiosi, Catledge e Pitkow,
hanno studiato ed analizzato il comportamento di un gruppo di utenti durante delle
sessioni di lavoro in Internet per individuare le strategie di navigazione adottate. Si è
notato che il metodo di interazione più usato è di gran lunga il link ipertestuale
suggerito dalla pagina corrente, seguito nell’ordine dal back, dalla richiesta di un
indirizzo URL specifico e dall’uso dei bookmarks (segnalibri) già memorizzati. Ne
consegue, secondo gli autori dello studio, che “gli utenti normalmente non conoscono
l’indirizzo dei documenti a priori, e si affidano ad un approccio euristico per navigare
verso un documento specifico”. Si è osservato inoltre che per arrivare all’informazione
realmente desiderata spesso sono necessari non meno di tre passaggi, partendo da una
home page strutturata, e altrettanti per tornare indietro: ciò dovrebbe far riflettere chi si
occupa di interface design, poiché in questo contesto di relativa difficoltà di movimento
l’utente non si sente del tutto soddisfatto e tende a non approfondire una strategia di
esplorazione che invece potrebbe e dovrebbe portarlo molto più lontano.
Complessivamente, dagli studi del Georgia Tech emergono tre distinte tipologie di
“navigatori”:
•
il general purpose browser, che non ha interessi bene delimitati ed esplora le
risorse di rete cercando di affrontare argomenti generali, da approfondire
22
successivamente restringendo il campo e gli obiettivi. Usa soprattutto i portali
come base per le sue esplorazioni, delega cioè ad altri il compito di selezionare
le risorse. Si può dire che impara perché si informa.
•
il searcher, che sa già cosa vuole ottenere e utilizza prevalentemente strumenti
orientati alla ricerca veloce delle informazioni. Usa soprattutto i motori di
ricerca e questo significa che sa impostare una query, ovvero che conosce
lessico ed elementi di ciò che sta cercando. Si può dire che impara qualcosa
perché approfondisce qualcosa che sa già.
•
il serendip, che naviga spesso senza una meta precisa ma spinto da una curiosità,
alla continua ricerca di qualche “tesoro” nascosto tra le tante isole di quello
sterminato arcipelago che è la rete. Procede scambiando indirizzi con amici,
spesso virtuali, condividendo i "tesori nascosti" nella rete, mettendo insieme un
indirizzario molto personale. Si può affermare che impara perché scopre, ovvero
che ha percepito uno dei significati intrinseci della rete.
Va notato che ci sono assonanze precise tra questa classificazione e un'analoga
classificazione dell'atteggiamento del pubblico nel contesto del museo (che è un insieme
destrutturato di informazioni, metaforicamente associabile a Internet). Perin dimostra ad
esempio come nei musei siano riconoscibili:
•
gli streakers, letteralmente i “corridori”, ovvero coloro che visitano i musei
velocemente senza soffermarsi in particolare su singoli momenti o sale e
leggono malvolentieri le didascalie;
•
gli strollers, letteralmente i “vagabondi”, che dedicano più tempo alla visita e
fondano la loro esperienza sulla curiosità e sull'emozione della scoperta, senza
necessariamente avere un chiaro obiettivo da raggiungere;
•
i readers, i “lettori”, ovvero il pubblico che dedica molto tempo alla visita e la
considera come un momento essenziale dal punto di vista informativo o
formativo.
La differenza tra le due classificazioni è nell'interpretazione che se ne può dare.
Mentre i museologi presuppongono una crescita di consapevolezza nel passaggio da
streaker a stroller a reader, i tre modi affini di interagire con la rete non sono
classificabili lungo una scala di valori: l’uno non è migliore dell’altro. Certamente,
l’atteggiamento del searcher ricorda da vicino quello dello studioso tradizionale mentre
quello del serendip è l’atteggiamento tipico dell’adolescente che ama i videogames e
23
pratica lo zapping televisivo. Tuttavia, ognuno di noi può essere indifferentemente e in
qualsiasi momento un browser, un searcher o un serendip. Dipende da una serie molto
complessa di fattori, dall’obiettivo che intendiamo raggiungere, ad esempio. Non
dobbiamo tuttavia dimenticare che uno degli aspetti che rendono il World Wide Web
particolarmente interessante sul piano didattico è quello motivazionale. Sembra che gli
studenti siano particolarmente stimolati, e conseguentemente più ricettivi, quando il loro
approccio a Internet si fonda sulla curiosità e quando viene privilegiata la tecnica
dell’esplorazione. Uno studioso canadese (Perron, 1995), ha voluto sondare
precocemente le potenzialità della rete in tal senso organizzando un corso di informatica
in gran parte impostato sull’uso di Internet e della posta elettronica. Osservando le
reazioni degli studenti e considerando le loro aspettative, ha individuato due
comportamenti prevalenti: i learners, ovvero coloro che avrebbero desiderato prima di
tutto acquisire delle nozioni, e gli adventurers, ovvero coloro che prima di tutto erano
eccitati dall’idea di sperimentare una nuova forma di didattica tecnologicamente
avanzata e si lasciavano in qualche modo trascinare dal mezzo. Le due tipologie
ricordano molto gli atteggiamenti del searcher e del serendip. Contrariamente alle
aspettative, il corso si è risolto in un parziale insuccesso per i primi e in un completo
successo per i secondi. Per quanto non sia facile definire esattamente i limiti e le
potenzialità della rete come ambiente educativo e collaborativo (Campbell e altri, 1995),
i risultati di questi studi potrebbero significare che le potenzialità maggiori della rete
consistono, più che nelle risorse in quanto tali, nel modo in cui le risorse vengono
esplorate, ovvero nella costruzione di percorsi e attraversamenti.
Alla luce di questa serie di riflessioni, la ricerca e la selezione delle informazioni
su Internet potrebbe essere definita come un percorso che da un qualsiasi punto di
partenza porta ad un obiettivo che a sua volta può costituire un nuovo punto di partenza.
Non si tratta di un obiettivo generico, ma di un insieme preciso di coordinate a cui più
esploratori possono convergere e per raggiungere il quale si toccano obiettivi parziali,
che spesso suggeriscono il bisogno di una sosta o attivano una deviazione dal percorso.
Possiamo provare a paragonare una sessione di navigazione su Internet ad una sorta di
viaggio interstellare: in ogni momento è come se ci trovassimo in un punto e dovessimo
raggiungere un far point: le rotte possibili sono molte, poiché lo spazio virtuale in cui ci
stiamo muovendo non può essere descritto e compreso usando solo la x e la y della
logica cartesiana. Entrano continuamente in gioco altre dimensioni: se il far point è una
galassia, o meglio, una nebulosa inesplorata di risorse su un dato argomento, allora
24
nemmeno il punto di partenza potrà essere dato per scontato. La sua scelta appare infatti
legata alle tecniche di navigazione che ciascun utente preferisce adottare e alle strategie
di ricerca che egli mette in atto.
Si può concludere evidenziando schematicamente una strategia minima per la
buona riuscita di una ricerca in rete. Quando si effettua una ricerca tradizionale, il primo
passo consiste solitamente nel definirne il campo con una certa esattezza: cercare è più
semplice se si circoscrive ciò che si sta cercando. In un ambiente come Internet non è
detto che lo stesso approccio risulti efficace. Bisogna imparare a conoscere la natura e i
limiti della rete per poter effettuare ricerche sensate, per la stessa ragione per cui, per
trovare un documento in un archivio, bisogna essere capaci di “pensare” l’archivio.
Quelle che seguono sono alcune indicazioni utili essenziali per procedere ad una ricerca
in rete in modo proficuo ed efficace, senza dimenticare al contempo che la rete
presuppone un approccio esplorativo, un atteggiamento aperto.
1. Determinare accuratamente l’oggetto della ricerca e domandarsi sempre qual è lo
scopo della ricerca e che cosa si vuole realmente ottenere.
2. Riflettere attentamente sull’oggetto della ricerca e cercare di isolare i concetti più
importanti pertinenti all’argomento.
3. Identificare le parole/chiave più adatte a descrivere i concetti fondamentali
pertinenti all’oggetto della ricerca.
4. Considerare i sinonimi e le varianti delle parole/chiave individuate.
5. Impostare una strategia di ricerca e stabilire un punto di partenza della processo di
ricerca.
6. Non dimenticare mai che Internet non incrementa necessariamente l’abilità di chi
effettua una ricerca e che gli schemi di classificazione e indicizzazione tradizionalmente
applicati nell’organizzazione delle informazioni non sono applicabili a Internet, in
quanto ambiente destrutturato.
7. Evitare di considerare Internet come unica fonte di una qualsiasi ricerca e non
dimenticare che molte informazioni e risorse sono ancora distribuite attraverso altri
mezzi.
8. Cercare di valutare l’utilità di una qualsiasi risorsa Internet domandandosi almeno
se e quanto è autorevole chi ha prodotto l’informazione, qual è l’obiettivo del progetto,
a chi è indirizzato e quanto può essere considerato affidabile nel tempo.
25
26
SYSTEMS FOR COLLABORATION
Peter Noerr
Abstract
This presentation outlines some of the requirements necessary to allow Internet
based systems to communicate and interact. It considers systems whose primary
purpose is to perform transactions on behalf of a human user, where the totality of the
user transaction requires access to more than one source system. It is concerned
primarily with the architecture where a single system operates ‘on behalf’ ofthe user and
interoperates with the source systems which have the information desired by the user, or
which perform the transactions required by the user.
The Information Universe
This discussion centers round the use of an information retrieval system which
acts as a surrogate for the end user in the Information space of the Internet. In the
Internet there are a multitude of Information Sources, there are the networks which
connect the user to the sources and there is the user himself.
For the purposes of this discussion we will limit ourselves to the interaction of a
single user with the networks and the sources of the Internet. However, we should bear
in mind that this interaction is being repeated many times for many users - all
interacting with the same or different surrogate systems, or directly with the sources.
Direct interaction between the user and a number of sources is the current
common model. It exists because it is the easiest situation to set up technically. The user
who wishes to search for information on a particular topic must serially submit the same
search to a number of sources previously identified by the user. In addition to the
tedium of this approach, it is necessary for the user to operate through a number of
different interfaces to search the different sources, and then manually combine and
compare the results.
Within this universe there are additional components which hinder the user in
this interoperability exercise: diverse communications protocols, differing content and
treatment, differing functionality of the sources, and the personalization of individual
source systems.
27
Protocols and Standards
The Internet and the World Wide Web have raised user expectations of a
seamlessly connected world. The very existence of the Internet is the premier example
of interconnection. However it is achieved by a myriad of standards and layer upon
layer of software and systems which ta1k to each other through those standards. The
Internet is based on a loosely connected system where any two points can be connected
in a number of ways. If some fail, then others take over. This is the beauty of the
Internet. It is something that only works because of standards.
However this very proliferation of standards is a problem. There are often a
number of 'standard' ways of achieving the same effect. Of interest here are the
standards for information retrieval. A user's client can transmit the user's query to a
target server in one of a number of protocols or languages. It could use Z39.50, or XML
query language, or as a http string. All of these are standards and their use depends on
the interface (protocol) the server supports. This is the problem - designers can decide
on any of these, or other, standards - and the user has to know which one to use and then
how to use it.
Even once the query has been posed the problem is not over. The results may be
returned in one of a number of record formats. Thus bibliographic records may arrive in
MARC, or XML, or Dublin Core, or a private format. So the user's client has to be able
to recognize these and other formats so that the record can be presented in a sensible
fashion to the user.
Interoperability
There must be a way to overcome these problems. In fact there are two possible
solutions. The first is a series of standard services and methods to describe the servers to
the clients - in effect another layer of standards. The second is to admit the problem will
always be with us and use translators.
Many projects and initiatives are underway to promote interoperability by taking
away the choices within the standards and to describe in a standard way the
functionality of systems. Some of the standards even have such capabilities within them
The Z39.50 standard has an 'Explain' function which enables a client to ask a server
what it can do and how it does it. In theory this is a perfect solution. In practice this is a
function which is hardly ever implemented. There is little benefit to the source
28
organization in setting it up, and they are the ones doing all the work. If it is not
implemented then it cannot be relied on and the system fails.
Currently there is much work underway in creating Profiles for Z39.50 servers.
These are a shopping list of the possible Z39.50 functions to which the servers must
comply if they wish to claim 'Profi1e compliance'. The most famous of these is the Bath
Profile. Then there is the Z- Texas Profile and the emerging National Profi1e in the US.
And there is the problem - there are a number of standard sets of features so we are back
where we started.
This is only in the area of the retrieval protocols, similar 'initiatives' are
underway in the functiona1ity of OPACs, the description of material, subject headings,
and so on. Many of these have been underway for quite some time.
The problem is that as soon as some body decides on a standard set of
something, some other body or organization decides that it needs one of the things left
out in the compromises necessary to create the standard in the first place. So that
organization 'extends' the standard, and so does someone else...
The second option is to allow that human nature will always look for
'improvements', and work with this as a fact of 1ife. This leads to the conclusion that
there needs to be a class of services and systems whose purpose is to translate the
protocols and formats. The translators contain their own dictionaries and methods and
act as black boxes into which a query in one protocol is fed and the same query in
another protocol comes out. The analogy with natural language translation is very close.
Such systems would contain other functions, but their prime functionality is that of
converting messages and data between systems.
A system for collaboration
We have been working for a number of years on a system which assumes the
second scenario above, namely that adherence to standards will not be universal any
time soon.
The system (called Muse) is designed to translate transaction instructions (for
searching the search command and the query string) from the input of the user into the
protocol and language of each of a number of search server systems. It then re-formats
the returned results 1ists and records so they may be manipulated and present in a
consistent display to the user.
29
It is, in fact, a system which makes heavy use of standards. But not one of them.
It uses as many standards as it can to give it the widest possible scope. It is constructed
to accommodate effectively even on-off private protocols and formats.
Muse acts as an intermediary between the user's system (usua11y a Web
Browser and Web Server) and the different search systems the user wishes to search.
Thus it will take the text the user fills in to a Web page and re-format it into the Z39.50
protocol to send the query to a library catalogue, into http to send it to a Web Search
engine, into SQL to send it to a Relational Database Management System. On getting
results back the records are converted (from MARC, HTML, SQL) into a consistent
format. These may be combined and manipulated (for instance by removing duplicates)
and are then presented to the user.
It does not provide any search capabilities. It does not give consistent indexing.
It does not create consistent data. It uses what the sources offer, and makes it practical
for a user to now search 10 or 20 or 100 sources at once to gather all the answers to his
question. Its processing reduces redundancy and focuses the results. It is a very broad
net that can catch a wide range of information because it is prepared to ask for it in a
wide range of languages.
About the author
Dr. Peter Noerr has degrees in Physics and Computer Science and a PhD in
Information Science from The City University, London. In the 1970s he worked for The
British Library for 6 years, four of them as Head of Systems Development. He then
spent three years consulting for academic, national library and IGO clients in all parts of
the world. During this time he started his one library automation systems company
(Information Management and Engineering Ltd (IME» in the UK.
This company produced the "Tinlib" / "The Information Navigator" software and
sold it through distributors in 25 countries to over 2,750 customers in 38 countries. The
company ranked in the top three in either specia11ibraries or academic libraries in the
annual Library Journal survey from 1994 onwards.
Just as important as the company's market success, was the advanced design of
the software. It uti1ised an entity-relationship database for accurate bibliographic
modelling. It introduced a multi-user DOS based system in 1985, incorporating a
client/server architecture. In 1987 the system was migrated to UNIX and it incorporated
Unicode support as early as 1990. The system operated in an isolated environment (very
30
simi1ar to a Java VM) allowing portability across multiple operating systems. The
entire functionality of the ILS was controlled via profi1es, and the system introduced
browsing and inter-record navigation long before the web was available.
Dr. Noerr was the chief systems architect of this and the company's other
products. He created systems designs for all levels of library from small special libraries
to national infrastructure plans for government ministries.
In 1996 IME was sold. Dr. Noerr is currently employed by EduLib, an
information systems, services and consultancy company, as Technical Director. He is
engaged in consultancy and system design work in the areas of digital libraries, multiple
character set handling, information modelling, search system and interfaces, and
systems architecture and design.
He may be contacted through the company at [email protected].
31
32
UN PORTALE EUROPEO PER LA SALUTE E LA SICUREZZA DEL
LAVORO
Maria Castriotta5
Abstract
Partendo dalla definizione del concetto di portale, la relazione si insinua nel
mondo più specializzato dei “gateway per soggetto”, soprattutto per meglio introdurre il
modello di caso proposto: il sito dell’Agenzia Europea per la Salute e la Sicurezza del
Lavoro. Tale organismo, operativo da circa quattro anni, si è dedicato, come compito
prioritario, alla costruzione di una rete informativa dedicata alle tematiche della salute e
sicurezza occupazionali. Il relativo progetto di miglioramento terminologico costituisce
quindi lo spunto per affrontare il tema delle problematiche semantiche nei portali.
Parole chiave
Portali, Salute, Sicurezza, Problemi terminologici
The report stars with the definition of the concept of portal, deepening then in
the more specialised word project gateways; in this way, the proposed model is
introduced: the website of the European Agency for Safety and Health of Work. This
body, fully operational for about four years, has realized, as its priority task, an
information networking regarding occupational safety and health topics. The related
project of terminological improvement constitutes the occasion to deal with semantic
problems in portals.
Key words
Portals, Health, Safety, Terminological problems
Introduzione
Abbiamo già avuto modo di rilevare come l’universo delle tecnologie
documentarie si sviluppi in un movimento incessante di flussi e riflussi6 , per cui spesso
5
ISPESL - Dipartimento Documentazione,Informazione e Formazione – Roma, www.ispesl.it
[email protected]
6
] M.CASTRIOTTA Overload dell’informazione: l’intermediazione come qualità, AIDA Informazioni, 1998, 2,
p.5-10 (p.7).
33
di fronte alle questioni che ruotano intorno alle nuove tecnologie, sembra di assistere ad
un déjà vu. I primi thesauri agganciati alle grandi banche dati bibliografiche a partire
dagli anni Cinquanta, tentavano di risolvere i problemi di “normalizzazione” della
terminologia causati dalle troppe variabili del linguaggio libero e dalla mancanza di
univocità semantica delle parole.
Ora che, passata l’ubriacatura iniziale per l’informazione in rete, la tecnologia
Internet sta diventando più matura, si tenta di cercare soluzioni idonee, importando nel
nuovo mondo dei portali i concetti di semantica e terminologia, anche da parte dei
servizi commerciali, perché ci si rende conto che lo sviluppo di servizi sempre più
attraenti per il cibernauta passa attraverso un’informazione di qualità.
Naturalmente tutto ciò ben venga, perché è giusto fare tesoro (e la parola non è a
caso) delle ricerche e delle sperimentazioni precedenti, ma allora occorre cercare di
ripartire da dove eravamo arrivati e di adattare, questo sì, gli ottimi livelli allora
raggiunti ad un contesto che presenta alcuni aspetti già noti e molti aspetti nuovi.
In questa breve relazione si è seguito un filo conduttore che, partendo dalla
definizione del concetto di portale, si insinua nel mondo più specializzato dei “gateway
per soggetto”, soprattutto per meglio incasellare quello che è il modello di caso
proposto: il sito dell’Agenzia Europea per la Salute e la Sicurezza del Lavoro. Il relativo
progetto di miglioramento terminologico costituisce quindi lo spunto per affrontare il
tema delle problematiche semantiche nei portali.
1. Portali e “gateway per soggetto”
Il termine “portale” è stato introdotto nelle nuove tecnologie di navigazione in
rete dai produttori dei maggiori motori di ricerca commerciali allo scopo di diventare
l’unico, o almeno il principale, punto di ingresso in Internet per i propri utenti. Prima
del 1997 il “portale” era un concetto già presente nel mondo dell’informazione e della
documentazione, ma rappresentava un’utopia, quella del “one-stop-shop”.
Certamente
il
termine
di
“portale”
dilaga
comunque
velocemente,
rappresentando servizi molto diversi tra loro, accomunati da un’utenza generalmente
poco esperta. Una classificazione molto comune li distingue oggi in:7
7
R.RIDI Strumenti e strategie per la ricerca di informazioni www – vers.2.1 (2000-08-06).
<http://www.burioni.it/forum/ridi.mot.htm>
34
portali orizzontali, informazioni generali relative ai più svariati servizi (notiziari,
quotidiani di borsa, e-mail gratuite, oroscopi, stradari, chat e forum, messaggistica SMS,
previsioni del tempo;
portali verticali, di collegamento con informazioni dedicate ad una particolare
tematica.
Più specializzate sono invece le metarisorse denominate “gateway per soggetto”
(acronimo: SBIG, cioè subject-based information gateway), repertori che possono
essere definiti come “servizi di supporto al reperimento sistematico di risorse in rete,
consistenti in documenti, oggetti, siti, servizi, che vengono brevemente descritte e rese
accessibili per mezzo di una struttura per soggetto” 3]. Il tipo più frequente di SBIG è
quello globale con soggetto specifico (un soggetto, globale e monolingue, o al massimo
in lingua inglese più la lingua locale).
Una importante caratteristica di questi servizi consiste nel prevedere un controllo
di qualità. Liste strutturate di link eterogenei possono essere chiamate SBIG, come i
repertori del tipo Yahoo!, ma la loro debolezza generalmente risiede nella mancanza di
una selezione di qualità della collezione e nella descrizione delle risorse senza
l’adozione di uno standard.
Infatti, scendendo nel dettaglio, perché un repertorio di questo tipo possa essere
definito come “SBIG con controllo di qualità” deve prevedere una lunga serie di
parametri [ibid.]:
creazione o intervento manuale;
selezione di qualità dello sviluppo della collezione;
controllo corrente dei link (gestione della collezione);
descrizione delle risorse per mezzo di metadati, i cui indicatori di qualità sono:
adesione ad uno standard;
visualizzazione dei metadati;
ricca serie di metadati di qualità;
livello formalizzato e coerente e stile della descrizione del contenuto
(annotazioni, abstract, review);
uso di livelli più specifici di classificazione, uso di thesauri e indicizzazione per
soggetto;
standard che consentano l’interoperabilità [cfr. pag. 9] con altri servizi.
35
Gli SBIG con controllo di qualità sono stati fino ad oggi sviluppati quasi
esclusivamente da biblioteche e università situati per lo più negli USA, in alcuni stati
europei e in Australia.
Per quanto riguarda le modalità di gestione di questi servizi, si possono
prevedere due tipi di cooperazione:
internazionale in una stessa area di soggetto;
nazionale tra SBIG che coprono differenti aree.
Come esempio concreto di un servizio che costituisce un ibrido tra un portale
non commerciale e uno SBIG, nato dalla collaborazione tra i quindici stati dell’Unione
Europea, viene presentato qui di seguito il sito web dell’Agenzia Europea per la Salute e
la Sicurezza del Lavoro. Il modello proposto risulta interessante non solo perché non è
commerciale, non solo perché ha un’attenzione privilegiata per quello che fino a poco
tempo fa si chiamava “utente finale”, ma anche perché costituisce una sorta di “work in
progress”, in cui il tentativo di perfezionamento del sistema di ricerca, sta portando ad
approfondire le problematiche terminologiche.
2. Il sito dell’Agenzia Europea per la Salute e la Sicurezza del Lavoro
L’Agenzia Europea per la Salute e la Sicurezza del Lavoro è stata istituita con
Regolamento del Consiglio dell’Unione Europea nel 1994 ed è divenuta pienamente
operativa con l’assegnazione della sede a Bilbao, in Spagna, a partire dal 1997. La sua
missione, che riguarda la promozione di ogni possibile miglioramento dell’ambiente di
lavoro, si sostanzia nell’obiettivo pratico di fornire a tutti coloro che sono coinvolti
nelle problematiche della salute e della sicurezza del lavoro, le informazioni tecniche,
scientifiche, economiche e pratiche di settore.
Tutto ciò è stato realizzato in via prioritaria con la messa a punto di un servizio
di informazioni in Internet, che si è basato fin dall’inizio su una rete capillare di centri
informativi in tutta l’Europa, partendo dall’ossatura centrale costituita dai quindici Punti
Focali nazionali che, a livello europeo, condividono obiettivi comuni di organizzazione
della rete.
Ogni Punto Focale è responsabile dell’istituzione e della gestione di network
nazionali per la raccolta e la disseminazione delle informazioni esistenti nei singoli stati
membri. L’Istituto Superiore per la Prevenzione e la Sicurezza del Lavoro, attraverso il
Dipartimento Documentazione, Informazione e Formazione riveste il ruolo di Punto
Focale italiano ed ha avviato, a partire dal 1997, la costituzione del network italiano,
36
coinvolgendo rappresentanti regionali, sindacali e imprenditoriali, oltre ad enti ed
organizzazioni di settore, che hanno dato vita ad un network in crescita, composto
attualmente da circa 80 membri.
Il consolidamento e l’ulteriore sviluppo della rete sono processi costanti
finalizzati alla graduale espansione delle informazioni nazionali, europee ed
internazionali, sulla base delle esigenze informative prioritarie emergenti in materia di
sicurezza e salute sul lavoro.
Tali obiettivi vengono attuati, a livello europeo, prestando particolare attenzione
alla cooperazione con i servizi della Commissione Europea, tra i quali le diverse
Direzioni generali competenti, Eurostat, oltre all’Ufficio delle Pubblicazioni Ufficiali
delle Comunità Europee e alla Fondazione Europea per il Miglioramento delle
Condizioni di Vita e di Lavoro, con sede a Dublino.
E’ prevista inoltre un’estensione della rete a livello internazionale ed
extraeuropeo, creando connessioni con importanti organizzazioni coinvolte a vario titolo
nel settore della salute e sicurezza occupazionali, quali l’Ufficio Internazionale del
Lavoro (ILO/BIT), l’Organizzazione Mondiale della Sanità (WHO/OMS), l’Agenzia
Internazionale per la Ricerca sul Cancro (IARC), l’Organizzazione per la Cooperazione
e lo Sviluppo Economico (OCSE), l’Associazione Internazionale per la Sicurezza
Sociale (ISSA/AISS), l’Organizzazione Panamericana per la Salute (PAHO), oltre ad
istituzioni americane.
La strutturazione del sito web http://osha.eu.int della rete di Agenzia trova il suo
principale punto di forza nella uniformità delle categorie che sono state identificate in
via preliminare e che costituiscono dei grandi contenitori ideali (tradotti nelle diverse
lingue comunitarie), in cui ogni Punto Focale, gestore del web nazionale (per l’Italia
http://it.osha.eu.int ) va ad immettere le informazioni disponibili.
Tali contenitori o voci di soggetto di livello primario, sono i seguenti:
Notizie
Legislazione
Buona Pratica
Ricerche
Statistiche
Sistemi
Formazione
Voci tematiche
37
Pubblicazioni.
Ognuna delle voci di soggetto di livello primario è suddivisa a sua volta in
sottocategorie, che sono obbligatorie per la ulteriore strutturazione delle informazioni
nei quindici siti web interconnessi. Al di sotto del secondo livello, ogni Punto Focale è
libero di adottare voci diverse.
Questo modello di condivisione della gestione del servizio in Internet si
configura come una cooperazione internazionale in una stessa area di soggetto [cfr. pag.
5].
Inoltre, all’interno delle pagine web gestite direttamente dall’Agenzia Europea
presso la sua sede di Bilbao, si trovano altri elenchi strutturati di risorse elettroniche di
settore, sommariamente descritte e correntemente monitorate. Dal suo ruolo di “portale”
per l’utenza più ampia e meno smaliziata, il sito dell’Agenzia è passato anche a quello
di SBIG con un elevato livello di qualità.
3. Progetti per la terminologia
Per migliorare le tecniche di navigazione, che attualmente si basano sul motore
di ricerca Altavista, (e sul suo software Babelfish per risolvere grossolanamente i
problemi di traduzione), è attualmente allo studio la creazione di un thesaurus
multilingue ridotto, basato sui thesauri di settore esistenti. Questo indice strutturato di
parole chiave verrà quindi combinato con un potente motore di ricerca che potrà
navigare in tutti i siti collegati al sistema. Non è possibile prevedere allo stato attuale i
risultati di tale sperimentazione, ma ci si aspetta un notevole miglioramento della
qualità delle informazioni reperite.
D’altronde l’Agenzia Europea non è la prima a percorrere questa strada. C’è un
crescente numero di thesauri disponibili sul web, riguardanti una grande varietà di
discipline, formati e lingue. Sono stati calcolati più di cinquanta thesauri significativi in
rete, che coprono circa trenta tematiche e il loro numero sta crescendo in misura
massiccia8]. Recentemente, molti gateway per soggetto sono stati sviluppati sul web,
utilizzando thesauri per l’indicizzazione e il reperimento dell’informazione; ne è un
esempio il servizio OMNI (Organising Medical Networked Information) con l’uso del
Thesaurus MeSH.
8
A.A.SHIRI, C.REVIE Thesauri on the web : Current developments and trends. Online Information Review,
2000, 24 (4): 273-279
38
Sostanzialmente possono essere identificate due problematiche relative alla
trasposizione dei thesauri su web: la prima di tipo tecnico-informatico e l’altra di tipo
contenutistico. In relazione al primo ordine di problemi, molti produttori di software
sono impegnati nella realizzazione di programmi correlati al web, come html, java e xml
per la costruzione e la pubblicazione dei thesauri. I risultati sono già visibili in rete, con
la possibilità di consultare questi strumenti in forma statica o dinamica. Le tecnologie di
rete sembrano quindi permettere agli utenti di utilizzare i thesauri gerarchicamente o
alfabeticamente e di scegliere con facilità tra termini correlati, più specifici, più ampi,
per includerli nella strategia di ricerca. E’ comunque da notare che i browser web non
sono mai basati su thesauri e gli esistenti formati di metadati ne fanno poco uso [ibid.].
Il secondo ordine di problemi è causato dal fatto che un siffatto entusiasmo per
l’uso della moderna tecnologia web nella pubblicazione di thesauri, ha avuto come
risultato un crescente numero di strumenti di questo tipo. Da qui il bisogno di integrare
le diverse risorse disponibili, almeno nell’ambito di ogni settore disciplinare; di arrivare,
quindi, alla “interoperabilità” tra thesauri, vale a dire alla possibilità di accedere e
utilizzare diversi strumenti contemporaneamente per la ricerca e il reperimento. Ecco di
nuovo che problemi già noti da decenni si riaffacciano: la soluzione consiste
ovviamente nell’adozione di uno standard per la creazione di thesauri (includendo ogni
tipo di vocabolari controllati, sistemi di classificazione, tassonomie, ecc.).
Tra i più importanti progetti di integrazione di thesauri diversi, anche
multilingui, va citato il Thesaurus UMLS (Unified Medical Language System), uno dei
più grandi thesauri nell’area della medicina e campi ad essa correlati. L’edizione del
2000 include più di 730.000 concetti da più di 50 diversi vocabolari biomedici, con
l’inclusione di molte lingue diverse dall’inglese. Questo strumento funziona come
motore di ricerca nel sito della National Library of Medicine (USA), che, come è noto,
consente libero accesso ad un gran numero di basi e banche dati bibliografiche
biomediche tra le più prestigiose.
Conclusioni
Allo stato attuale si può affermare che non esistono ancora delle valutazioni
riguardanti i miglioramenti che vengono dall’assegnazione di descrittori, tratti da
thesauri, nella descrizione e nel reperimento di risorse. A tale proposito, un nuovo
problema emergente è la “sostenibilità”, che potremmo definire come il rapporto
39
costo/beneficio tra intervento manuale (umano) e automatico9 [3]. E in questo senso, ci
sentiamo di ribadire che “la realizzazione di strumenti limitati ad aree disciplinari
specifiche, mediante l’ausilio di theasuri di settore, che siano in grado di ricondurre il
linguaggio naturale entro limiti di contesto, appare come una promettente strada da
percorrere”; anzi, oggi è meglio affermare che l’alta specializzazione appare come
l’unica strada percorribile.
Alla luce di quanto emerso fino ad ora dalle sperimentazioni già effettuate,
possiamo affermare in conclusione che il ruolo dei thesauri, in questo nuovo universo
delle tecnologie di rete, è parzialmente cambiato; o meglio, la sua antica caratteristica di
strumento bilanciato tra la fase di indicizzazione e quella di reperimento, è cominciata a
venir meno e il thesaurus può essere oggi considerato soprattutto uno strumento di
efficace reperimento.
9
T.KOCH Quality-controlled subject gateways: definitions, typologies, empirical overview Online Information
Review, 2000, 24(1): 24-34.
40
ALINARI PHOTOLIBRARY: IL CONTROLLO TERMINOLOGICO E
L’ORGANIZZAZIONE DELL’INFORMAZIONE IN RETE
Rita Scartoni10
Abstract
Sintesi delle principali caratteristiche dei Progetti in corso degli Archivi Alinari:
Progetto Educational e Progetto Business. Dopo aver messo in luce gli aspetti salienti
di entrambi vengono fornite le indicazioni utili per orientare l’utente nella ricerca
attraverso i diversi filtri utilizzati e anche per utilizzare al meglio sia il Thesaurus che le
Authorities utilizzate per navigare negli archivi fotografici.
Parole chiave
Archivi fotografici, Authority files, Campi di ricerca
Synthesis of principle characteristics of the Archivi Alinari Projects in progress:
Progetto Educational and Progetto Business. After illustrating the salient aspects of
both projects, this report gives useful indications for user orientation for research by
means of different filters utilized and for also using in the best way possible both the
Thesaurus and the Authorities adopted for navigating in the photographic archives.
Key words
Photographic archive, Authority files, Research fields.
.In occasione della Tavola Rotonda del 27 Gennaio 2000, ho avuto modo di
presentare sinteticamente la struttura del sistema di catalogazione utilizzato
dall’Archivio Alinari, sistema finalizzato alla ricerca in linea, facendo riferimento, in
quella sede, ai principali sistemi di controllo terminologico in esso adottati: le
Authorities e il Thesaurus iconografico.
Il criterio metodologico di base che ha regolato la codificazione ed il trattamento
semantico delle informazioni ha corrisposto ad una esigenza fondamentale: dare voce
all’immagine, ovvero mentre da un lato la fotografia viene trasformata in immagine
digitale, e quindi diventa fruibile su web, dall’altro i contenuti in essa espressi e di cui la
fotografia rappresenta un momento di estrema sintesi (sia essa creativa che
41
documentaria), vengono per così dire dissociati e presentati analiticamente sotto forma
di termine, di parola.
Messa a punto questa prima fase (sempre suscettibile di aggiornamenti e
varianti) di strutturazione e applicazione degli strumenti di normalizzazione
dell’informazione, è stata affrontata più da vicino la problematica dell’organizzazione
delle informazioni su web, ovvero delle possibilità di interrogazione offerte all’utente.
Quando si parla di informazione o di comunicazione su Internet è impossibile
prescindere dal soggetto principale, dal fruitore, il “consumatore” dell’informazione,
l’utente. E l’utente deve essere in prima battuta identificato, chiaramente in rapporto
allo specifico dei contenuti proposti.
Durante quest’anno si è lavorato quindi ad un approfondimento (rispetto alle
linee guida già rintracciate al momento della strutturazione del sistema di catalogazione)
dell’identificazione e della definizione delle aree di utenza.
Due sono stati gli strumenti determinanti in questa analisi identificativa: da un
lato un’attenta indagine del mondo della rete
nel campo della fotografia e
dell’immagine, dall’altro la considerazione delle specifiche caratteristiche del materiale
fotografico degli Archivi Alinari e del Museo di Storia della fotografia Alinari: un
materiale con grandi potenzialità di documentazione non soltanto della parabola storica
degli oltre 150 anni del “nuovo” mezzo espressivo, la fotografia, ma anche con grandi
capacità di documentazione di un notevole numero di soggetti (dall’arte, all’agricoltura,
all’industria alle scienze …) e di restituzione delle relative infomazioni semiologiche.
Ne è conseguita l’identificazione di varie aree di utenza, rispetto alle quali sono
stati attivati, al momento, due specifici progetti: Il Progetto Educational e il Progetto
Businnes.
Il progetto Educational è rivolto all’utente che utilizza l’immagine come
documento di studio, di ricerca, ed è indirizzato ‘in primis’ al mondo universitario,
italiano ed estero. Il progetto Business è rivolto all’utente che utilizza l’immagine
principalmente a scopi professionali (editori, giornali, agenzie, fotografi…).
Il sito Alinari sarà quindi strutturato come un piccolo portale verticale, ovvero
un portale tematico sulla fotografia. Infatti dal sito Corporate sono previsti gli accessi
alle due Photolibrary Educational e Businnes.
10
Archivi Alinari – www.alinari.it [email protected]
42
In queste due aree l’organizzazione dei dati di accesso e d’interrogazione della
banca dati catalografica e delle immagini digitali inscindibilmente ad essa collegate, è
stata quindi diversificata e calibrata in base alle diverse esigenze dell’utente.
In particolare, nel progetto Educational si è mirato ad una presentazione delle
ricerche che permette sia l’uso di strumenti molto semplici, quali la ricerca libera, sia
l’uso di strumenti d’indagine più sofisticati quali l’esplorazione dei Thesauri.
Attualmente sono possibili quattro tipi di interrogazioni: la ricerca libera, la
ricerca avanzata, la ricerca per liste (autorithies) e la ricerca tramite thesauri.
La ricerca avanza permette di combinare interrogazioni
diverse. Un primo
gruppo di campi è relativo alla storia dell’immagine e al suo contenuto iconografico,
quali: Parole chiave, Soggetto, Fotografo, Luogo dello scatto, Località raffigurata,
Personaggio, Stile fotografico, Data dello scatto. Un secondo gruppo di interrogazioni è
relativo allo specifico settore delle tecniche fotografiche: Tipo oggetto, Tecnica per il
positivo, Tecnica per il negativo. Un terzo gruppo è infine specifico per ricerche su
opere d’arte: Artista, Tipo pera, Data, Collocazione, Periodo e stile.
Si è ritenuto opportuno dare la possibilità all’utente di ricercare l’immagine
attraverso la consultazione diretta delle Authorities; in ricerca per liste sono accessibili
le authorities Fotografi, Artisti, Movimenti stilistici della fotografia, Eventi, Personaggi.
Nella sezione Thesauri è possibile l’esplorazione del Thesaurus iconografico,
del Thesaurus Geografico, di quello relativo al Periodo e stile artistico e del tipo opera.
Contrariamente ai criteri metodologici adottati in altri repertori di indicizzazione, primo
fra tutti l’AAT del Getty Research Institute, abbiamo preferito tenere visivamente
separate le sezioni relativa alla periodizzazione stilistica , alle tipologie artistiche
(nonché agli eventi che nel nostro sistema sono un semplice authority file ‘in divenire’)
dal thesaurus iconografico, funzionale alla ricerca per soggetto.
L’esplorazione dei thesauri viene effettuata tramite la presentazione delle classi
di primo livello, da cui si accede ai descrittori di livello inferiore. I risultati della ricerca
restituiscono sempre come primo dato l’immagine.
Attualmente stiamo lavorando per rendere ancora più agevole e sintetico
l’accesso e l’esplorazione del Thesaurus iconografico, quello più complesso,
raggruppando le 61 classi di primo livello in 8 dipartimenti disciplinari e attivando
collegamenti trasversali tra le classi, attraverso la formula ‘vedi anche’.
Per quanto riguarda i dipartimenti disciplinari li cito qui brevemente facendo
riferimento alle principali classi iconografiche in essi contenute. Un primo dipartimento
43
è relativo alle Arti e comprende classi come Archeologia, Architettura, Arredo e
Arredamento, Arti applicate, Fotografia, Miniatura, Pittura, Scultura.., un altro relativo
alle Arti ricreative e dello spettacolo (Cinema, Televisione, Teatro, Sport), Scienze
naturali e matematiche (Astronomia, Biologia, Botanica, Zoologia…), Scienze
applicate e tecnologia (Agricoltura, Alimentazione, Medicina, Trasporti), Religione,
Storia e Geografia, Letteratura e discipline umanistiche, e infine un ultimo
dipartimento disciplinare relativo alla Scienze sociali (Comunicazione e pubblicità,
Educazione, Ritratto, società…).
44
BIBLIOTECA–CENTRO DI DOCUMENTAZIONE DI POLIMODA11
Paola Corrias12
Abstract
Il centro di documentazione–biblioteca di Polimoda è una biblioteca speciale che
si distingue dalle tradizionali biblioteche di interesse umanistico per alcune
caratteristiche riguardanti l’utenza, la tipologia delle collezioni, la finalità, il servizio di
reference offerto. I documenti di tipo monografico vengono indicizzati con descrittori
che costituiscono un lessico strutturato bilingue relativo alla storia della moda e del
costume, la cui validità scientifica è garantita dalla collaborazione con esperti
specializzati nella storia del costume. L’introduzione di Internet come strumento di
ricerca dell’informazione ha aperto la via a riflessioni di ordine metodologico riguardo
al thesaurus e al lessico controllato, ai quali l’utente sempre meno si rivolge ma che
sono la garanzia di una risposta precisa ad una strategia di ricerca mirata.
Parole chiave
Moda, Servizi di reference, Thesauri
The Biblioteca-Centro di Documentazione di Polimoda is a special which is
different from the traditional library of humanistic interest for several characteristics
regarding its users, the typology of its collection, its aim, and the reference service it
offers. Documents of the monographic type are indexed with descriptive words which
form a structured bilingual lexicon relating to the history of fashion and costumes,
whose scientific validity is guaranteed by the collaboration of experts specialized in the
history of costumes. The introduction of Internet as the instrument of information
research has opened the way for considerations of a methodological order regarding the
thesaurus and controlled lexicon, to which the users turn ever less but which are the
guarantee of a precise answer to a strategy of directed research.
11
Polimoda (Politecnico internazionale della moda) è un istituto superiore di livello universitario di studi sulla
storia del costume e della moda, i cui corsi sono svolti in collaborazione con l’Università degli studi di Firenze
(Diploma di operatore del costume e della moda) e con il Fashion Technology Institute di New York.
12
Bibliotecaria presso la Biblioteca dell’Entart Polimoda di Firenze, [email protected]
www.
Polimoda (Politecnico internazionale della moda) è un istituto superiore di livello universitario di studi sulla
storia del costume e della moda, i cui corsi sono svolti in collaborazione con l’Università degli studi di Firenze
(Diploma di operatore del costume e della moda) e con il Fashion Technology Institute di New York.
45
Key words
Fashion, Reference services, Thesauri
La presentazione dello studio del caso Polimoda deve essere introdotta da alcune
informazioni fondamentali relative alla nostra realtà di biblioteca speciale che presenta,
rispetto ad altre realtà operanti nel settore delle arti, alcune significative particolarità sia
per quanto riguarda l’utenza che per quanto riguarda la collezione, la finalità, il tipo di
reference offerto.
La nostra utenza si compone soprattutto di studenti (circa 530 nell’anno
accademico 2000/2001), di ricercatori di storia del costume e di professionisti del
settore moda (designer, fotografi, manager, aziende).
Il centro si qualifica come un sistema informativo completo, nel quale le
informazioni ottenute dalla raccolta di monografie e di periodici si integrano
organicamente con i dati ottenibili dalla rete. Ciò è possibile grazie all’indicizzazione
dei documenti attuata attraverso descrittori ricavati da testi specializzati e integrati con
il thesaurus AAT.13
Durante i quindici anni di attività (Polimoda nasce nel 1986), è stato costituito
un lessico strutturato bilingue relativo al settore della moda e del costume, la cui validità
scientifica è garantita dalla collaborazione con storici specializzati nella storia del
costume.
Le ricerche effettuate sulla rete sia dal personale che dagli utenti si avvalgono di
un catalogo di siti interessanti per il settore che abbiamo messo insieme e che è
presente, come work in progress, nel nostro centro, a disposizione di chi desideri
effettuare ricerche in rete.
Le tematiche che compongono la collezione comprendono l’aspetto storico,
teorico e
produttivo del settore moda (abiti, accessori, tessuti); un panorama assai
approfondito delle arti figurative, decorative ed applicate; un nutrito insieme di testi
monografici comprendenti fotografia per creativi (maestri fotografi, fotografia di
soggetti specifici, macrofotografia etc.).
13
Art and Architecture Thesaurus, [by J.Paul Getty Trust], Oxford, Oxford University Press, 1990
46
Oltre alla collezione di monografie, periodici e video, la raccolta si compone di
letteratura grigia quali cataloghi pubblicitari, documentazione relativa a fiere del settore,
di un archivio fotografico di modelli di designers contemporanei.
Non diversamente dalle altre realtà documentarie, la finalità della biblioteca è
fornire all’utente rapidamente e con precisione l’informazione cercata: data la
particolarità tipologia delle richieste dell’utenza (immagini, ispirazioni, silhouettes,
particolari nuances di colore, volumi, impressioni), tale finalità è perseguita tuttavia
attraverso modalità diverse.
Nel caso degli studenti (utenti che non hanno ancora confidenza con la
biblioteca) e che mostrano al primo approccio con la collezione un certo impaccio,
abbiamo approntato un percorso educativo finalizzato a renderli presto autonomi nelle
strategie di ricerca, in un breve corso all’inizio dell’anno, articolato in lezioni teoriche
sulla classificazione Dewey e sulla ricerca al catalogo ed esercitazioni pratiche che
sperimentino vari approcci alle informazioni, dalla serendipity tra gli scaffali (tutta la
collezione è collocata a scaffale aperto) alle tecniche di ricerca sulla rete.
Ben presto infatti, gli studenti, usciti dalla scuola e inseriti nel mondo del lavoro,
dovranno essere in grado di effettuare in tempi assai limitati una ricerca approfondita su
particolari temi, linee ed ispirazioni: perciò il ciclo di studi qui compiuto dovrà fornire
loro non solo gli strumenti per esprimere la creatività in modo professionalmente valido
ma anche dovrà comprendere l’apprendimento delle strategie di ricerca particolari di
questa collezione e dei percorsi di reperimento delle informazioni che sono assai utili
anche sul piano della formazione personale.
Anche la letteratura più avvertita, del resto, ha più volte sottolineato
l’importanza di questa “educazione ad apprendere” che è fondamentale per un moderno
servizio di reference, attento ai bisogni dell’utente in modo autentico e partecipe.14
Verso i ricercatori e i professionisti del settore, il servizio di reference è quasi ad
personam: data l’esiguità del tempo a loro disposizione e l’estrema precisione della loro
ricerca, le informazioni fornite sono rapide e puntuali, sostituendosi spesso il
documentalista ad essi o con essi collaborando strettamente.
Quanto detto vale a chiarire la particolarità del contesto nel quale, come abbiamo
rilevato per esperienza, pur essendo a disposizione dell’utente il lessico strutturato
nell’archivio thesaurus consultabile dal pubblico, la ricerca autonoma da parte
14
G. Pili, Imparare in biblioteca, “Biblioteche oggi”, XVI, 1998, 8, pp.62-63, e A.M. Tammaro, Apprendere
ad apprendere, “Biblioteche oggi”, XII, 1999, 10, pp.46-52
47
dell’utente, partendo da esso, è assai rara. Lo studente preferisce una ricerca in
linguaggio naturale, anche se questo lo conduce ad ottenere una risposta con notevole
“rumore”: ci chiediamo se, con l’avvento di Internet, e con l’abitudine ad una ricerca
sempre più libera, il lessico controllato sia utile solo al catalogatore.
D’altra parte, la ricerca in profondità è sempre quella coadiuvata dal
documentalista che, attraverso la combinazione consapevole dei descrittori, produce la
maggior quantità di informazione rilevante, approntando strategie di ricerca più mirate e
con più alto grado di richiamo.
Nell’ultimo anno il Polimoda si è inserito in un processo di cambiamento che ha
coinvolto tutti gli organi della sua struttura, favorendo l’ampliamento e la
differenziazione delle sedi (Prato, Via Baldovinetti, Villa Strozzi), conseguentemente
alla moltiplicazione e specializzazione dei corsi: cambiamento in linea con
l’ampliamento degli orizzonti dell’istituto, più volto che nel passato alla partnership con
l’estero e col mondo aziendale. Tutte le sedi di Polimoda stanno collegandosi alla rete.
Da poco anche il sito web è stato messo in linea nella sua versione aggiornata.
L’ampliamento della biblioteca–centro di documentazione è stato finalizzato
all’accoglienza di un pubblico notevolmente aumentato, alla predisposizione di nuovi
servizi e alla maggiore visibilità della collezione, assai accresciuta ed arricchita.
Nel futuro prossimo prevediamo un OPAC accessibile dalla nostra home page,
garantendo una visibilità globale utile non solo al nostro principale partner, il Fashion
Technology Institute di New York, ma al mondo intero (i nostri studenti rappresentano
ventisei diverse nazionalità).
Le nuove possibilità offerte dalla rete aprono l’orizzonte della scuola verso un
più mirato document delivery, per i corsi fortemente specialistici organizzati dal nostro
istituto il cui materiale, selezionato dai bibliotecari-documentalisti, potrà essere
consultabile nel web.
Con una tecnologia opportuna sarà infine possibile realizzare un portale che
esprima nella realtà della connessione in rete di molteplici poli della moda, siano essi
produttivi, formativi o commerciali, l’essenza del nuovo obiettivo del Polimoda,
secondo il Presidente Renato Ricci: divenire “l’associazione che raccoglie tutte le
48
istituzioni”15, tutte quelle aziende con le quali il nostro Istituto si integrerà,
“divenendone il braccio operativo”16.
15
R.Ricci, Renato Ricci, proiezioni sul Polimoda, a cura di O. Napoletano,< http://www.modaonline.it> 12
febbraio 2001
16
ibidem
49
50
MEDIASET: IL PORTALE SULLA COMUNICAZIONE
Maria Eleanora Lucchin17
Abstract
L’attività del Centro di documentazione Mediaset, operante dal 1990, con un
particolare cenno alla revisione del Thesaurus THESCOM, che sta per essere tradotto in
inglese, oltre ad essere rivisto secondo le attuali esigenze dell’informazione di settore. Il
progetto prevede inoltre la realizzazione di un portale sulla comunicazione che sarà
realizzato entro il 2001, con la successiva traduzione in cinque lingue dello strumento di
controllo, rivisto sulla base delle diverse fonti internazionali esistenti nell’area trattata,
oltre che secondo gli standard ISO vigenti.
Parole chiave
Informazione, Portali, Multilinguismo
The activities of the Centro di Documentazione Mediaset, which has operating
since 1990, with a particular mention of the revision of the Thesaurus THESCOM,
which is about to be translated into English, as well as being reviewed according to the
actual needs of information of the sector. The project also foresees the realization of a
portal on communication which will be accomplished by the end of 2001, with the
successive translation into five languages of the control instrument, which will be
reviewed on the basis of the different international sources existing in the area treated,
in addition to the current ISO standards.
Key words
Information, Portals, Multilingualism
Dal 1990 Mediaset ha un Centro di documentazione che si pone come obiettivo
primario il trattamento di libri, articoli, letteratura grigia sul tema della Comunicazione,
core business dell'Azienda18. Vengono trattati prevalentemente documenti pubblicati in
17
Direzione Documentazione e Analisi Istituzionaledel Gruppo Mediaset, Milano.
e-mail [email protected]
18
Centro di Documentazione generalista del Gruppo Mediaset: grazie al ricco patrimonio di strumenti e fonti
informative, ha la possibilità di soddisfare le esigenze di informazione che possono emergere all'interno
dell'Azienda, siano esse di cultura generale che focalizzate sul settore della Comunicazione e dei Media.
51
Italia, nei principali Paesi europei e negli Stati Uniti dai primi anni Ottanta ad oggi in
lingua italiana, inglese e francese. I riferimenti a tali documenti sono stati inseriti (con
abstract e indicizzazione) nella base dati bibliografica BCOM - Banca dati della
Comunicazione, consultabile fino ad oggi solo da utenti interni a Mediaset.
BCOM copre il settore interdisciplinare della comunicazione monitorando i
media nei loro aspetti economici e di business, sociologici, legislativi, culturali,
tecnologici e dell’audience. Fanno da sfondo la comunicazione d’impresa, dagli aspetti
teorici a quelli di gestione aziendale e di marketing, nonché l’economia in generale, la
politica, la società e i consumi. L’interrogazione di BCOM permette agli utenti di
soddisfare direttamente il bisogno informativo o di richiedere fotocopie e/o prestiti dei
documenti.
A gennaio 2001 inizierà la riorganizzazione della struttura della base dati e delle
informazioni in essa contenute. Particolare interesse verrà dedicato al THESCOM Thesaurus sulla Comunicazione, che non sarà solo aggiornato e ristrutturato secondo le
esigenze dell’utenza e dei contenuti tematici emergenti dalla documentazione odierna,
ma anche completato inserendo un campo di ricerca di descrittori in lingua inglese.
Questa scelta è determinata dalla consapevolezza che il settore della Comunicazione ha
una forte connotazione terminologica anglosassone, ma soprattutto dall'obiettivo di
diffondere la base dati in Internet. Inoltre, l'intervento consentirà di effettuare una
normalizzazione terminologica e un allineamento delle traduzioni che sono attualmente
in uso nel settore, talvolta non sempre omogenee e trasparenti per l’utente.
L'attuale THESCOM è frutto di un lavoro di analisi concettuale della
documentazione relativa al settore della comunicazione realizzato dal personale del
Centro di documentazione e al quale hanno contribuito esperti esterni sia della
costruzione di thesauri sia dei vari ambiti disciplinari coinvolti. Un importante
riferimento, soprattutto per quanto concerne i termini dell'ambito economico in
generale, è stato il Macrothesaurus for Information Processing in the Field of Economic
and Social Development curato dall'OCDE. Altre liste di termini, provenienti da
Gestisce una biblioteca di circa 8.000 volumi (comprensivi di monografie, rapporti e ricerche, atti di convegno e
tesi di laurea, bilanci aziendali, materiale giuridico) e un'emeroteca che raccoglie varie annate di oltre un
centinaio di testate periodiche specializzate italiane ed estere. Tale patrimonio documentale va ad aggiornare
periodicamente BCOM, la Banca dati della Comunicazione.
Completa la gamma degli strumenti informativi disponibili il collegamento a numerose banche dati su cd-rom e
in linea di varia natura (news, repertori, legislazione).
Il Centro di Documentazione rappresenta un punto di riferimento aziendale per l’utilizzo di banche dati esterne e
servizi di informazione elettronica, nonché per l'aggiornamento delle fonti e degli strumenti della
documentazione in generale.
52
thesauri settoriali, hanno permesso di controllare ulteriormente le scelte compiute a
livello sia di lessico che di relazioni tra i termini.
Il Thesaurus della Comunicazione attualmente è articolato come segue:
totale termini: 3378; descrittori: 1680; identificatori: 1698 (nomi propri enti, società,
associazioni, persone, luoghi)
anno della prima edizione: 1994
anno della seconda edizione: 2001
aree tematiche trattate:
Economia e società (politica economica e sociale; economia e gestione aziendale;
mercato comune europeo; istituzioni e politica, cronaca; industria commercio e servizi;
ambiente, lavoro; demografia e popolazione);
Economia dei media e della comunicazione: gruppi multimediali (industria televisiva;
industria cinematografica e spettacolo; home video, discografia; stampa; editoria
libraria)
Comunicazione d'impresa e pubblicità: (promozione e pubblicità; comunicazione
pubblica; marketing; ricerche di mercato)
Telecomunicazioni e Internet (industria delle telecomunicazioni; telefonia; Internet e
Information Technology; commercio elettronico; multimedialità)
Comunicazione e società (teorie della comunicazione; sociologia dei media; dibattito
politico e culturale; politica radiotelevisiva; linguaggio dei media e della pubblicità;
nuovi media e Internet)
Legislazione dei media (legislazione sull'emittenza radiotelevisiva; legislazione sul
cinema e sullo spettacolo; disciplina della pubblicità; diritto d'autore; diritto
dell'informazione; telecomunicazioni e informatica, Internet)
Il pubblico e l'audience
Gruppo Fininvest-Mediaset
Oltre alla premessa il Thesaurus ha una presentazione alfabetica generale e una
Lista degli Idenficatori, alle quali si sta aggiungendo una presentazione permutata.
Il progetto di riorganizzazione del thesaurus prevede la realizzazione entro il
dicembre 2001 di un portale internazionale sulla Comunicazione patrocinato da
Mediaset e che coinvolgerà professionisti autorevoli provenienti da diversi ambiti
esterni (mondo accademico, della ricerca, delle imprese). Il flusso delle operazioni che
saranno attuate per tale obiettivo comprende:
Normalizzazione della terminologia esistente secondo gli Standard ISO
53
Traduzione in lingua inglese come secondo accesso terminologico
Confronti con altri sistemi operanti nell’area considerata
User Group di testimonial (giornalisti, docenti, esperti, studenti universitari, ricercatori)
con cui verificare l'efficacia e l'efficienza del sistema.
Traduzione, entro il 2002, in lingua francese, spagnola e tedesca.
Per effettuare queste operazioni saranno utilizzate, tra le altre, le seguenti fonti:
Thesaurus ERIC, Thesaurus EUDISED, Thesaurus CEDEFOP, Thesaurus Unesco,
Thesaurus Ortelius, Thesaurus BIE, THES/ITLaw. A Multilingual Thesaurus of
Terminology in “Information Technology adn Law”, Thesaurus regionale toscano.
Per ulteriori informazioni in merito al progetto rivolgersi a:
Annalisa Manfredi, Centro Documentazione Mediaset, [email protected]
54
UNIONCAMERE: IL PORTALE SULL’ECONOMIA
Elisabetta Bidischini
Abstract
A project which will reunite several public institutions and agencies operating in
Italy in the sector of economic research: Unioncamere, Isvor Fiat, Libera Università di
Castellanza, university libraries and departments interested in the economic area. The
objective of the project is using a unique shared reference terminology, however
without altering the single operative realities and leaving the existing terminological
specificness.
The stages of the project foresee, after the individuation of several priority areas,
a comparison of preliminary definitions of the realization of the project, which
obviously foresees links to the European agencies operating in the sector.
Key words
Economy, Multilingual Project, Subject headings, Thesauri
Dal 1950 il Centro Documentazione dell'Unioncamere tratta materiale a stampa
e letteratura grigia nel settore "economico" con particolare interesse alle seguenti
tematiche: economia locale e settoriale con particolare riferimento alle pmi, statistiche
nazionali, comunitarie e internazionali, normative regionali, nazionali e comunitarie;
inoltre promuove e coordina iniziative dirette agli archivi, alle biblioteche ed ai centri di
documentazione delle Camere di commercio italiane.
I materiali trattati sono libri, riviste, leggi, annuari statistici, rapporti e relazioni
in lingua italiana con qualche eccezione di testi in lingua inglese e francese per
tematiche relative a al commercio estero.
I criteri di trattamento utilizzati prevedono la schedatura delle unità analizzate
(descrizione bibliografica secondo gli standard ISBD) e attribuzione di termini
controllati (descrittori) tratti dalla bozza di lista di autorità allegata. Si tratta di termini
in fase di revisione e che verranno strutturati in gerarchie entro il prossimo anno oltre
che tradotti in lingua inglese e, possibilmente, anche nelle altre lingue comunitarie di
maggior interesse (francese, tedesco, spagnolo).
Sono in corso contatti con organismi e istituzioni nazionali e europee per
costituire un gruppo di lavoro per la revisione dei termini utilizzati e la messa in rete di
55
terminologia specializzata e specialistica afferente all'area considerata. Si tratta di unire
esperienze e competenze diversificate che salvaguarderanno un "core" terminologico di
base e le specificità tipiche delle singole istituzioni che manterranno ovviamente i
termini specifici di interesse.
L'ingresso nel mercato europeo e l'avvento dell'EURO comportano anche una
vasta opera di formazione e di orientamento che parte necessariamente dalla
terminologia: se non si riesce a comprendere il contenuto informativo e comunicativo
dei termini non si può procedere ad alcun lavoro di gruppo e ad alcuna progettazione
operativa.
I portali sono oggi il leit motiv degli addetti ai lavori, ma devono essere
soprattutto uno strumento ritagliato sulle effettive esigenze dell'utenza, sempre più
allargata e diversificata e della quale non si conoscono a priori le caratteristiche. Da qui
la necessità di redigere strumenti agili e facilmente interrogabili, in linea e con un
accesso multilingue: spesso infatti la linguae inglese costituisce un minimo comune
denominatore che semplifica e riduce ai minimi termini, in un'ottica di sinergia e
trasparenza.
I partner nazionali del progetto potrebbero essere: Assefor, Biblioteca Walter
Bigiavi (Bologna), Centro Studi ISVOR Fiat (Torino), Libero Istituto Universitario
"Carlo Cattaneo" (Castellanza), SDA Bocconi (Milano). A livello europeo sono invece
da coinvolgere: le Camere di commercio di Parigi, Londra e Madrid.
La programmazione operativa prevede le seguente fasi:
·
Normalizzazione della terminologia
·
Traduzione dei termnini (descrittori e non descrittori) in lingua inglese
·
Redazione di liste di autorità per i nomi propri
Per informazioni in merito al progetto rivolgersi a
Elisabetta Bidischini - tel. 06.47041
e-mail
[email protected]
56
INTERNET A SUPPORTO DELLA DIDATTICA
Giovanni Bonaiuti
Abstract
L’intervento cerca di tratteggiare alcuni effetti, spesso trascurati, che le
tecnologie hanno nel trasformare le attività umane, anche di quelle considerate
“tradizionali”. Nel settore della formazione, in particolare, si parla sempre più spesso di
Formazione a distanza (FaD) correndo a volte il rischio di ignorare l’importanza delle
tecnologie quali preziosi supporti per le attività educative tradizionali. Internet, in
particolare, può ad esempio diventare il portale d’accesso all’Università: ovvero il luogo
da cui si snodano e si organizzano i servizi informativi e interattivi, ma anche il punto di
incontro di persone e di queste con le istituzioni.
Parole chiave
Formazione a distanza, Aspetti metodologici, Ricerca in Internet
This participation seeks to trace some often neglected effects which technologies
have on transforming human activities, even on those considered "traditional".
Particularly in the education sector, ever more often distance education is mentioned,
sometimes running the risk of ignoring the importance of technologies as precious
supports of the traditional educational activities. For example Internet, in particular, can
become the access portal to the University: or rather the place from which informative
and interactive services are articulated and organized, but also the meeting point of
persons with each other and with the institutions.
Key words
Online distance learning, Methodological aspects, Research in Internet
1. Premessa
Oggi ci interroghiamo su quali funzioni Internet possa svolgere nell’ambito delle
strutture universitarie e delle istituzioni scolastiche in genere, fra breve, rileggendo i
quesiti che oggi ci poniamo sarà persino ovvio che la telematica debba coprire certi
spazi e che attraverso i “terminali” (non solo computer, ma apparati eterogenei
variamente connessi alla rete) si possano ottenere certi servizi. Lo sviluppo delle
57
tecnologie sta rapidamente introducendo a fianco dei tradizionali contesti educativi
nuovi ambiti di accesso all’istruzione ed alla conoscenza. La formazione a distanza
(FaD) attraverso le reti telematiche si presenta oggi come fenomeno complementare e,
in alcuni casi alternativo, alla didattica presenziale.
Il grande successo di Internet nasce del resto dalla possibilità che la rete offre di
“unire”, di avvicinare le persone infrangendo le tradizionali barriere spazio-temporali
che caratterizzano le attività umane. Molti “portali” presenti sul Web sono addirittura
pensati con lo scopo di enfatizzare questo aspetto. Gli istituti bancari offrono l’esempio
più emblematico: attraverso il Web vengono tenuti aperti 24 ore al giorno sportelli
polifunzionali direttamente presso il cliente. Non solo, ma lasciando al cliente le
“chiavi” per accedere a svariate funzioni operative, si ottengono nello stesso tempo
risparmi sui costi del personale che si trova così sempre meno impegnato a registrare
transazioni o a rispondere a richieste informative. Oltre ai vantaggi immediati (per lo
più legati alla fidelizzazione del cliente) esistono, in generale nell’e-business, aspetti che
toccano ambiti meno evidenti e che possono invece caratterizzarsi come maggiormente
significativi: tra questi è senz’altro importante la spinta verso la ridefinizione
organizzativa e gestionale che l’apertura di una presenza sul Web determina in una
struttura (business process re-enineering) .
Se analizziamo come queste trasformazioni intervengano all’interno di
organizzazioni impegnate sul fronte dell’istruzione (come scuole, università ed enti
privati) vedremo che, anche in questo caso, i livelli coinvolti sono molteplici.
L’attivazione di una seria presenza sul Web, potenzialmente, può cambiare molte delle
tradizionali modalità con cui l’Ente interagisce con i “soggetti”, ma anche il modo con
cui questi finiscono per relazionarsi tra di loro. Come conseguenza di ciò la struttura nel
suo insieme vedrà una complessiva variazione dei flussi relazionali e quindi lavorativi.
La Rete diventa allora, anche per quelle Istituzioni che credono fermamente nella
necessità di mantenere la parte più rilevante delle proprie attività formative legate allo
svolgimento presenziale (compresenza degli attori in un dato momento e luogo), fonte
di riflessione sulle modalità operative in vista, ad esempio, di una diversa
organizzazione dei servizi. In questo senso gli ambiti maggiormente coinvolti dal
cambiamento sono essenzialmente quattro: informazione, gestione, didattica e
partecipazione.
58
1.1. Informazione
I soggetti che ruotano attorno ad ogni istituzione necessitano continuamente di
informazioni per poter svolgere adeguatamente i propri compiti. Saranno necessarie
informazioni sui luoghi (dove andare per), sulle strutture e le attrezzature, sui tempi
(quali orari di apertura), sulle procedure (come fare per), sull’Istituzione stessa
(missione, visione, storia, organizzazione, attività formative attivate), sui soggetti e i
loro recapiti, sulle iniziative straordinarie (convegni, manifestazioni, ecc.), sulle
facilitazioni per soggetti con esigenze particolari (stranieri, handicappati, ecc.), sul
territorio (come raggiungerla, quali attività nel tempo libero) e così via fino ad esaudire
ogni immaginabile desiderio informativo di ogni possibile tipologia di utenza. Se un
servizio informativo on-line fosse in grado di dare questo tipo di informazioni, curando
in maniera adeguata l’ergonomia delle interfacce e presentando il tutto in maniera
chiara e comprensibile, avrebbe non solo già raggiunto un ottimo risultato come
creazione di uno “spazio di coscienza condiviso” al quale ogni soggetto può ricorrere
per comprendere il contesto in cui si trova ad agire, ma avrebbe anche ottenuto un
notevole risparmio a carico del front-office che solitamente si occupa di rispondere alle
richieste del pubblico (portinerie, segreterie, ecc.). Sul piano dell’informazione si
pongono dunque le basi a quei possibili sviluppi che potranno portare – attraverso le reti
– a definire, per usare le suggestioni offerte da Lévy (1998), nuovi spazi antropologici
caratterizzati da maggiore trasparenza e democraticità.
1.2. Gestione
La telematica può, più specificatamente, arrivare a modificare il modo in cui le
attività vengono “gestite”. Attraverso la disponibilità di strumenti e specifici ambienti
realizzati in Internet, carichi di lavoro ed ambiti di responsabilità possono essere ripartiti
in maniera più efficace tra i soggetti coinvolti. Il caso dello sportello bancario è in
questo senso paradigmatico: “perché impiegare personale aziendale in attività che
possono svolgere gli stessi fruitori del servizio?”. L’automazione determina la
ridefinizione dei ruoli e il riequilibrio dei compiti consentendo il rinnovamento della
modalità di svolgimento di molte attività e il conseguente accesso ai servizi. Qualche
esempio può essere fatto immaginando le attività che ogni Facoltà universitaria si trova
a svolgere nei confronti degli studenti e che invece possono essere delegate direttamente
agli stessi: dal pagamento delle tasse d’iscrizione (transazione sicura con carta di
59
credito) alla redazione autonoma di molti dei dati personali (piani di studio, iscrizione
agli esami, richiesta di tesi), dalla visualizzazione del proprio curriculum (esami
sostenuti, crediti/debiti formativi, stampa certificazioni) all’accesso ai servizi
bibliotecari (consultazione catalogo, prenotazione prestito, lettura testi elettronici). Ma
l’automazione coinvolge tutti gli attori del sistema, non solo gli studenti che quindi,
interagendo attraverso il Web con il sistema informativo universitario, finiscono per
decretarne la trasformazione. In Italia i docenti universitari già partecipano attraverso la
Rete ad alcune attività del senato accademico (votazioni, rendicontazioni, ecc.), ma
l’automazione potrà presto rendere possibile anche la gestione delle verbalizzazioni
degli esami e di altre incombenze burocratiche snellendo così parte del loro lavoro
amministrativo. I dipendenti amministrativi delle università, liberati da molti compiti
ripetitivi e gestionali, potranno dedicare parte del proprio tempo al miglioramento dei
servizi ed allo studio di nuove pratiche organizzative e gestionali, mentre già da oggi in
molte realtà è per loro possibile l’accesso attraverso i computer alla visione della
propria situazione lavorativa (gestione presenze, crediti/debiti orari, gestione ferie,
richieste di permessi, ecc.) ridefinendo anche in questo caso i rapporti interni.
Insomma in questo ambito, attraverso la possibilità di accedere ai database, si
potranno sempre più ottenere semplificazioni del contesto organizzativo con importanti
ricadute sul fronte dello snellimento dei tempi necessari per accedere ai servizi.
Chiunque abbia frequentato l’università negli anni passati ricorderà come buona
parte del proprio tempo fosse investito nella “raccolta” delle informazioni,
nell’adempimento di formalità burocratiche e in “viaggi a vuoto” (intesi come lezioni
non tenute, ricevimenti e revisioni rinviati, sessioni d’esami senza certezze sul proprio
turno, ecc.). In tutti questi casi, sempre più negli anni a venire, un supporto interattivo
ben strutturato potrà proficuamente intervenire aumentando la fiducia dell’utenza grazie
alla rapida possibilità di accesso alle informazioni richieste.
1.3. Didattica
Relativamente alla “didattica”, come detto, esistono molteplici possibili utilizzi
delle tecnologie da parte delle Istituzioni impegnate nel settore della formazione: a
partire da esperienze di supporto tecnologico ad una didattica che rimane invece
presenziale, fino a forme più o meno spinte di didattica a distanza (cfr. Olimpo, Trentin,
1993, p.6). Nella pratica sarà probabile assistere per svariati anni a forme ibride di
utilizzo della telematica alternate a forme più classiche di insegnamento anche per
60
motivi legati alla forza della tradizione ed alla resistenza degli apparati burocratici ed
economici legati al sistema “scuola-classe-lezione orale” (Calvani, 1994, pp.33-35). In
ogni caso le tecnologie, anche se introdotte marginalmente rispetto all’esperienza in
aula, potranno supportare gli insegnamenti, ridistribuendo ed alleggerendo il carico di
lavoro sia dei docenti che degli studenti. Attraverso la telematica si hanno dei benefici
diretti sia nell’organizzazione del tempo e delle modalità di lavoro dei vari soggetti sia,
indiretti, sul piano dell’impostazione e dell’erogazione della didattica presenziale
(tradizionale) che diventa allora maggiormente distribuita ed efficace. Ogni intervento
migliorativo che le tecnologie riescono ad apportare alle modalità operative delle
persone coinvolte (docenti, studenti, personale vario) finiranno inevitabilmente per
determinare dei miglioramenti nelle pratiche e nelle abitudini di studio negli studenti
quali utenti finali dei servizi erogati.
1.4. Partecipazione
Uno dei motivi per cui le nuove tecnologie possono efficacemente integrare
anche la didattica tradizionale è legato alla disponibilità che queste offrono di ridefinire
le comunicazioni interpersonali attraverso il computer (CMC). Si può cioè immaginare
lo “spazio” reso disponibile dalla rete come un ambito dove le relazioni sociali preesistenti nel contesto universitario vengono a svilupparsi ed estendersi oltre alle forme
convenzionali. Verranno potenziate le interazioni comunicative sia attraverso la
liberazione dai limiti geografici e temporali, ma anche grazie ad una diversa possibilità
di definire ruoli e forme organizzative e collaborative. Il lavoro svolto in rete, inoltre,
consente il formarsi di spazi di conoscenza condivisa (knowledge base), con forti
implicazioni anche sul piano dell'identità personale e collettiva (Olimpo-Trentin, 1993;
Harasim, 1995; White-Weight, 1999; Calvani-Rotta, 1999) oltre che sul piano
dell’organizzazione sociale e comportamentale (Bagnara, 1995). Le possibilità
comunicative offerte dalla rete sono infine alla base di forme di apprendimento
collaborativo particolarmente efficaci (Palloff-Pratt, 1999; Trentin 1998, 1999; Kaye,
1994; Rowntree, 1988).
Strumenti quali la posta elettronica, i Web-forum e gli ambienti di chatting
rendono disponibili degli spazi che possono essere intenzionalmente (ed efficacemente)
progettati per assistere la preparazione della “comunità che apprende”, ma che possono
essere autogestiti in maniera creativa per scopi anche divergenti dalle finalità dell’Ente.
Del resto attorno alle istitituzioni scolastiche, al loro modo di funzionare ed alla
61
capacità che queste hanno di rispondere ai problemi della gente, da sempre si attivano
iniziative aggregative spontanee o eterodirette. Ai luoghi di incontro tradizionali,
biblioteche, circoli, bar, associazioni, si affiancano oggi nuovi spazi di incontro e di
condivisione: dalle bacheche studentesche rivolte allo scambio di esperienze e materiali
(compresi la vendita di libri e dispense o l’offerta di una casa in affitto da condividere),
agli spazi dialogici di partecipazione democratica (gestiti dalle associazioni
studentesche o dai movimenti politici giovanili), fino ai luoghi delle offerte formative
alternative e/o a supporto di quelle canoniche (vedi le varie scuole di recupero e di
supporto alla preparazione degli esami). All’interno di questi “luoghi di incontro” in
rete, siano essi istituzionali o non, il gruppo produce estensioni alle attività formative
che intervengono a supportare i partecipanti ed a colmare, spesso in maniera creativa, le
carenze del sistema.
2. La formazione in rete
Oggi la formazione a distanza sta imponendosi soprattutto nei contesti
dell’educazione degli adulti (e in modo particolare in ambito aziendale), nell’ambito
dell’aggiornamento professionale e in alcune tipologie di insegnamento universitario
(come ad esempio nei settori delle Nuove Tecnologie).
In un periodo storico in cui lo sviluppo socio-economico ha determinato una
crescente esigenza di istruzione negli individui e nei lavoratori, il tradizionale percorso
“istruzione-lavoro-pensione” si sta progressivamente ridefinendo sotto la forma di
ciclici periodi di alternanza “formazione-lavoro” ai quali le tradizionali istituzioni
educative non sono preparate a far fronte. Si assiste quindi all’aumento delle agenzie
formative ed all’introduzione di forme atipiche di istruzione. La formazione a distanza
viene in questo senso spesso vista come complementare alla didattica tradizionale. Nel
settore formativo manageriale, come riportato da Serio e Melgrati (2000, p.44) le varie
esperienze presenti sul mercato internazionale19 sono accomunate dalla combinazione
dei due metodi: la formazione a distanza viene cioè affiancata da periodi residenziali nei
campus universitari o comunque da formazione classica (aula, seminari) Nelle forme
miste (presenza-distanza) vengono enfatizzati i vantaggi di entrambi i metodi formativi.
Il distance learning “puro” sembra mostrare i propri limiti nell’incapacità di sostituire
completamente la relazione tra formatore e discente e nella verifica delle possibilità di
62
trasferimento della teoria nella pratica: in questa ottica nel caso delle business school
“vengono organizzati momenti in cui il partecipante deve partecipare a role playing,
simulazioni, business game, ma anche lezioni in aula in cui l’elemento importante
rimane in ogni caso la vicinanza al docente” (Serio-Melgrati, 2000, p.45). Similmente
nel panorama formativo italiano post-lauream è facile constatare come la quasi totalità
dei Corsi di Perfezionamento e dei Master vengano proposti dagli atenei in forme che
combinano variamente la “presenza” alla “distanza”.
I vantaggi della formazione a distanza sono soprattutto legati all’esigenza di
riduzione dei costi, ma si ricorre alla FaD anche perché è in grado di rispondere in
maniera flessibile al crescente bisogno di formazione delocalizzata e detemporalizzata
(“a la carte”). Le tecnologie presentano anche dei vantaggi quali la capacità di
determinare forme di istruzione che vengono percepite dai discenti come maggiormente
democratiche e partecipative. In particolare le tecnologie impiegate nella così detta FaD
di terza generazione20, basandosi sull’uso estensivo della collaborazione tra discenti
all’interno di una classe virtuale, stanno dimostrando come sia possibile il passaggio
dalla tradizionale relazione educativa monodirezionale (docente-discenti) al reticolo di
relazioni di apprendimento attraverso l’allestimento di anfiteatri tecnologici in grado di
rendere possibile la “costruzione cooperativa delle conoscenze” sulla scorta di modelli
ampiamente descritti in ambito costruttivista come quello delle comunità di
apprendimento (Brown-Campione, 1990; Ligorio 1994), e dell’apprendistato cognitivo
(Collins-Brown-Newman, 1995). Nelle figure 1 e 2 sono rappresentati, i due modelli
estremi: l’impostazione didattica tradizionale che vede il docente come l’unico
depositario della conoscenza e l’impostazione favorita dalla FaD di terza generazione in
cui il reticolo di relazioni determina anche la possibilità di forme negoziali di
apprendimento tra i pari.
19
Tra le realtà citate: Aston Business School, Bradford Management Centre, University of Durham, Warwick
Business School, University of Cambridge, Henley Management College, Cardean University, Fuqua Business
School, Fordham University, Pace University, University of North Carolina, ecc.
20
Se la prima generazione di Formazione a distanza era basata sull’invio di materiali prevalentemente per
corrispondenza , l’impostazione detta di seconda generazione sfrutta le tecnologie per irradiare i materiali
didattici (broadcast). Un tipico esempio è la trasmissione televisiva di lezioni, ma anche l’uso di siti Internet,
affiancati o meno da posta elettronica o bacheche, per la diffusione di materiali didattici . La FAD di terza
generazione non sfrutta tanto nuove risorse tecnologiche, né del resto si mette in aperta contrapposizione con
l’impostazione della FAD di seconda generazione, con la quale si può proficuamente integrare, quanto introduce
un approccio all’apprendimento basato sulla costruzione sociale della conoscenza (Trentin, 1998, 1999).
63
Doce
Doce
Allie
Alli
Alli
Fig. 1 - Rapporto educativo tradizionale
Allie
Allie
Alli
Fig. 2 – Rapporto educativo “orizzontale”, attivato
ad es. nella FaD di terza generazione
Le tecnologie introducendo peculiari modalità interattive sono dunque in grado
di “contagiare” anche la didattica tradizionale (frontale e presenziale) facilitandone
l’evoluzione verso un modello più flessibile in cui la capacità di determinare gli
apprendimenti sia maggiormente distribuita all’interno del gruppo dei discenti.
3. Un esempio di ambiente a supporto della didattica
Contrariamente a quanto si potrebbe spontaneamente pensare le tecnologie
telematiche si affermano nella formazione non tanto quali algidi strumenti a servizio di
una visione “trasmissiva” ed impersonale dell’insegnamento, quanto come veri e propri
luoghi dove individui o gruppi di persone sono in grado di costruire in maniera creativa
le conoscenze di cui necessitano.
Un caso particolarmente eloquente dal punto di vista delle tecnologie quali
ambienti di condivisione delle conoscenze e di ridefinizione delle modalità lavorative, è
stato studiato nell’ambito del nuovo Corso di laurea in Scienze della Formazione
Primaria, all’Università di Firenze21. Nell’organizzazione didattica di questo corso di
studi rivolto ai giovani che aspirano alla professione di insegnante del ciclo scolastico
materno e primario sono previsti dei momenti di tirocinio che gli studenti compiono,
sotto la supervisione di tutor, presso scuole materne ed elementari convenzionate con
l’Università. Le tecnologie sono qui state introdotte per migliorare le relazioni interne
ed esterne al gruppo dei tutor supervisori dei tirocini. Questi si trovano ad operare in un
ambito altamente problematico sia perché la normativa in questione è poco esplicativa,
sia perché è per loro necessario interagire con una pluralità di referenti che si muovono
in contesti e con finalità diverse, ovvero in una “dimensione sistemica” scarsamente
integrata. Per l’allestimento dei tirocini i tutor devono districarsi in un fluido reticolo
relazionale all’interno del quale è spesso presente la possibilità che si generino
64
defezioni ed incomprensioni. In primo luogo sono problematiche le relazioni con le
scuole e gli insegnanti accoglienti: si tratta di realtà scolastiche di un diverso ordine,
disperse sul territorio regionale e che non presentano apparenti vantaggi dall’aderire
come partner al sistema dei tirocini. Sono quindi problematiche le relazioni con le
segreterie amministrative di entrambi gli istituti (Università e scuole) con tutta la mole
di documentazioni che devono
seguire il tirocinio di ogni studente.
Sono
infine
tesi
i
rapporti
all’interno del Corso di laurea dove
spesso i docenti vedono nei tutor e
nei
tirocini
dei
“pericolosi”
sottrattori di risorse attentive e
temporali.
In
questa
esperienza
l’ambiente tecnologico si pone
come uno spazio di cooperazione e
gestione per le attività interne alla
comunità dei tutor e costituisce una
Fig. 3. Il “portale” sul tirocinio
finestra di informazione e raccordo per tutte le interazioni esterne. Gli strumenti
operativi, che si sono concretizzati in una interfaccia Internet22 ed una Intranet rivolto al
“sistema sul tirocinio” (Fig. 3), hanno privilegiato tre dimensioni principali: a.
informazione ovvero la possibilità di alleggerire e sostenere le attività formative e
didattiche rendendo disponibili “on-line” materiali, informazioni e strumenti; b.
cooperazione spazio a supporto della condivisione e creazione di ambiti di conoscenza
collettiva da realizzarsi in un ambiente riservato ai soli tutor; c. gestione, principalmente
burocratica e amministrativa, ossia un insieme di strumenti in grado di definire e
supportare le dinamiche organizzative.
L’aspetto più significativo di questa esperienza risiede nell’apporto che questo
ambiente polifunzionale è riuscito a dare alla comunità di pratiche condivise23
21
L’esperienza descritta, è stata coordinata dal prof. Antonio Calvani, quale responsabile locale del Progetto di
ricerca 40% 1999: “Modelli e prototipi di didattica multimediale ed interattiva per la formazione a distanza
degli insegnanti” (responsabile nazionale: Prof. L. Galliani).
22
L’indirizzo Internet è: http://www.scform.unifi.it/tirocinio
23
Il concetto di “communities of practice” (cfr. Pontecorvo, Ajello, Zucchermaglio, 1995), si è affermato nella
letteratura nordamericana soprattutto nell’ambito della psicologia culturale e delle organizzazioni, e
successivamente ripreso in scienze dell’educazione, per indicare quei gruppi lavorativi caratterizzati da
65
rappresentata dal gruppo dei tutor. Il gruppo, continuamente sotteso tra l’esigenza di
definire il proprio ruolo (e quindi consolidare la propria identità) e quello di relazionarsi
con efficienza nei confronti degli altri attori del sistema siano essi studenti, docenti o
personale amministrativo, trova nel supporto tecnologico sia il luogo di incontro
(principalmente comunicativo), che il luogo di conservazione e sedimentazione delle
esperienze svolte (la “knowledge base”). Le nuove tecnologie, sono quindi al contempo
artefatti in grado di potenziare le interazioni comunicative, con la liberazione dai limiti
geografici e temporali, ma anche gli strumenti in grado di determinare forme innovative
di organizzazione e collaborazione. La rete concretizza cioè lo “spazio” dove
all’incontro sporadico tra persone impegnate in uno stesso lavoro possa seguire la
sedimentazione e la continua rielaborazione di saperi comuni, diventando così il
supporto per il miglioramento della preparazione individuale e per il supporto reciproco.
Da questo ne conseguono benefici in termini di qualità delle prestazioni erogate e del
livello di soddisfazione e automotivazione dei singoli attraverso il supporto di quella
che finisce per essere una vera e propria comunità.
aggregazione informale intorno ad obiettivi comuni, con una forte capacità di condivisione delle conoscenze e
dotati di peculiari modalità di interpretazione e socializzazione delle esperienze.
66
4. Bibliografia
Bagnara S. (1995), Interfacce nella comunicazione pubblica, in Catanzaro R, Ceri P. (a cura di),
Comunicare nella metropoli, Torino, UTET, pp.121-133.
Brown A.L., Campione J.C. (1990), Communities of learning and thinking: Or a context by any
other name, in “Human development”, n.21, pp. 108-125.
Calvani A. (1994), Iperscuola. Tecnologia e futuro dell’educazione, Padova, Franco Muzzio
Editore.
Calvani A., Rotta M. (1999), Comunicazione e apprendimento in Internet. Didattica
costruttivistica in rete, Trento, Erickson.
Collins A., Brown J.S., Newman S.E. (1995), L’apprendistato cognitivo. Per insegnare a
leggere scrivere e far di conto , in Pontecorvo, Ajello, Zucchermaglio, I contesti sociali
dell’apprendimento. Acquisire conoscenze a scuola, nel lavoro, nella vita quotidiana, Milano,
Ambrosiana, pp.181-231.
Colorni A., Sancassani S. (2000), Esperienze applicative al Politecnico di Milano, in Biolghini
D., Cengarle M., Net Learning. Imparare insieme attraverso la rete, Milano, ETAS Libri.
Harasim L. (1995), Learning networks: a field guide to teaching on learning online, Cambrige,
MIT Press.
Kaye A. (1994), Apprendimento collaborativo basato sul computer, in “TD” n. 4 - autunno
1994, pp. 9-27.
Lévy P. (1998), Intelligenza collettiva. Per un’antropologia del cyberspazio, Milano, Feltrinelli
(ed. orig. 1994).
Ligorio B. (1994), Community of Learners. Strumenti e metodi per imparare collaborando, in
“TD”, n.4, autunno 1994, pp. 22-35.
Olimpo G., Trentin G. (1993), La telematica nella didattica: come e quando. Un’analisi dei
possibili ruoli e significati che la telematica può assumere nei differenti momenti della
didattica, in “TD” n. 2 - Autunno 1993, pp.4-17, disponibile in Internet all’indirizzo:
http://paradiso.itd.ge.cnr.it/td/td_fr.htm
Palloff R., Pratt K. (1999), Building learning communities in ciberspace, San Francisco, JosseyBass.
Pontecorvo C., Ajello A.M., Zucchermaglio C. (1995), I contesti sociali dell’apprendimento.
Acquisire conoscenze a scuola, nel lavoro, nella vita quotidiana, Milano, Ambrosiana.
67
Rowntree D. (1988), Insegnamento e apprendimento in rete: la didattica per corrispondenza
del XXI secolo?, in Midoro V. (a cura di), Argomenti di tecnologie didattiche, Menabò, Ortona.
Serio L., Melgrati A. (2000), I sistemi di formazione: modalità di integrazione tra formazione
tradizionale e a distanza, in Mattei M.G. (a cura di), EduNet. Seminari, incontri e attività di
formazione, Atti dei convegni di SMAU 2000, Milano, [print on demand], pp.42-47.
Trentin G. (1998), Insegnare e apprendere in rete, Bologna, Zanichelli.
Trentin G. (1999), Telematica e formazione a distanza, il caso Polaris, Milano, Angeli.
White K. W., Weight B. (1999), The online teaching guide: an handbook of attitudes,
strategies, and techniques for the virtual classroom, Needham Heights, MA, Allyn and Bacon,
Inc.
68
PROBLEMI LEGATI ALL’USO SPECIFICO DI INTERNET
Cesare Grasso24
Abstract
Spesso i motori di ricerca rispondono alle interrogazioni con miriadi di proposte,
fra siti e pagine web fra le quali appaiono tante ripetizioni. Il portale ideale dovrebbe
saper riconoscere le risposte identiche e ricondurle ad una sola. L’idea del “preferiti”
molto intelligente perché marca una serie di punti fermi nella rete. Spesso capita di
perdere il link, il sito è sparito, si è spostato, ha cambiato indirizzo, è andato perso. E’ il
fenomeno del link-rot. In particolare vengono illustrate esperienze di uso nei siti di
trading on line.
Parole chiave
Portali, Utenti, Knowledge Management
Often the search engines answer queries with a myriad of proposals, among web
sites and pages in which appear many repetitions. The ideal portal world know how to
recognize the identical answers and reduce them to only one. The idea of very
intelligent "preferences" because it indicates a series of online fixed points. It often
happens that one loses the link, or the site has disappeared, or it has moved, or it has
changed address, or it has been lost. This is the phenomenon of link-rot. In particular
experiences of use of sites for online trading are illustrated.
Key words
Portals, User's point of view, Knowledge Management
Esaminerò le problematiche che affronto quotidianamente utilizzando Internet.
Spesso i motori di ricerca rispondono alle interrogazioni con miriadi di proposte,
fra siti e pagine web, fra le quali appaiono tante ripetizioni; morale: la ricerca si rivela
inutile perché le risposte sono troppo numerose e devo cambiare key-word. Il portale
ideale dovrebbe saper riconoscere le risposte identiche e ricondurle ad una sola.
24
Studente di economia e commercio, [email protected]
69
Trovo l’idea del “Preferiti” molto intelligente perché marca una serie di punti
fermi nella rete: è come gettare una boa in alto mare, potrai sempre farci riferimento.
Spesso mi capita però di tornare alla boa e di non trovarla più, il sito è sparito, si è
spostato, ha cambiato indirizzo, è andato perso. E’ il fenomeno del link-rot, ovvero la
rottura del legame tra bookmark e sito. Costruirsi personalmente un bookmark è utile
ma molto complesso e richiede molto tempo, perché deve essere continuamente
aggiornato. Esistono programmi di gestione automatica del BM che permettono un
aggiornamento immediato dei link, ma quando il bookmark si fa consistente i problemi
ritornano.
Per quanto riguarda il trading on line. Un trader come me (a meno che non si
tratti di un day-trader) segue il comportamento di un pacchetto limitato di titoli azionari
per giorni, settimane, mesi per conoscere a fondo il proprio investimento: vuole
conoscere molto bene i titoli preferiti e vuole seguirli giorno per giorno; deve sapere
tutto di loro, grafici storici, news, capovolgimenti, prestazioni e deve avere tutto
sott’occhio per potersi fare un’idea della situazione. Ma contemporaneamente si
disinteressa degli altri titoli di borsa. I portali di trading, ad oggi, catalogano le miriadi
di informazioni che forniscono seguendo dei contesti sbagliati (es. compra-vendi,
grafici, news, contatti, forum); questi elementi di analisi sono nella maggior parte dei
casi completi e interessantissimi, ma vengono distribuiti nel sito in pagine e ambiti
differenti e non raccolti in relazione al titolo. Ne consegue che per farsi un’idea
dell’andamento di un titolo bisogna saltare di pagina in pagina. Questo è evidentemente
un problema di organizzazione del sito che dovrebbe essere improntata più all’utilizzo
pratico e specifico della categoria di utenti. Si dovrebbe dare la possibilità all’utente di
personalizzare il sito, dandogli modo di escludere dall’utilizzo quotidiano quelle
informazioni che non desidera.
Il trading (la Finanza democratica) sta diventando un fenomeno molto rilevante
(si parla di 7,5 milioni di utenti nel 2002, più del doppio nel 2004). Probabilmente
sarebbe il caso di affrontare il problema dell’attendibilità delle informazioni distribuite
dalle SIM (Società d’Intermediazione Mobiliare), oltre che della disponibilità. La Legge
italiana salvaguarda l’investimento privato in molte forme e in diversi contesti, sarebbe
auspicabile quindi la nascita di siti ufficiali, gestiti dal Ministero delle Finanze che
mettano a disposizione, gratuitamente, informazioni, altrimenti difficilmente reperibili
dal privato, come i bilanci aziendali, per assisterlo in questa nuova forma di
investimento.
70
La scarsa fiducia nelle transazioni finanziarie, nel commercio via Carta di
Credito, nel trasferimento di informazioni personali.
Il problema della manipolazione delle informazioni, dovuto alle incompatibilità
di formato fra sistemi: .jpg, .wav etc…Accade di non poter manipolare il grafico
scaricato, la foto o il file, e non sempre il sito mette a disposizione il software
necessario per la conversione.
Illogicità nella ricerca: molti siti risultano irraggiungibili perché i link da seguire
sono illogici, quasi dei misteri. Se non conosci i segreti che celano e senza una mappa
del sito, avvolte è impossibile raggiungere il sito desiderato.
71
72
PRINCIPI DI PSICOLOGIA COGNITIVA NELLA PROGETTAZIONE
DELLE INTERFACCE
Anna Sette25
Abstract
Prestazioni mentali non omogenee, mappatura del mondo per contrasti, campo
visivo limitato: questi alcuni dei processi cognitivi e dei limiti fisici dell’uomo tenendo
conto dei quali disegnare un’interfaccia web. L’eccesso di informatività o novità nella
pagina disorienta l’individuo che non riesce più a capire quali informazioni sono
importanti: perché l’informazione sia affidabile occorre rispettare alcune regole di buon
design: valutare a monte l’importanza della notizia e collocarla in modo opportuno nella
pagina; impostare un layout corretto che evidenzi le notizie importanti; non mettere
nella pagina troppa informazione; dare sempre un feedback per guidare l’utente.
Parole chiave
Utenti, Portali, Strategie di ricerca
Different mental performances; the world built by view of contrasts, a limited
field of vision: these are some of the cognitive processes and physical boundaries of
men which must be kept in mind while designing a web interface. An excess of
information or news on the page confuses the individual who can no longer understand
which information is important: for the information to be reliable, some rules of good
design must be respected: first evaluate the importance of the news and then arrange it
in an appropriate way on the page; design a good layout that divides important news
from other not so important; do not put too much information on the page; always give
feedback to guide the user.
Keywords
Users, Portals, Searching strategies
1.Un controllo di autorità per il web
Partiamo dall’ipotesi, ovvia ma non banale, che nel web, come per la carta, sia
necessario sottoporre l’informazione ad un controllo di autorità. Allo stesso controllo
73
che ufficializza il dato e lo rende affidabile, deve essere sottoposto l’editing del sito, del
portale nel nostro caso: è possibile che una veste grafica particolare - che risponda a
criteri prestabiliti - renda l’informazione ufficiale? Ovvero: la grafica, la struttura della
pagina web ha una valenza semantica? Io rispondo senza dubbio sì.
2.Usabilità e cognizione umana
Un portale è un sito che offre un ventaglio di servizi e contenuti che copre tutti i
media presenti in rete (chat, posta elettronica, e-commerce, strumenti di ricerca,
orientamento e selezione per il web, possibilità di creare una propria pagina web…): in
generale tramite un portale è possibile individuare una comunità di utenti e raccogliere
dati su di loro (a un portale, difatti, ci si iscrive).
In rete vi sono portali più o meno accessibili: con accessibilità intendo la
possibilità di usare un portale in modo corretto sfruttandone al meglio le potenzialità,
senza perdere il tempo che esso promette di farci risparmiare, senza dover fermarsi a
capire come il portale funziona ed orientarsi in esso.
Quali considerazioni, volendo raggiungere l’accessibilità o, se si vuole, una reale
usabilità, devono guidare l’impostazione grafica cioè la disposizione dell’informazione
nello spazio?
1)
le
prestazioni
mentali
(capacità
di
concentrazione,
capacità
di
memorizzazione, attenzione ecc…) dell’uomo non sono omogenee nel tempo: è
interesse del progettista del sito mantenere il livello di attenzione dell’utente il più alto
possibile per la maggior parte del tempo possibile.
2) l’uomo costruisce una mappatura del mondo seguendo i contrasti:
contrappone, cioè, aree a bassa informatività con aree ad alta informatività e per
costruirsi un’immagine pone sullo sfondo gli elementi a bassa novità mentre in primo
piano, al centro della sua attenzione, l’area ad alta novità.
La limitatezza delle prestazioni mentali e la peculiarità dei processi cognitivi
umani fanno sì che interfacce ad altissima novità mandino in tilt l’utente: pone tutto
sullo sfondo non riuscendo a riconoscere le cose importanti e agisce in maniera casuale
nell’interrogazione.
E’ importante quindi:
a) valutare a monte l’importanza della notizia per darle nella pagina la rilevanza
adeguata (se la notizia è importante occorre metterla al centro della pagina, mentre le
25
Studentessa di scienze della comunicazione
74
informazioni meno urgenti stanno in periferia) e così impostare un layout corretto che
distingua le notizie più rilevanti da quelle che lo sono meno.
b) una notizia in periferia (nella pagina e quindi alla periferia del nostro campo
visivo) è vista più difficilmente e richiama l’attenzione solo se è in contrasto o in
movimento. Ma bisogna ricordarsi che lucette intermittenti, scritte scorrevoli, grafiche
diversificate, immagini in movimento, affaticano la mente e vanno ad interferire con la
capacità di concentrazione e attenzione.
c) non mettere troppa informazione nella pagina: se la novità è troppa,
l’attenzione in qualche modo si interrompe e l’utente comincia ad agire in maniera
casuale, senza tenere conto delle priorità, senza riuscire a valutare l’importanza e la
pertinenza delle informazioni trovate.
d) è importante dare all’utente un feedback, un segnale di ritorno che lo guidi
nella navigazione, dando conferma alle azioni che ha appena svolto.
3.Tnt: un esempio concreto
E’ alla luce delle suddette considerazioni che un gruppo di studenti dell’Ateneo
senese ha progettato e realizzato un sito per la raccolta, la catalogazione e, ovviamente,
la consultazione di tesi e tesine. E’ un sito, non un portale, il che crea meno problemi
per quanto riguarda l’editing e le decisioni per quanto riguarda struttura e contenuto, ma
è un esempio significativo di come l’impaginazione grafica abbia una valenza semantica
e non sia frutto del caso o di considerazioni puramente estetiche.
L’indirizzo del sito è: www.media.unisi.it/tnt
1) Home page
Perché la linea curva:
Il gruppo TNT vuole salvaguardare, nel delineare la veste del sito, l’importanza
dell’interattività e dell’interdisciplinarietà in cui lo studente vive creando la sua tesina.
La forma circolare riflette bene questa dimensione del lavoro dello studente: interattività
tra discipline studiate, interscambio tra studente e studente, tra studente e professore.
2) Mappa dei corsi
La mappa dei corsi è uno strumento per tenere nello stesso campo visivo la
complessità dei corsi e le relazioni fra essi: i nomi degli insegnamenti sono localizzati
per prossimità tematica e sono inseriti in etichette diverse a seconda dell’indirizzo di
studi di cui fanno parte.
Da qui si sviluppa la navigazione.
75
3) Cliccando su di un corso si scende ad un livello di profondità.
Pur essendo ad un livello di profondità diverso, nella pagina figurano ai bordi i
circoli che riportano le voci che si trovavano nell’home page. Questo produce un
incremento di informazione periferica che permette al visitatore impegnato nella lettura
del singolo corso di avere continuamente feedback sul suo posizionamento all’interno
del sistema degli insegnamenti.
Autore
Anna Sette approda a Siena dopo un percorso accidentato per trovare un
progetto formativo che si adattasse alle sue esigenze e lo trova, finalmente, nel corso di
laurea in Scienze della Comunicazione: un piano di studi eterogeneo e dinamico e, allo
stesso tempo, completo. A Siena ha la possibilità di studiare e, allo stesso tempo,
coltivare i suoi due principali interessi, leggere e scrivere, facendo esperienze lavorative
preziose ed arricchenti: il lettorato per la Sperling & Kupfer e Frassinelli, il corso di
composizione di italiano con Raffaele Donnarumma e Daniele Del Giudice, lo scambio
sempre vivo con Paola Capitani, la preziosa esperienza con il quotidiano Siena Oggi.
Decide di seguire due strade: acquisire le competenze necessarie ad un editore – o
meglio, editor – per l’editoria libraria (in particolare quelle necessarie per rivoluzionare
tale settore, restio a stare al passo con i tempi); continuare a scrivere, per soddisfare le
esigenze di una preponderante creatività che la contraddistingue ed esercitare le capacità
espressive con il mezzo che trova più consono, la scrittura, per l’appunto.
76
IL PROBLEMA DELLE INTERFACCE
Sergio Cappelli26
Abstract
Riflessioni, metodi e suggerimenti per risolvere il problema dalla usabilità e
delle interfacce, partendo da una schematizzazione degli attori e dei problemi per
individuare i percorsi utili alle soluzioni.
Valutare, interpretare, parametrizzare, operare con gli strumenti idonei per
effettuare le elaborazioni essenziali e pertinenti nell’orientamento della domanda
dell’utente che deve essere condotto, oltre che orientato, nei meandri della rete.
Parole chiave
Interfacce, Strategies di ricerca, Usabilità
A contribution for the definition (or designing) or an interface from one who,
designing business documental systems (even for agencies and institutions), desires to
enable real experts on the contents (producers and users of documents) to structure in a
dynamic way their archives (documents) to be inserted in a portal. The objective is the
designing of an instrument which, starting from the normal dynamics of writing,
classification, indexing of the documents, allows them to act with direct competence on
those documents editing them (in specific format) and thus inserting them in their
document data base which has already been prepared for the edition and is in the portal.
Key words
Key word: Interface, Searching strategies, Usability
Si configura (nello schema 1.-) la formulazione del problema per la progettazione
di una interfaccia di un portale come il problema di un qualsiasi:
soggetto proprietario (produttore e conservatore di informazioni), che si
accinge a far parte di relazioni complesse con gli altri elementi del sistema:
•
Il soggetto utente (operatore ed utilizzatore della rete delle reti) potenziale
utilizzatore delle sue basi documentali
77
•
i fondi documentali (la complessità fisico/informativa delle basi documentali) che
mette a disposizione
Si verificano i noti conflitti (non necessariamente relazionati 1 a 1) fra:
•
il bisogno di informazioni da parte di un utente e la complessità della (non) struttura
reale o potenziale dei documenti;
•
la necessità di mettere a disposizione la conoscenza delle fonti e la resistenza alla
loro acquisizione e disponibilità;
•
l’attesa alle domande ed alle interrogazioni che vengono formulate ed il tempo della
navigazione necessaria per acquisire, nella sicurezza della esistenza di informazione
disponibile, quella risposta che soddisfi gli specifici bisogni di conoscenza;
conflitti dei soggetti utenti che anche come operatori, chiamano in causa:
•
le modalità di produzione dei documenti (le fonti), la strutturazione (reale o
potenziale) delle basi documentali (gli archivi);
•
la modalità di comunicazione interna che interessa non solo l’uso della rete Web;
•
le modalità di utilizzazione (accesso ed utilizzo) finalizzato delle basi documentali,
che sono ricche, troppo ricche di dati, che sono da leggere come fonte di informazioni
che debbono essere sicure, efficaci, fruibili.
Su questa impostazione una interfaccia si può considerare indifferentemente:
•
uno strumento semplice nella sua utilizzazione che relazioni l’idea del bisogno con
la formulazione di un possibile percorso (flessibile) di ricerca, memorizzabile;
•
un documento virtuale, complesso nella sua funzione, che consenta la compresenza
dei documenti omogenei per contenuto ricercati ed individuati (so cosa ho trovato e
dove);
•
una memoria potenziale aperta al mondo della informazione: (ri)acquisisco ciò che
ho trovato attraverso la storiografia della ricerca.
26
Camatsistemi, Lago d’Orta www.camasistemi.it
[email protected]
78
???
proble
comples
bisogni
resisten
fonti
attesa di
risposta
conosce
nza
produzione
comunicazion
e
fondi
docume
ntari
???
Sgt.Utenti
(operatori/utilizzat
ori)
Sgt.Proprietari
(produzione/conservazione)
79
il Soggetto Utente/operatore si pone nei confronti di una interfaccia nella
condizione di:
•
disporre di uno strumento che consenta di fare una attenta valutazione dei bisogni e
di trovare una risposta al rapporto fra informazioni potenzialmente usufruibili e
documenti reperiti.
•
valutare gli scostamenti in funzione della impostazione della finalità della ricerca e
della disponibilità di fonti appropriate.
•
parametrizzare il rapporto ad un equilibrio che lo soddisfi:
se non ha le informazioni necessarie a fronte dei documenti reperiti (<1) possa
dinamicamente impostare la gestione delle fonti;
se dispone di molte informazioni in modo caotico nei confronti dei documenti
reperiti (>1) possa ridefinire dinamicamente le sue finalità;
•
interpretare, attraverso la produzione di un documento virtuale,
il livello di
soddisfazione ai propri bisogni (qualità e numero di documenti reperiti e le fonti rese
disponibili).
Gli scostamenti devono essere superati gestendo con l’interfaccia le fonti se si ha
scarsità di documenti o riclassificando i bisogni se si ha abbondanza ed inomogeneità
di documenti.
Questa gestione deve essere supportata dagli operativismi che, offerti dalla
interfaccia siano:
la sintesi funzionale di aspetti logistici, linguistici e documentali per il trattamento
dei documenti che vengono messi, in modo enciclopedico, a disposizione di un utente
non esperto;
l’espressione della utilizzazione inconsapevole (da parte dell’utente) di tecniche di
gestione documentali avanzate che assommano metodologie di analisi dei bisogni
informativi e di ricerca, utilizzazione, ricovero dei documenti.
•
operare in modo semplice ma completo. La maschera per il carico dei dati deve
poter esprimere da un lato la struttura dei bisogni e interpretare dall’altro la
corrispondenza delle informazioni ricercate da utilizzare:
80
l’insufficienza di documenti ricercati nei confronti della esigenza di informazione
(struttura della ricerca) può dipendere dalla scarsezza di fonti rese disponibili, dalla
ricerca impostata male o dalla struttura della maschera che non consente di definire e
strutturare i bisogni;
la ridondanza di documenti reperiti pone problemi di gestione della complessità e
della non omogeneità dei documenti acquisiti e di ridefinizione dei bisogni per
eliminare il rumore.
81
???
Stato di …
relazio
informazione
documento
Valutazione dei bisogni
documento
documento virtuale
Impostazione gestionale
documento virtuale
informazione
Attività di Input/output
Soggetto utente
< 1 gestire le fonti
= 1 soddisfazione/obiettivo
> 1 (ri)definire le finalità
< 1 rumore nelle fonti
indisponibilità del doc.reale
= 1 soddisfazione dei bisogni
compresenza con doc.virt.
> 1 utilizzazione complessa
rumore nei bisogni
< 1 agire sulle fonti
(ri)definire la ricerca
verificare la maschera
= 1 utilizzazione attiva
compresenza doc. virtuale
soddisfazione dei bisogni
> 1 gestire la complessità
eliminare il rumore
(ri) definire i bisogni
< = > di 1
(bisogni/gestione/attivit
à)
82
La complessità del sistema di gestione della conoscenza è evidente. La
conoscenza
è
la
consapevolezza
dell’utilizzazione,
da
parte
dell’utente,
dell’informazione acquisita, qualunque sia stato il ruolo nel processo di comunicazione.
In sintesi gli elementi componenti il sistema di gestione sono:
•
gli elementi che si relazionano alla gestione dei fondi documentali/archivistici:
i Soggetti Proprietari dei fondi documentali
i Soggetti Utenti (potenziali, istituzionali, …)
la Produzione, la Comunicazione (trattamento), l’Utilizzazione dei documenti
quali attività del processo di acquisizione documentale.
•
l’interfaccia quale:
Strumento operativo da usare
Documento virtuale che simuli la compresenza dei documenti reali
Memoria che conservi anche ogni processo specifico di ricerca
•
l’analisi intellettuale dei bisogni e gli aspetti operazionali per la ricerca e
l’utilizzazione dei documenti:
la valutazione dei bisogni informativi
l’impostazione gestionale: memorizzazione delle attività e delle finalità
le attività di input/output prettamente operative
•
i riferimenti tecnologici di supporto al sistema, quali gli aspetti:
logistici propri della integrazione ed interoperatività di strumenti informatici
linguistici e propri della terminologia associata a sussidi SW
Aspetti documentali (tipologia delle classificazioni) legati alla indicizzazione e
codificazione dei documenti da acquisire
•
gli aspetti organizzativi nel cui contesto si opera, che richiamano le seguenti risorse
specifiche:
le persone della Organizzazione (semplice o complessa che sia)
gli Strumenti e la loro interoperatività funzionale ed operativa
83
i Documenti di una struttura documentale specifica che può essere incrementata
dalle attività di ricerca svolte con l’uso della interfaccia.
84
I PORTALI VISTI DA CHI LI USA
Cristina Bueti27
Abstract
Quasi dieci milioni sono gli italiani che navigano in Internet. Ma la vera
domanda è: cosa cerca questo popolo di marinai che rema abitualmente in Internet? La
rete è sentita come una risorsa.
Il primo problema in cui ci si imbatte è quello di trovare, nell'ambito dei risultati
della ricerca, le pagine che davvero collimano con la richiesta iniziale. "Internet è come
l'unione di tutte le biblioteche del mondo, dove però qualcuno si è divertito a buttare giù
tutti i libri dagli scaffali". Vale a dire: informazioni ce ne sono fin troppe, il problema è
trovarle!
Parole chiave
Utenti, Internet, Knowledge Management
Almost ten million Italians navigate on Internet. But the real question is: what
are these sailing people who habitually row on Internet seeking? The Web is seen as a
resource.
The first problem that one encounters is finding the page which truly answers the
initial query in the environment of all the search results. "Internet is like the union of all
the libraries in the world, where someone has however had a good time throwing all the
books off the shelves". That is to say, there is too much information, the problem is
finding it!
Key words
Users, Internet, Knowledge Management
Introduzione
Quasi dieci milioni sono gli italiani che navigano in Internet, che dal 2000 si
possono dire iscritti a pieno titolo all’anagrafe della rete. C’è stata una crescita
esponenziale degli italiani surfer, ma anche degli usi e dei costumi dei gusti e delle
27
Studentessa di scienze politiche all’Università di Firenze. [email protected]
85
inclinazioni che l’appartenenza alla cittadinanza “internettiana”richiede o anche suscita.
Ma la vera domanda è: cosa cerca questo popolo di marinai che rema abitualmente in
internet? La rete è sentita come una risorsa.Un mare dove la gente naviga per
agganciare ancore concrete: chi entra in rete non lo fa a caso, ma vuole trovare
informazioni, notizie che possano aiutare alla compilazione di una tesina universitaria.
Scovare indirizzi, numeri e persone alle quali rivolgersi per sbrigare una pratica
d’ufficio, etc. In senso tecnico questa capacità che ha la rete di realizzare i propri
progetti di vita, ha forte impatto sulle proprie “intentions”. Esigenze ed aspettative che
sarebbero soddisfatte sia nella fascia dei cosiddetti ”internauti evoluti” sia in quella dei
surfisti detti basici e persino in quelli che collegati non sono ma che hanno ottimi
propositi per farlo al più presto. Forse per la proverbiale carenza dei servizi “reali”, il
desiderio dei navigatori italiani è trovare servizi “virtuali” efficienti. Tre grandi
categorie descrivono la rete: i portali, le telecomunicazioni e i siti che i navigatori
possono scaricare sui propri computer. Ma è una quarta a fare la differenza tra un paese
ed un altro: come usano Internet i navigatori.
I Motori di Ricerca: sono la risorsa principale a disposizione dell'utente per la
ricerca d’informazioni su Internet. Sono grandi archivi di dati, che contengono
informazioni dettagliate su pagine Web. Ci sono due principali tipologie di motori di
ricerca: i search engines e le directories.
I search engines, come AltaVista, Lycos ed Infoseek, censiscono le pagine di un
sito ed usano due sistemi per censirle:
•
il sistema add-url, che permette ad ogni utente di segnalare la singola
pagina del sito al motore di ricerca, specificandone l'indirizzo web
(definito con la sigla URL).
•
lo spider, che non è altro che un programma che scandaglia il Web
cercando tutte le pagine che riesce a trovare e le registra nell'archivio
generale.
Le directories sono invece siti strutturati per categorie ed argomenti (ad esempio
Yahoo e Virgilio), che riportano un unico riferimento per ogni sito, generalmente
corrispondente alla home page. L'inserimento parte da una richiesta di registrazione
dell'utente oppure da una recensione dello staff di redattori della directory. Esistono
motori per ogni tipo di ricerca:
86
Per argomenti specifici, se ad esempio si cerca il sito di un prodotto particolare
che ha un nome ben identificato, la ricerca si concentrerà sui search engines che hanno
il database più vasto. Oltre ai noti AltaVista, Excite, Lycos, HotBot e Infoseek, vale la
pena di segnalare Arianna per le ricerche sui siti in lingua italiana, e i meta-crawler, i
quali effettuano una ricerca contemporaneamente su più motori di ricerca e forniscono
un'aggregazione dei relativi risultati. I search engines classici, offrono una serie di
funzioni sofisticate e molto utili per specificare nel dettaglio i criteri di ricerca. È così
possibile selezionare solo pagine web scritte in una determinata lingua, oppure siti con
un particolare dominio, ecc.
Per argomento generico: se si desidera trovare i siti che parlano di quell'oggetto
particolare o tutti i siti che parlano di una materia o disciplina. Fanno parte di questo
tipo di motori di ricerca, denominati directory, Yahoo e Virgilio. Su queste directory
sono anche presenti dei veri e propri spazi monografici e canali tematici, spesso
corredati da servizi accessori (mappe, itinerari, ecc.). Da notare che anche sui search
engines tradizionali, sono presenti delle directory.
Come usare al meglio i motori di ricerca
•
circoscrivere la ricerca analiticamente usando più di un termine, oppure
allargare la ricerca con altri motori di ricerca.
•
usare gli operatori. Uno di questi è l'apice ossia il simbolo ‘ da utilizzare quando
si ha bisogno di cercare una coppia di parole da considerare come una sola, ad
es. "New York".
Da qui una prima precisazione: nei motori di ricerca sono memorizzati i singoli
documenti che compongono un sito Web, ed è quindi possibile che un determinato sito
Web sia riportato numerose volte, in relazione al numero di pagine di cui si compone.
L'inserimento delle pagine Web negli archivi dei motori di ricerca, può avvenire
in due modi: sia attraverso la registrazione manuale da parte dell'utente (il responsabile
del sito ad esempio), sia in modo automatico attraverso un particolare software che
riesce a visitare
milioni di siti Web al giorno, inserendo le nuove pagine ed
aggiornando le informazioni su quelle già censite.
Attraverso tale funzione, i motori di ricerca mantengono un archivio aggiornato,
anche se nessuno riesce (né riuscirà mai) a classificare l'intero Web. Per ogni pagina
Web censita i motori di ricerca memorizzano gran parte del testo in essa contenuto, in
87
modo tale che, ad ogni ricerca dell'utente, viene presentata una lista delle pagine Web
dove figurano le parole che interessano.
L'utilizzo dei motori di ricerca è molto semplice. Occorre solo digitare i termini
relativi all'argomento che interessa ed in pochi secondi si ottiene un elenco di pagine
Web che contengono le parole richieste.
Il primo problema in cui ci si imbatte è quello di trovare, nell'ambito dei risultati
della ricerca, le pagine che davvero collimano con la richiesta iniziale. E se da una parte
il modo con il quale si immettono le parole chiave è determinante, dall'altro è evidente
come fra le pagine Web coerenti con gli interessi della ricerca, siano presentati anche
documenti non attinenti. "Internet è come l'unione di tutte le biblioteche del mondo,
dove però qualcuno si è divertito a buttare giù tutti i libri dagli scaffali". Vale a dire:
informazioni ce ne sono fin troppe, il problema è trovarle!
In ogni caso un uso adeguato dei motori di ricerca consente di orientarsi in
questo mare di informazioni che, vale la pena di ricordarlo, non riguarda solo pagine
Web, ma anche i cosiddetti Newsgroup, ossia liste di discussione pubbliche su
argomenti specifici.
Un'altra caratteristica dei motori di ricerca è che il loro uso è totalmente gratuito,
così come la registrazione delle pagine negli archivi, e questo nonostante i massicci
investimenti necessari per creare un simile servizio. La ragione sta nel fatto che, nelle
pagine che vengono presentate all'utente, compaiono annunci pubblicitari (i banner)
attraverso i quali le società che gestiscono i motori di ricerca traggono i loro ricavi.
Recentemente, oltre ai banner pubblicitari, alcuni motori di ricerca hanno
sviluppato altre forme di business mediante accordi con aziende specializzate. Il più
noto è quello che coinvolge società che vendono libri attraverso il Web: appena un
utente fa una ricerca, viene spinto a spostarsi sul sito del fornitore di libri per verificare
se esiste un testo relativo all'argomento della sua ricerca. In questo caso, il motore di
ricerca percepisce una commissione sull'eventuale acquisto scaturito per mezzo del suo
sito, oltre comunque a dei compensi a titolo di pubblicità.
É opportuno segnalare infine, una tipologia differente di motori di ricerca, le
directory. L'esempio più noto di directory è rappresentato da Yahoo, il più popolare sito
Web in assoluto. Chiamarlo Motore di Ricerca è improprio, in quanto classifica solo i
singoli siti, indipendentemente dalle pagine in esso contenute, raggruppandoli per
tipologia e permettendo all'utente di effettuare una ricerca partendo da macro-categorie,
per poi approfondirla in base ad una struttura "ad albero". Altra differenza di Yahoo! da
88
altri motori di ricerca è che l'inserimento di un nuovo sito può avvenire solo
manualmente ed è sottoposta a verifica del personale dell'azienda.
Il motore del 2000
Sulle ultime versioni di Explorer e Netscape, invece di scrivere l'indirizzo web
per esteso, è sufficiente scrivere una frase di più di due termini ed il browser lancia una
ricerca effettuata in base al testo digitato. Questo è un trend che vede aziende come
Microsoft o America On Line puntare a far diventare i programmi di navigazione, o le
interfacce per il collegamento alla Rete, come una specie di motore di ricerca
camuffato. Anche perché si sono accorti che il 50% degli utenti mantiene la pagina
iniziale standard del proprio programma di navigazione fornito col computer e di
conseguenza usa la relativa funzione di ricerca.
Le ricerche sulla Rete, saranno comunque sempre più complesse: l'aumento
vertiginoso della quantità di informazioni e dei documenti disponibili rende necessaria
la nascita di strumenti di ricerca specifici. Già oggi iniziano a comparire dei software
specializzati che, nelle versioni più sofisticate, fungono da "agente intelligente" che
analizza la rete, non solo in base a parole chiave, ma a concetti sempre più perfezionati.
Da segnalare, infine, la presenza di aziende alle quali è possibile commissionare
delle ricerche sulla Rete (la più nota si chiama HumanSearch) e che in futuro saranno
sempre più utilizzate.
Università: grandi passi avanti sono stati fatti nell’arco di quest’anno, solo
l’anno scorso eravamo qui a lamentarci delle mancanze di quest’Ateneo che sicuramente
gode d’ottima fama da un punto di vista didattico, ma non altrettanto si poteva dire per
quanto riguarda i servizi offerti agli studenti.
Le ultime iniziative avviate in campo informatico riguardano proprio tutti, dagli
studenti ai docenti. Sono stati organizzati corsi che forniscono strumenti di base per
cercare nella rete Internet informazioni bibliografiche. I docenti, oltre al loro orario di
ricevimento, molto spesso rispondono agli studenti tramite e-mail, e gli studenti sono
obbligati ad internettizzarsi. Internet è stato anche sfruttato per permettere agli studenti
di accedere, con più facilità, a tutte quelle informazioni che prima avrebbero richiesto
code interminabili in segreteria, quali: consultazioni dati studenti, reddito, iscrizione ad
esami.
Nonostante i risultati raggiunti, i servizi messi a disposizione sono insufficienti
rispetto al numero degli studenti.
89
Voto on line: come studentessa di scienze politiche vorrei segnalare un’iniziativa
che ho apprezzato molto, indipendentemente dal partito che l’ha effettuata. E’ stata
trasferita in rete una parte della vita del partito e hanno voluto sperimentare “in
vivo”come funzionano una volta trasferiti nel virtuale i meccanismi del dibattere, votare
e dell’eleggere rappresentanti. Sono state pubblicate da alcuni studenti californiani
anche interessanti relazioni su come funziona la politica in rete. Internet comincia a
costruirsi una dimensione della politica, non solo come esercizio di idee e di
comunicazione, ma anche di decisione.
Problemi:
•
Grafica: bisognerebbe incentivare chi realizza i siti Internet a non costruire siti
“attraenti” con molte immagini che rallentano i tempi di attesa bensì alla
semplicità estetica e alla rapidità di lettura. Il suggerimento non va
necessariamente esteso a tutte le pagine di ogni sito web ma può limitarsi alla
home page, ciò per due motivi:
•
Rispetto verso l’utente, nel senso che l’utente viene aggredito da questo vortice
di immagini animate, spesso inutili, alla sua ricerca.
•
Accessibilità e leggibilità: è nell’interesse di chi ha realizzato il sito che esso
venga frequentato dal più alto numero di persone. Se si offre un’immagine
troppo ricca, si rischia di ottenere l’effetto inverso, cioè indurre l’utente a
condurre altrove la sua ricerca. Sarebbe utile inserire all’interno di ogni sito una
mappa del sito che illustri schematicamente come il sito è organizzato.
•
Pubblicità: ne esistono tre tipi “innocua”, a banner e quella che appare con
prepotenza dal nulla occupando una propria finestra.
•
I link si rivelano essere sempre molto utili, anche se a volte sono mal organizzati
in quanto non contengono le informazioni necessarie. I link dovrebbero
agevolare, e quindi sveltire la ricerca: ciò è possibile solo se sono dei “buoni
link”. Il passaparola si rivela molto utile anche in questo caso (es. url segnalate
da amici).
•
Limite dei motori di ricerca: uno dei limiti è l’archivio di pagine contenute in
essi. Sono tante ma allo stesso tempo troppo poche, infatti non sempre
90
effettuando una ricerca con un solo motore si riesce ad avere la soluzione in
quanto potrebbe essere una pagina non censita.
•
Informazione: non sempre le informazioni ottenute si rivelano essere attendibili,
aggiornate, chiare e complete. In proposito sarebbe bene che soprattutto i
quotidiani on line mantenessero un archivio degli articoli precedentemente
pubblicati.
•
Condivisione dell’informazione: gerarchia guidata dai portali stessi.
91
92
LA CATALOGAZIONE DELLE RISORSE DI INTERNET
Nicola Benvenuti
Qualche anno fa, all’inizio della fase di rapida espanzione del world wide web, i
convegni professionali erano percorsi da brividi di inquietudine difronte a interventi che
vaticinavano la scomparsa del bibliotecario, sostituito da brillanti informatici e abili
web master capaci di rimodellare il mondo dell’informazione istaurando un rapporto
diretto, non mediato, con l’utente. Il clima è ben rappresentato dalla definizione
contenuta in una fortunata e ben fatta guida di internet, la quale per illustrare una
distinzione
cruciale
della
organizzazione
dell’informazione,
contrapponeva
all’informazione strutturata – cioè alla creazione intellettuale di rappresentazioni
normalizzate del documento secondo una struttura, il record, articolata in campi con
funzioni di identificazione, semantica e gestionale – l’ambiguo termine di informazione
“libera”, per indicare invece la disponibilità diretta sul web di notizie e documenti
reperibili senza mediazione intellettuale, solo con l’uso di intuitivi strumenti di analisi
del testo.
In effeti il mondo dell’informazione conosceva un notevole fervore. Ai
meccanismi di ricerca basati sulla tradizionale logica booleniana, si venivano
affiancando sofisticate analisi linguistiche per definire modelli settoriali in grado di
svelare il contesto semantico del documento e “pesare” le parole usate dall’utente,
mentre la piena applicazione di tecniche statistiche (frequenza diretta e inversa)
contribuivano, in unione ad altri fattori quali ad esempio la natura dell’ente, a definire
diversi criteri di “rilevanza” rispetto alla richiesta (query) per indicare nei primi posti
della lista i risultati più pertinenti.
L’enfatizzazione della concorrenza tra motori di ricerca sulla presunta capacità
di dominare il web e lo sviluppo di agenti di ricerca sempre più raffinati e
“personalizzabili”, capaci cioè di modificare il proprio funzionamento in seguito a un
qualche feedback dall’utente, completa un quadro, certamente assai stimolante e ancora
ricco di promesse, ma alla prova – almeno fino ad ora - assai più insoddisfacente di
quanto preventivato.
I motori di ricerca rivelano infatti la tendenza a conseguire un alto richiamo con
bassa precisione: si tratta di un difetto inerente alla ricerca per parole chiave che lascia
ancora molto a desiderare sia per le ambiguità della lingua (omonimie, pluralità di
93
significati, diversa grafia, etc.) che per la scarsa diffusione ed efficacia dei lessici
multilinguistici. Si tratta di un difetto non secondario se si considera che come è noto gli
utenti che assai raramente scorrono anche le pagine di risultati successive alla prima.
Da qui l’importanza, per soggetti in cerca di visibilità, di comparire tra i primi risultati
listati e l’inevitabile avvertenza della necessità di dubitare dell’obiettività dei criteri di
rilevanza adottati dai vari gestori di motori di ricerca. Una ulteriore, sostanziale
obiezione di fondo agli strumenti automatici di ricerca dell’informazione in Internet
deriva dal fatto che la qualità di questa informazione è assai variabile, contemplando
tutta la gamma di possibilità dall’alta cultura alla truffa consapevole.
Altri criteri di origine più interna al funzionamento dei motori di ricerca giocano
poi il loro ruolo, tra tutti i più rilevanti sono la difficoltà di mantenimento della base
dati, a fronte di un mondo in cui i tempi di cambiamento, dall’aggiornamento alla
estinzione, sono rapidissimi (da cui i fastidiosi messaggi “not found” dei server
richiamati dai link dei risultati) e la dimostrata impossibilità di tener dietro allo sviluppo
dell’informazione di rete, sia in senso quantitativo che per la diffusione di nuovi
linguaggi e tecniche di presentazione dei dati.
In una accurata ricerca apparsa su Nature nel 1999, (Steve Lawrence e Lee
Giles, Accessibility and distribution of information on the web, in “Nature”, 400, n.
107(1999)) gli autori analizzavano l'efficacia di 11 dei maggiori motori di ricerca di
internet: Alta Vista, Euroseek, Excite, Google, HotBot, Infoseek, Lycos, Microsoft,
Northern Light, Snap e Yahoo (cioè, allora, la base dati fornita da Inktomi – oggi
sostituita da Google; sempre Inktomi era utilizzato per la ricerca da HotBot, Microsoft,
e Snap ma forniva risultati diversi per il particolare settaggio dei filtri e la diversità della
base dati su cui si applicava); i risultati erano abbastanza significativi. In breve:
1. al di là delle affermazioni dei vari provider, i motori di ricerca sono ben lungi
dall'indicizzare tutto il web: la copertura del web da parte di tutti i motori di
ricerca usati nello studio ammontava al 42%. Si noti tuttavia che la
sovrapposizione del contenuto delle basi dati dei motori di ricerca rimaneva
abbastanza bassa: da qui l'utilità dei metamotori per incrementare la copertura
delle pagine web. La scarsa copertura del web da parte dei motori di ricerca può
dipendere da vari fattori tra cui la non convenienza economica: grandi indici
costano di più e rallentano i tempi di risposta.
2. i motori di ricerca non assicurano un accesso uguale a ogni risorsa: per il
funzionamento stesso dei crawler, essi tendono a indicizzare i siti che hanno più
94
link puntati verso di loro. Tutti i motori esaminati (fa eccezione Alta Vista)
privilegiano i siti USA e quelli commerciali. I siti più popolari diventano quindi
sempre più popolari;
3. l'inclusione negli indici dei motori di ricerca di nuove pagine web può richiedere
mesi, come pure l'eliminazione di link non più validi.
A queste valutazioni sulla carenza dei motori di ricerca su indici si aggiunge la
considerazione che il web si basa sempre meno sul solo linguaggio html. Se già i frame
avevano complicato il lavoro a molti spider, oggi molte pagine sono mappe sensibili o
eventi multimediali richiamati da script, per non parlare di tutti quei file non testuali il
cui contenuto è colto dagli analizzatori automatici di testo tutt’al più dal contesto. Dal
punto di vista della disponibilità di informazione è soprattutto la diffusione di database
in linea a richiedere una riconsiderazione delle metodologie della ricerca di rete. Accade
infatti che l'informazione disponibile sia costituita non da file html statici analizzabili
dai robot, bensì da file di vario formato visualizzati da plug in (ma in questo caso vi è
almeno un indice in html) oppure creati "on the fly", cioè in seguito all'azione di una
ricerca: è il cosiddetto web "invisibile" che molti motori di ricerca stanno cercando di
organizzare e che qualcuno stima addirittura, come quantità di informazione, più grande
di 500 volte del web indicizzabile. (Secondo lo studio condotto dalla compagnia
BrightPlanet, la parte inaccessibile del web sarebbe circa 500 volte più grande del
numero di pagine accessibili tramite i motori di ricerca tradizionali. Si tenga però conto
che la società in questione stava lanciando un proprio motore per la ricerca del
cosiddetto "invisible web". Vedi: http://www.searchenginewatch.com/sereport/00/08deepweb.html visto il 28/08/2000. I siti che mantengono database interrogabili in linea
sarebbero circa 100.000 v. The Deep Web: Surfacing Hidden Value file zip scaricato da
http://www.completeplanet.com/Tutorials/DeepWeb/)
Non stupisce quindi che dopo i primi entusiasmi la rete sia apparsa sempre più
come caos ingovernabile spingendo il padre del www al prestigioso CERN di Ginevra,
Tim Berners Lee, ad affermare:
L’idea di documenti comprensibili dalle macchine non richiede alcuna magica intelligenza
artificiale che permetta alle macchine di comprendere le rimuginazioni degli umani. Indica
solamente l’abilità delle macchine di risolvere problemi ben definiti attuando operazioni
ben definite su ben definiti dati esistenti. Invece di chiedere alle macchine di comprendere
il linguaggio della gente, ciò significa chiedere alla gente di fare uno sforzo
extra.(Conferenza
sul
Semantic
web,
1998:
http://www.w3.org/DesignIssues/RDFnot.html).
95
Su un diverso versante il successo di strumenti di ricerca organizzati per
directory secondo una categorizzazione semantica più o meno accentuata e costruiti
manualmente, come yahoo! o l’Open directory project (la cui peculiarità è la
catalogazione dei siti da parte di volontari) sono rappresentati come “l’equivalente in
Internet di una biblioteca pubblica non gestita da bibliotecari” (la definizione è di Emma
Place, International Collaboration on Internet Subject Gateways, 65th IFLA Council
and
General
Conference,
Bangkok,
Thailand,
august
20-august
28,
1999:
http://www.ifla.org/IV/ifla65/papers/009-143e.htm). Essi presentano quindi alcune
peculiarità dal punto di vista di un affidabile strumento di recupero dell’informazione:
sul piano dell’acquisizione il loro criterio di qualità è indefinito, o basato sulla
sottoscrizione volontaria o attento più a esigenze di intrattenimento che di affidabilità
dell’informazione. Sul piano dell’organizzazione dell’informazione il thesaurus per
classificare i siti, anche se inevitabilmente tende a coincidere con strumenti di provata
affidabilità e di costante aggiornamento come quelli sviluppati in ambito
biblioteconomico (primo fra tutti la DDC), appare approssimativo e incoerente. In
termini di valore aggiunto, la descrizione delle risorse, che costituisce indubbiamente un
punto di forza di questi strumenti rispetto alle confuse stringhe create dai software di
sommarizzazione automatica dei motori di ricerca su indici, è spesso generica, cosa che
non stupisce vista la dimensione generalista della base dati (il che non toglie che singole
directory o specificazioni – in relazione ad esempio all’invisible web – possano risultare
assai utili).
Se l’85% degli utenti di Internet dichiara di usare motori di ricerca per
soddisfare i propri bisogni informativi, una percentuale ancora maggiore predilige la
navigazione - da cui la fortuna dei portali - che fa leva sulla caratteristica più potente e
innovativa del word wide web, il metodo ipertestuale. Infatti a partire dal saggio del
1945 di Vannevar Bush "As we may think", attraverso la sua prima realizzazione con le
tecnologie informatiche olter vent'anni dopo, l'ipertesto ha rappresentato l’aspirazione
ad una organizzazione del sapere non lineare, non condizionata dalla sequenzialità e
quindi improntata alla creatività e alla libertà (si veda: Donatella Ceserani, Gli ipertesti
cosa sono, a cosa servono. Un esperimento sulla loro efficacia educativa, Roma 1995,
p. 25-27). La realtà è meno incoraggiante: il web si presenta all'utente come un caos
disordinato in cui i percorsi intrapresi sono spesso casuali o immotivati conferendo un
senso non di libertà bensì di smarrimento. A questo proposito proprio l'inventore (nel
96
1965) del termine stesso "ipertesto" e iniziatore del progetto Xanadu, Theodor Nelson,
ebbe a dichiarare nel 1997:
La reazione della comunità di ricerca sull’ipertestualità verso il world wide web è stata
quella di chi scopre di avere un figlio già adulto. Ma che è un delinquente. (Intervento di T.
Nelson a HyperText 97, Eighth ACM Conference on Hypertext, Southampton April 6-11,
1997 tratto da Tony Gill, Metadata and the World Wide Web;
http://www.getty.edu/gri/standard/intrometadata Updated 7/5/2000).
In questo contesto non stupisce che tra gli specialisti dell’informazione iniziasse
anche una riflessione generale sulla conformazione stessa del world wide web partendo
dalla considerazione che i linguaggi utilizzati e soprattutto html sono linguaggi
editoriali, cioè volti alla rappresentazione dell’informazione, ma che niente dicono sulla
sua struttura e funzione. Lo sviluppo del commercio elettronico (!?) avrebbe poi
finalmente richiesto una chiara definizione delle informazioni contenute nei file (quel
numero, con qualsiasi carattere sia scritto, è un prezzo o indica una percentuale di
sconto, o è una data o è il numero dei prodotti disponibili … ).
Ci sembra che le soluzioni proposte si possano ricondurre a due iniziative. da un
lato l’uso dei metatag, cioè di quei codici che in html introducono informazioni sul file
ma non compaiono sullo schermo, per codificare informazioni sul contenuto del file;
dall’altro il tentativo di sviluppare un nuovo linguaggio di costruzione dei file di
Internet che contrariamente ad html codifichi non il layout, bensì il contenuto del
documento, lasciando a specifici fogli di stile il compito di definirne la presentazione
sullo schermo.
Il mondo delle biblioteche aveva in realtà reagito a questo mutato panorama
degli strumenti di comunicazione e trasmissione dell’informazione evidenziando due
orientamenti opposti.
L’uno è rappresentato dalla diffidenza verso l’informazione di rete nel cui caos
sarebbe impossibile discernere l’informazione di qualità da quella assolutamente priva
di valore e ha a lungo coltivato il dubbio se fosse compito delle biblioteche
organizzarne l’accesso. Come ha recentemente scritto Michael Gorman, decano per i
servizi bibliotecari dell’Università di California:
Nessuno è interessato a dissodare la sterminata terra incolta di Internet perché la maggior
parte di quella terra è priva di valore. È necessario identificare le oasi per applicare loro una
qualche versione della catalogazione effettiva. (M. Gorman, From Card Catalogues to
WebPACS: http://lcweb.loc.gov/catdir/bibcontrol/gorman.html).
97
Questa obiezione, sicuramente da non sottovalutare, non tiene tuttavia conto del
fatto che come ha detto Berners-Lee “Il web sta diventato rapidamente il deposito di
dati che cresce più rapidamente al mondo”.
Inoltre, secondo lo studio citato di Lawrence e Giles l’analisi sociologica dei
server di Internet forniva il seguente quadro:
6
Su circa 2,8 milioni di server nel
edu
5
porno
4
gov
3
health
2
comm
1
relig
assoc
0
1
1999
•
87 % sarebbero dichiaratamente
commerciali;
•
del rimanente 17%, il 6% sarebbe
costituito da server di istituzioni
scientifiche o educative (università,
laboratori, istituti di ricerca);
E’ quindi possibile delimitare nel web un’area assai promettente dal punto di
vista della qualità dell’informazione.
In realtà commentare questi dati richiederebbe anche altre, indubbiamente
essenziali osservazioni: come negare il valore informativo ad esempio dei siti
“governative” – la NASA … - o di associazioni private non profit – molte con intento
dichiaratamente culturale ! Ma anche come negare che anche tra quell’87% di siti
commerciali si possano trovare informazioni di grande interesse e valore ! E come
ignorare oggi la dimensione del cosiddetto “invisible web”, la enorme quantità di dati
(immagini, software, testi, film, file sonori …) conservati in numerosissime basi dati,
molte dichiaratamente commerciali. Ai fini del nostro ragionamento basta però
sottolineare che i risultati della ricerca citata indicano quantomeno che le “oasi”, per
riprendere l’espressione di Gorman, sono abbastanza numerose da imporsi
all’attenzione di chi ha come compito la mediazione dell’informazione per fini di studio
e di ricerca; e nello stesso tempo che tali risorse sono relativamente contenute nel
numero rispetto alla vastità dello spazio web, per cui vale la pena intraprendere
l’impresa di un trattamento professionalmente adeguato per il recupero di tali risorse
informative.
Da anni le biblioteche, e questo è il secondo orientamento di cui vogliamo far
cenno, si sono attrezzate a rispondere alla richiesta dei propri utenti di accedere in modo
efficace alle risorse di qualità che si trovano in Internet.
98
Con il Dublin Core Matadata Initiative (DCMI) OCLC catalizzava la reazione
del mondo bibliotecario più attivo elaborando una versione assai semplificata dello
USMARC, il formato di catalogazione bibliografico (provenienza forse ancora troppo
evidente, c’è da dire), con il duplice obiettivo di creare un’agile struttura per la
catalogazione delle risorse di rete che comportasse uno sforzo commisurato alla
volatilità di questa informazione, e di fornire agli autori dei documenti di Internet degli
strumenti per contestualizzare il proprio lavoro in modo da poter essere facilmente
reperito. La partecipazione di protagonisti dello sviluppo commerciale di Internet a
questa iniziativa non deve però nascondere il fatto che l’uso di metadati standard è
ancora assai limitato. Dallo studio di Lawrence e Giles si evince che dei 2,8 milioni di
server stimati attivi sulla rete nel 1999 ben il 34,2% conteneva metadati. Tuttavia tali
metadati codificano per lo più dettagli e fanno registrare addirittura 123 distinti tag indice di una grave carenza di standardizzazione. Il DC alla data della ricerca era
utilizzato in solo lo 0,3% dei documenti, sottolineando la lentezza del processo di
accettazione e applicazione di questo standard; un dato analogo (0,11%) emergeva nel
1998 da una ricerca condotta in Germania nell’ambito del progetto GERHARD
(Bibliotheks- und Informationssystem der Carl von Ossietzky Universität Oldenburg.
Bericht zum DFG-Projekt: GERHARD. German Harvest Automated Retrieval and
Directory / bearbeiter: Bdir hans Joachim Wätjen (Projectleiter) … (et al.), Stand:
16.6.1998: scaricabile da: http://www.gerhard.de)
Alcuni dei principali motori di ricerca (segnatamente Excite e Altavista) hanno
però abbandonato la politica di indicizzare i metadati semantici come “keywords” e
“description”, a fronte dell’abuso fatto da web master che ne distorcevano la funzione
per occupare i primi posti nelle liste dei risultati.
Al di là di questi aspetti contraddittori, non vi è dubbio che i risultati dello
sviluppo della riflessione sugli strumenti dell’informazione in Internet, ha comunque
rilanciato l’approccio bibliotecario alla ricerca dell’informazione in rete a cominciare,
come si è accennato, dalla mediazione catalografica tramite un set minimo di campi
identificativi, gestionali e semantici, fino alla rivalutazione degli strumenti di
“knowledge organisation” (organizzazione del sapere) nati in ambito biblioteconomico
(a cominciare dalle classificazioni e thesauri generali e specialistici) e alle regole
definite per la loro costruzione. Non è raro oggi trovare nella letteratura professionale
espressioni enfatiche su questo riacquisito ruolo (si veda per esempio; dublin core: die
renaissance der bibliothekare: http://www.informatik.hu-berlin.de/~mayr/d_c.htm).
99
Forse sul modello dell’organizzazione delle informazioni sul “Gopherspace” i
primi servizi di ricerca dell’informazione di qualità sono stati i directory service tra cui
ricordiamo la Virtual Library o una “metaguide” (guida delle guide) molto utile come la
Argus Clearinghouse; i progetti sicuramente più interessanti però sono stati quelli volti
alla costruzione di subject gateway, o cataloghi di risorse di rete.
Se negli Stati Uniti spicca il progetto cooperativo di catalogazione delle risorse
elettroniche nel Cooperative On line Resource Catalog (CORC) di OCLC e Signpost
corredato da una utilissima newsletter settimanale, in Europa sono state soprattutto le
bilioteche inglesi che nell’ambito del progetto governativo e-lib (cfr. Chris Rusbridge,
Towards the hybrid library : developments in UK higher education, 66th IFLA Council
and
General
Conference,
Jerusalem,
Israel,
13-18
August
2000:
http://www.ifla.org/IV/ifla66/papers/030-142e.htm) hanno affrontato il problema
dell’informazione di Internet dando vita al progetto ROADS basato sulla costruzione di
Quality Controlled Subject Gateways, cataloghi di risorse elettroniche di qualità
organizzate per soggetto, che ha condotto alla costruzione del Resource Discovery
Network. Fanno parte di questo progetto i seguenti subject gateway, tutti sviluppati in
università con il contributo di bibliotecari e professionisti dell’informazione: SOSIG
(scienze sociali), EEVL (ingegneria), OMNI (informazione biomedica), Biz/ed
(economia e finanza), History e ADAM (Art, Design, Architecture & Media.
Altre importanti iniziative sono state sviluppate nei paesi del nord Europa:
•
in Finlandia il Finnish Virtual Libraries Project, lanciato nel 1995 con
finanziamento del Ministero dell’educazione per lo sviluppo su larga scala di
gateways per soggetto nazionali
•
in Svezia il subject gateway EELS (Electronic Engineering Library Sweden)
nell’ambito dell’ingegneria. supportato dalle 6 biblioteche tecnologiche svedesi
che si avvale del supporto informatico del Laboratorio di informatica
dell’Università di Lund.
•
In Danimarca (in collaborazione con altri paesi nordici) NOVAGate, un gateway
per scienze forestali e agrarie e veterinaria alimentato dalle biblioteche nella
Università NOVA (con sedi in Danimarca, Finlandia, Islanda, Norvegia e
Svezia)
•
In Olanda DutchESS (Dutch Electronic Subject Service) un gateway a diversi
soggetti (detto perciò SBIG, Subject Based Information Gateway) costruito dalla
Biblioteca Nazionale Olandese in collaborazione con 7 biblioteche universitarie.
100
In Germania esistono vari subject gateway: Geo-Guide (geologia, mineralogia e
geografia), The History Guide e The MathGuide e Anglistik Guide (risorse valutate e
descritte con un set di metadata del Dublin Core); di grande interesse per le soluzioni
tecniche adottate (v. avanti) è poi GERHARD, German Harvest Automated Retrieval
and Directory, una base dati sperimentale in tre lingue per categorizzare
automaticamente i siti. L’onere del progetto – salutato come la via per costruire una
base dati delle dimensioni di yahoo organizzata per categorie in modo interamente
automatico - non deve essere stato indifferente se la base dati non viene aggiornata dal
1998. Si è poi concluso nel 2000 il progetto denominato MACS (Multilingual Access to
Subject Headings) di costruzione di un thesauro di parole chiave in inglese tedesco e
francese per permettere la ricerca multilinguistica (vedi: http://infolab.kub.nl/prj/macs/).
Altro paese molto impegnato nella ricerca e costruzione di subject gateway è
l’Australia. Non mi risultano invece esperienze importanti nell’area latina, europea ed
extraeuropea.
Il servizio bibliotecario dell‘Università di Firenze si sta muovendo con
attenzione e determinazione nella direzione di valorizzare le risorse di rete nella
consapevolezza che la dimensione richiesta per una politica di organizzazione delle
risorse italiane in Internet in grado di collegarsi proficuamente alle esperienze straniere,
riguarda la comunità bibliotecaria nazionale. Realisticamente il gruppo di lavoro ad hoc
costituito nella primavera del 2000, ha fin‘ora condotto una ricognizione sullo stato
dell‘arte pubblicando sul server dello SBA un documento che identifica anche alcune
direzioni e prospettive di sviluppo. Dal punto di vista politico si sottolinea il richiamo
alla necessità di adeguare l‘organizzazione dell‘informazione di rete in Italia al livello
conseguito in Europa soprattutto in seguito ai progetti europei DESIRE e Renardus. Dal
punto di vista tecnico biblioteconomico viene offerto un panorama delle iniziative in
corso per sottolineare la necessità di un approccio „ibrido“ ossia intellettuale e nel
contempo automatico, alla costruzione dei subject gateway. È da notare a questo
proposito che lo sforzo di affinare tali strumenti richiede
l‘apporto non solo di
bibliotecari ma anche di specialisti dell‘informazione elettronica, di linguisti e di
infromatici organizzati in dipartimenti universitari e laboratori di ricerca, così come
stretta è la collaborazione tra chi opera nel campo dei subject gateway e istituti
internazionali per la gestione di Internet, come ad esempio il w3 (il documento è
consultabile in appendice).
101
È stato poi stabilito di cominciare ad attuare i criteri di gestione
dell‘informazione accennati anche inserendo progressivamente nei file html dello SBA i
metatag del Dublin Core e per sensibilizzare e aiutare i colleghi in questa attività
abbiamo tradotto e implementato sul nostro server l‘editor automatico di metadati, DCdot, tratto da UKOLN (DC v: 1.1). È nostra intenzione continuare a diffondere sulla
stessa pagina web messe a punto e analisi di singoli aspetti relativi all‘attività del
gruppo di lavoro.
Per conoscere le iniziative in corso in ambito nazionale sulla organizzazione
delle risorse di rete di area italiana e per verificare disponibilità e occasioni di
collaborazione, il gruppo ha deciso di inviare a indirizzi selezionati e sulla mailing list
dei bibliotecari italiani AIB-CUR, gestita dall‘Associazione professionale, un
questionario su alcuni temi che riteniamo importanti per la costruzione di subject
gateway e di cui daremo notizia dopo aprile del 2001.
Contemporaneamente stiamo verificando la possibilità di utilizzare CORC di
OCLC per raggiungere i seguenti obiettivi:
1. costruire esperienze di catalogazione delle risorse di rete e approndire le
tematiche relative;
2. catalogare risorse italiane di qualità;
3. costruire tramite CORC delle directory (Pathfinder) da offrire agli utenti dello
SBA per la ricerca dell‘informazione di rete.
102
ITINEROTECA ULISSE
Gianfranco Bettoni28
Abstract
Un sito dedicato ai viaggi con le informazioni selezionate dalle riviste
specialistiche del settore, trattate e indicizzate con un’apposita terminologia che facilita
il recupero dell’informazione. Apposite liste di autorità orientano il lettore tra luoghi
geografici e ambienti con indirizzi e informazioni utili per chi vuole documentarsi
prima della partenza.
Parole chiave
Viaggi, Internet, portale
A site dedicated to voyages with information selected from specialized
periodicals of the sector, handled and indexed with suitable terminology which
facilitates information retrieval. Special authority lists guide the reader through
geographical places and environments with useful addresses and information for those
who wish to read up on the subject before departing.
Key words
Voyages, Internet, Portal
e-viaggiatori è una base dati specializzata che raccoglie, ordina e mette a
disposizione dell’utente, in modo immediato ed efficiente, le risorse internet relative a
viaggi, arte, musei, ambiente e cultura geografica.
E’ uno strumento indispensabile e di facile utilizzo per tutti i viaggiatori che
vogliono documentarsi e raccogliere informazioni prima di intraprendere un viaggio, ma
anche per coloro che usano la rete come mezzo per viaggiare virtualmente tra i siti.
e-viaggiatori offre un elevato numero di siti Internet documentati e con esiti di
ricerca precisi e pertinenti.
Gli indirizzi presenti nel data base sono reperiti dalle maggiori riviste italiane di
viaggio, che dedicano rubriche sulle risorse della rete e non mancano di corredare i loro
articoli con l’indicazione di indirizzi web. A questa selezione di siti, associati agli
28
Responsabile di Ulisse S.r.l. - Via Mazzini 26 - 46100 Mantova - tel. fax 0376 399633
e-mail: [email protected] - sito Internet: www.e-viaggiatori.com
103
articoli delle riviste (11.500 accessi al 31 dicembre 2000), si aggiungono gli indirizzi
ricavati dalle monografie e repertori a stampa, da siti istituzionali italiani ed esteri
nonché da fonti nella rete quali i motori di ricerca e pagine web (ulteriori 7.000 nuovi
accessi).
L’affidabilità del contenuto dei siti è assicurata, poiché questi vengono
regolarmente controllati e valutati da documentatori esperti così da eliminare la
dispersione – tipica dei tradizionali motori di ricerca nella rete - causata da siti effimeri
o poveri di informazioni.
Gli articoli delle riviste vengono organizzati in un indice sul database
Itineroteca Ulisse, che da otto anni viene distribuito su richiesta dei lettori delle riviste
sotto forma di Cd-rom.
e-viaggiatori è una banca dati di siti a carattere turistico-geografico: il primo
canale di ricerca sarà il nome di una località, che può essere uno stato, regione,
provincia, comune, regione storica o fisica. La ricerca diviene estremamente precisa
grazie alla possibilità di associare un argomento ad un luogo, che può essere scelto
dall’utente in una tabella di classificazione disponibile on line, oppure digitato in un
campo di ricerca libera con thesauro interno di aiuto.
Il risultato dell’interrogazione sarà un elenco di siti che trattano di
quell’argomento in riferimento alla località desiderata
La ricerca può essere effettuata anche prescindendo da un argomento e
utilizzando come criterio la sola località. In questo caso si otterrà una lista di siti, che
trattano in modo organico e complessivo dell’offerta turistica e culturale del luogo in
questione.
Ulteriori elementi di ricerca sono le mappe, le webcam, i meteo, le bibliografie.
L’utente potrà collegarsi direttamente ai siti evidenziati dalla ricerca attraverso
e-viaggiatori.
e-viaggiatori utilizza un criterio di visualizzazione intelligente che consente di
organizzare gerarchicamente i risultati di una ricerca in base all’effettiva ricchezza dei
contenuti documentari, informazioni e links. L’utente può dunque scegliere subito tra le
risorse informative più complete ed attendibili.
Il risultato di questo lavoro è il data base e-viaggiatori che viene distribuito su
Cd-Rom insieme a Itineroteca Ulisse e sarà presto in Internet sul sito e-viaggiatori.com.
Archivio riviste Biblioteca comunale di Viadana 0375.782048 (-26 fax)
104
Itineroteca Ulisse
Le principali riviste italiane indicizzate sono: Airone, Bell’Italia, Bell’Europa, Dove,
Gente Viaggi, Gulliver, In Viaggio, Itinerari e luoghi, Meridiani, National
Geographic Italia, Oasis, Plein Air, Panorama Travel, Qui Touring, Tuttoturismo.
Le riviste in lingua catalogate dal 1995 sono: Geo (ed. francese), Geo (ed. tedesca),
Grands Reportages, Globo, Geo Saison, Holiday, Condè Nast Traveler, National
Geographic Traveler, National Geographic (dal 1986) .
Dal 1992 a tutto l’anno 2000, grazie alla collaborazione con il Touring Club
Italiano, l’Editoriale Giorgio Mondadori, le Edizioni Plein Air, Rusconi Editore, De
Agostini Rizzoli Periodici e Fioratti Editore sono stati distribuiti più di 9000 indici
digitali in versione Win/Mac.
105
106
APPENDICE
I SUBJECT GATEWAY
Nicola Benvenuti29
Abstract
Questo documento ha il compito di illustrare schematicamente le iniziative in
corso di catalogazione delle risorse di rete facendo riferimento in particolare ai Subject
Based Information Gateway (SBIG), per permettere agli organi competenti di valutare le
modalità più adeguate nel contesto fiorentino alla valorizzazione delle risorse di rete per
la didattica e la ricerca.
Questo documento ha il compito di illustrare schematicamente le iniziative in
corso di catalogazione delle risorse di rete facendo riferimento in particolare ai Subject
Based Information Gateway (SBIG), per permettere agli organi competenti di valutare le
modalità più adeguate nel contesto fiorentino alla valorizzazione delle risorse di rete per
la didattica e la ricerca.
Con SBIG (o, al di là di sfumature di significato, anche QCSG quality controlled
subject gateway) si intende in primo luogo la costruzione di basi dati di risorse di
internet di varie tipologie e formati (in alcuni casi vengono inseriti anche testi a stampa
e CD ROM) selezionate in base a criteri di qualità, definiti e dichiarati, su cui condurre
ricerche sia per parole chiave che scorrendo liste organizzate per soggetto.
In ambito scientifico accademico, soprattutto, sono state sottolineate le carenze
di motori di ricerca e directory services generalisti, rilanciando l'approccio
biblioteconomico alla ricerca dell'informazione anche in Internet, sia per quanto
riguarda il recupero di strumenti di "organizzazione del sapere" (knowledge
organisation) definiti e costituiti in ambito bibliotecario, che per quanto riguarda la
necessità di contestualizzare l'informazione di qualità con riferimento ad un target
accademico scientifico e ad accessi di tipo catalografico.
29
Biblioteca di ……
107
Particolare attenzione è stata rivolta ai progetti europei (DESIRE, Imesh e
Renardus) i quali mirano alla costruzione e diffusione di SBIG in Europa secondo i
seguenti criteri:
1. prevedere una architettura costituita di basi dati distribuite in modo da garantire
collaborazione ed interoperatività per compensare
con la cooperazione
nazionale e internazionale (europea) l’alto costo di produzione di SBIG e
costituire una rete di informazione europea per la didattica e la ricerca;
2. garantire la standardizzazione o almeno compatibilità di formati e
comportamenti catalografici;
3. permettere la scalarità dei sistemi, in modo da sostenere i futuri sviluppi
4. affiancare ai tradizionali metodi manuali di catalogazione strumenti di
indicizzazione automatica.
Questo ultimo obiettivo prefigura un approccio ibrido alla costruzione di SBIG
ed è particolarmente importante. Esso, infatti, concretizza un aspetto essenziale
dell’adattamento
dei
criteri
di
organizzazione
dell’informazione
di
ambito
biblioteconomico all’informazione di rete. Permette infatti di:
1. fornire, insieme ai tradizionali accessi catalografici, una ricerca per parole
chiave sul testo pieno delle pagine web, indicizzate da apposito robot,
utilizzando indicatori di importanza;
2. ricostruire, seguendo i link dei siti selezionati fino a due, tre livelli, di il contesto
della “comunità di interessi” relativa a quel determinato soggetto per formare
una base dati di appoggio e integrazione al catalogo manuale delle risorse di
rete;
3. con la applicazione di sperimentali tecnologie di categorizzazione dei
documenti, l'organizzazione semantica delle risorse di rete per selezionare, fino
ad ora, nuove risorse disciplinari da esaminare.
In sintesi l'indicizzazione automatica permette di fornire un servizio più esteso e
specifico e di realizzare significativi risparmi di costi ed è quindi momento essenziale
della costruzione di SBIG.
Da un punto di vista strettamente funzionale un servizio di diffusione delle
informazioni di rete di qualità può articolarsi a diversi livelli: dalla semplice lista
annotata, purché con criteri definiti, dichiarati e coerenti, fino alla costruzione di basi
dati di articolati formati catalografici. E' comunque indubbio che una volta riconosciuta
l'importanza di offrire, agli utenti italiani e stranieri, risorse Internet di qualità, la via
108
della costruzione di una base dati (o catalogo) meglio corrisponde sia alla missione
informativa delle biblioteche, che alla gestione dei processi. Essa si presta inoltre a
costituire il contenitore specifico delle risorse di rete, conformemente ad esigenze
gestionali e di manutenzione peculiari, nell'ambito della biblioteca virtuale.
In particolare l’archiviazione in una base dati si presta ad essere assai più
maneggevole e funzionale per la gestione del costante incremento delle risorse censite,
per l’aggiornamento di liste per soggetto da creare automaticamente in base alla
richiesta
dell’utente,
per
l’interoperabilità
con
altri
sistemi.
In
particolare
l'interoperabilità costituisce un’ulteriore irrinunciabile occasione di risparmio sui costi
di produzione dello SBIG.
Data la scalarità del sistema è comunque possibile anche iniziare con una
lavorazione locale, utilizzando eventualmente i diversi tool messi a disposizione dai
package open source disponibili gratuitamente, rinviando ad un secondo momento la
ricerca di altri partner. L'utilizzo di detti package basati su un’architettura di basi dati
distribuite, offre già adesso occasioni di interoperabilità con numerosi SBIG esistenti.
Potrebbe anche essere consigliata l’adesione a progetti di catalogazione
partecipata come Net First di OCLC che, con un modesto abbonamento annuale, mette a
disposizione dei partecipanti una serie di strumenti di editing - da interfacce per la
creazione di metadati, analizzatori di documenti, strumenti per la manutenzione della
base dati … - e oltre 225.000 record, senza pregiudicare la valorizzazione di un profilo
specifico delle istituzioni partecipanti.
Il gruppo di lavoro ha previsto la diffusione di un questionario, per conoscere i
progetti in corso in Italia e stabilire contatti per future collaborazioni.
Tipologie dei Subject Gateway
Esistono attualmente alcune tipologie di SBIG che, a partire dal comune
denominatore del controllo di qualità, si distinguono per la loro diversa finalità e
struttura. Essi possono essere raggruppati:
1. per contenuto, a seconda che coprano un soggetto specifico (EELS, EEVL,
OMNI, SOSIG, Biz/ed) o abbiano un carattere universale (CORC, Signpost)
2. per area geografica: i subject gateway inglesi che aderiscono a RDN mirano a
valorizzare le risorse in UK; Dutchess si concentra sulle risorse olandesi;
NOVAgate per le risorse scandinave … CORC ha invece una copertura
internazionale;
109
3. per dimensione: la maggior parte dei subject gatreway non supera i 5000 record
(fa eccezione CORC con 225.000 circa)
4. per tipologia di cooperazione.
Quest ultimo è un punto di vista assai importante anche perché la
moltiplicazione di SBIG può paradossalmente rendere più difficoltosa la ricerca per
l'utente finale, che può perdersi nella selva di liste esistenti. Sempre più si avverte la
necessità di un servizio integrato, fondato su un modello cooperativo, in grado di
consentire all'utente l'accesso a collezioni più ampie di quelle offerte da un singolo
strumento, consultabili simultaneamente tramite un'unica interfaccia di ricerca. La
cooperazione permette inoltre ai fornitori del servizio di condividere i costi di gestione
dei gateway (sviluppo del software, scambio di dati, divisione dei compiti, etc.)
E' questo lo questo scopo dei seguenti progetti a carattere europeo finalizzati a
favorire la cooperazione:
•
DESIRE: è un progetto europeo sorto nel 1998 da una collaborazione fra
partners di 4 paesi europei (Olanda, Norvegia, Svezia e Inghilterra) col compito
di stabilire strumenti e metodi per lo sviluppo di SBIG su larga scala anche
attraverso la definizione di standards. Ha edito un utile manuale per la
costruzione di SBIG30.
•
IMesh deriva dalla Second European Conference on Research and Advanced
Technology for Digital Library tenuta a Creta nel 1998 per sviluppare
l’interoperabilità tra sistemi anche tramite un software per SG distribuiti 31.
•
RENARDUS: progetto europeo del 1999 che mira a stimolare la costruzione di
servizi europei di informazione in rete e fa riferimento alle varie Biblioteche
Nazionali per costruire una rete europea di Information Gateway nazionali di
risorse internet di qualità. E' prevista in un secondo momento l'istituzione di un
servizio integrato di accesso a tali risorse tramite un'unica interfaccia di ricerca32.
Si possono delineare varie forme di collaborazione a seconda del contenuto e
dell'approccio prescelti.
30
http://www.desire.org/handbook/
http://www.imesh.org/
32
http://www.renardus.org/
31
110
Per contenuto:
•
cooperazione per coprire un’area disciplinare (soggetto)(AgNIC, NOVAGate,
EdNA, GEM, MetaChem, EELS)
•
cooperazione in ambito nazionale tra SBIG di diverse aree disciplinari (RDN in
UK, Finnish Virtual Library, SSBIG-FI in Germania, Australia)
•
cooperazione per un servizio nazionale integrato e coerente (DutchEss)
•
cooperazione tra SBIG e biblioteche nazionali o regionali (DEF subject portals
in Danimarca)
Per tipologia della collaborazione:
•
cooperazione per servizi comuni, consorzi e organizzazioni (DuthEss,
NOVAGate, EELS, CORC). La tipologia prevede tra l’altro che i bibliotecari, da
qualsiasi località, purché abbiano accesso ad un PC e alla rete, collaborino ad
alimentare un’unica basedati, invece di dover sviluppare ognuno il proprio
servizio;
•
scambio di record, traduzione di record e altri sforzi coordinati (previsti tra
CORC e RDN, SOSIG e Signpost, EEVL e AVEL; cooperazione tra gateway di
agricoltura)
•
integrazione virtuale tramite ricerche incrociate sia su liste (SOSIG e Biz/ed) che
su indici in base alla condivisione di standard (p.e. tra servizi che utilizzano
ROADS)33
•
mirroring di servizi remoti (SOSIG e Signpost)
Politica editoriale
Una delle prime operazioni nel progettare uno SBIG è quello di stabilire la
politica editoriale da seguire, tenendo fermo che l'oggetto di SBIG sono risorse di rete,
con solo parziale somiglianza alle tradizionali fonti a stampa.
La tipologia sopra ricordata degli SBIG esistenti dimostra che le possibilità sono
molteplici ai vari livelli, ma la scelta non può prescindere dal quadro europeo,
33
Si vedano i prototipi interrogabili presso il sito di EEVL: http://wwwdb.lub.lu.se/cgibin/egwcgi/egwirtcl/screen.tcl/name=find&lang=eng&service=eels2 e http://wwwdb.lub.lu.se/cgibin/egwcgi/egwirtcl/screen.tcl/name=find&lang=eng&service=aeels2
111
rapidamente delineato e deve tener conto della situazione degli strumenti di
informazione sulle risorse di rete esistenti in Italia.
Un ulteriore aspetto della politica editoriale è dato dalla definizione di criteri di
qualità dichiarati. In proposito non esiste uno standard definito (né per la verità lo
potrebbe, trattandosi appunto di scelte politiche), bensì una ricca bibliografia e i modelli
adottati dai principali e più affidabili provider di informazioni di rete. Sulla scorta dei
progetti europei34 possiamo identificare quattro aspetti da considerare per la valutazione
delle risorse di rete:
1. criteri relativi alla valutazione del server. Il nome simbolico dell'indirizzo del
server offre spesso informazioni essenziali sulla natura dell'ente che promuove il
servizio e spesso è un elemento selettivo di primaria importanza (ad esempio per
l’indicizzazione automatica delle pagine di siti istituzionali - es. università e
istituti di ricerca: uno strumento che, a quanto risulta a chi scrive, non esiste in
Italia)
2. criteri di contenuto, p. es.: validità, autorità e reputazione della fonte,
accuratezza, esaustività, unicità, composizione e organizzazione, aggiornamento
3. criteri di forma, p. es.: facilità di navigazione, presenza di aiuto per l’utente, uso
di standard riconosciuti, uso adeguato della tecnologia, estetica
4. criteri di processo, p. es.: integrità dell’informazione (competenza del provider),
integrità del sito (competenza del webmaster), integrità del sistema (competenza
dell’amministratore di sistema)
Altri criteri tecnici vanno poi considerati e stabiliti, in particolare la granularità
della catalogazione. Quanti record dovrebbero essere creati per ogni risorsa web ? Il
quadro offerto dai partners di Renardus è il seguente:
Nome
Granularità
Dutch
"entità informative", cioè il sito web di
ESS
un'organizzazione, un documento (articolo,
Note
libro), una fonte di informazione secondaria
(bibliografia, information gateway)
34
Si veda per tutti: Selection criteria for Quality Controlled Information Gateways. Work package 3 of
Telematics for Research project DESIRE (RE 1004). Http://www.ukoln.ac.uk/metadata/desire/quality/report1.html
112
NOV
siti web
AGate
EELS
soprattutto server/servizi/top pages
anche
documenti
individuali
se
importanti
per
il
soggetto
DEF
–
fagpor
tal
DAIN
pagine web
et
FVL
pagine web
anche
documenti
individuali
se
importanti
per
il
soggetto
Les
pagine web o servizi (= parti di un sito che
Signet
sono intellettualmente autosufficienti)
s
RDN
pagine web (servizi/collezioni)
some
item
level
description
SSG-
"siti tematici" (collezione di documenti con
è
prevista
FI
un tema scientifico o accademico comune,
l'integrazione
cioè anche server di società di istruzione,
materiale a stampa e
riviste elettroniche
CD ROM
di
La regola del Dublin Core, detta dell'1:1, rinvia alla indicazione di una
descrizione per ogni risorsa autonoma e conclusa considerata significativa dal punto di
vista informativo. Questo principio è stato messo in discussione. Molti information
gateway indicizzano i siti web, senza approfondire eccessivamente l'analisi 113
conseguendo minor precisione ma col vantaggio di una maggiore stabilità delle
informazioni riportate.
La soluzione del problema può derivare dal fatto che, rispetto al catalogo
tradizionale di testi a stampa, un catalogo di risorse Internet può far riferimento al testo
pieno delle risorse web: anche qui un approccio ibrido che faccia coesistere una
descrizione a livello di sito fatta da catalogatori esperti con indici automatici del testo
della risorsa e l'adozione di criteri di rilevanza nella presentazione dei risultati (per
l'indicizzazione automatica, v. avanti) può sdrammatizzare problemi connessi alla
coerenza del catalogo, come quello della granularità della catalogazione o altri segnalati
dalla letteratura35.
La catalogazione delle risorse web
Quando si parla di catalogazione delle risorse di rete all'interno di biblioteche,
due sono gli approcci principali relativi al contenitore più idoneo per la loro fruizione:
•
l'nserimento nel catalogo elettronico
•
la creazione di apposito gateway
L'una o l'altra influenzano la scelta del formato (metadata) della catalogazione:
•
negli OPAC il formato MARC integrato è nella maggior parte dei casi la
descrizione più diffusa;
•
nei gateway, diversi sono gli schemi di metadata utilizzati: fra di essi il Dublin
Core (DC) rappresenta lo standard (almeno de facto).
Molti altri sono comunque gli schemi di metadata usati per la descrizioni di
risorse elettroniche36 spesso "mappati" con il Dublin Core.
Fra le iniziative di catalogazione delle risorse di rete in OPAC la più prestigiosa
è senz'altro il progetto CORC di OCLC, che ha varato un catalogazione cooperativa che
ha portato all'aggiunta di 1200 record durante la sperimentazione. Sono confluiti
nell'archivio di 175,341 record da OCLC NetFirst e OCLC InterCat database sul quale il
progetto è stato varato nel gennaio del 1999.
35
In particolare la questione di "surrogati" del creator formale: si veda Introduction to metadata. Pathways to
digital
information
a
cura
di
Murtha
Baca
,
2000,
http://www.getty.edu/gri/standard/intrometadata/1_introduction/index.htm
36
A review of metadata: a survey of current resource description formats. Work Package 3 of Telematics for
Research project DESIRE (RE 1004). http://www.ukoln.ac.uk/metadata/desire/overview/rev_01.htm
114
In Italia la biblioteca Angelo Monteverdi de La Sapienza ha inserito 1.500
descrizioni di risorse di rete (monografie ma anche siti) nel proprio OPAC adottando un
record estensibile MARC mappato in DC37.
Per la descrizione delle risorse elettroniche il formato MARC inserisce il tag
856
Electronic
Location
and
Access
secondo
le
regole
alla
pagina
http://lcweb.loc.gov/marc/856guide.html
Le problematiche fra le due scelte vengono ben spiegate da Stuard Weibel di
OCLC.
Un obiettivo dei metadata del Dublin Core è costituire una alternativa semplificata e a basso
costo alla catalogazione tradizionale in MARC e ci sono molti progetti che traggono vantaggio da questo
approccio. E' chiaro che le biblioteche hanno bisogno di una presenza sul web per servire in modo
adeguato i propri referenti. Per molte se non la maggior parte delle risorse web, la catalogazione in
MARC è eccessivamente costosa e il Dublin Core rappresenta una gradita alternativa.
DUBLIN CORE
Nato per descrivere pagine web secondo il criterio: schema di riferimento,
elemento e valore - come definito nel Resource Description Framework (RDF) - è oggi
uno dei formati più diffusi.
Caratteristiche fondamentali del DC sono
•
Ogni elemento è opzionale
•
Ogni elemento è ripetibile
•
Sintassi indipendente
•
Estendibile (la descrizione si può arricchire)
•
Interdisciplinare (Interoperabilità semantica)
•
Internazionale (10 lingue in aumento)
Il Dublin Core si propone con un set di 15 elementi e qualificatori.
Contenuto
Proprietà
Istanza
Titolo
Creatore
Data
Soggetto
Altro responsabile
Tipo di risorsa
Descrizione
Editore
Formato
Fonte
Diritti
Identificatore
Lingua
37
Il catalogo si può interrogare all'indirizzo http://bam.let.uniroma1.it
115
Relazione
Copertura
Per esprimere sfumature di significato, o circoscrivere l'ambito semantico degli
elementi, è in corso di sviluppo il tentativo di specificare gli elementi del DC (Qualified
Dublin Core). Il DC-Usage Committee riconosce due categorie fondamentali di
qualificatori:
1. schemi di codifica o di lingua, la cui funzione è di aiutare l'interpretazione del
valore dei vari elementi, compresi vocabolari controllati e notazioni formali: sono
introdotti dal tag scheme= o lang= ;
scheme=contesto per interpretazione di un valore basato su standard esterni
p. es. per indicare la classificazione DDC: scheme=DDC
lang = lingua secondo la codifica ISO 639/1
p. es. per indicare la lingua spagnola: lang="es"
2. specificazioni degli elementi che ne circoscrivono l'applicazione senza
estenderne il significato.38
Per la specifica degli elementi è in corso di definizione una codifica secondo il
modello:
<meta name
=
"prefisso(.)nome dell'elemento(.)nome del sub elemento…">p.es.:
<meta name
= "DC.Creator.Director"
content = "Sturges, Preston">
<meta name
= "DC.Creator.Writer"
content = "Hecht, Ben">
L'estensibilità di uno schema dipende dalle caratteristiche/tipologia delle risorse che si
devono descrivere/catalogare.
Mappatura tra i diversi schemi di metadata
La mappatura fra i diversi formati è requisito fondamentale per l' interoperabilità
ossia la comunicazione e lo scambio fra i diversi ambienti (fondamentale per le
biblioteche l'interoperabilità con i metadata del catalogo, ad es col MARC)39.
38
Per il DC la lista - non ancora a livello di "raccomandazione del DCMI" - di qualificatori rispondenti ai criteri
di interoperabilità, si trova a: http://www.mailbase.ac.uk/lists/dc-general/2000-04/0010.html Vedi anche:
http://www.agcrc.csiro.au/projects/3018CO/metadata/dc-guide/ Per qualificatori usati in altri sistemi, si veda:
http://www.mailbase.ac.uk/lists/dc-agents/files/qualifier-table.html
116
Tale mappature avviene sulla base di registri di metadati (secondo lo standard
ISO/IEC 11179), cioè sistemi formali che di regola definiscono la semantica dei
metadati, danno informazione su ogni estensione locale in uso e provvedono a mapparli
con quelli di altri schemi.40
Il progetto ROAD, che è stato una pietra miliare nell'identificazione, valutazione
e descrizione alle risorse Internet per settori disciplinari nell'ambito del progetto e-lib
(quality-controlled subject gateways), adottava (1998) dei modelli di metadata
(templates) per descrivere le diverse categorie di risorse secondo lo schema IAFA
(Internet Anonimous FTP Archives) che comunque è mappato con il DC e può dunque
operare con sistemi basati su tale schema alternativo di metadata.
Il citato progetto Renardus, ha realizzato una mappatura dei metadata utilizzati
dai diversi partner per definire quello che sarà il modelli di dati (data model) comune.
Esso fornisce una utile sintesi dei livelli di catalogazione che si posso avere a seconda
degli oggetti e degli ambienti nei quali si opera.
Nel confronto viene individuato un set minimo (8 elementi) quale base per
l'interoperabilità tra i diversi gateway:
M =mandatory
R =recommended
O=optional
Elemento
Qualificatore
Obbligazione
Title
Alternative
M
Creator
Surname,name
R
Description
TOC, abstract
M
Subject
DDC etc....
R
Identifier
URL, URN, DOI
M
Language
ISO639/1
R
Country (no DC)
3166/1
R
Type
DCMI
O
39
Un' ottima collezione di mappature fra i diversi schemi di metadata è fornito dal progetto ROADS all'indirizzo
http://www.ukoln.ac.uk/metadata/interoperability
40
Esempi di registri sono citati in: http://www.desire.org/html/research/deliverables/D3.5/d35.html
117
Principali strumenti di accesso semantico alle risorse di rete
L'accesso semantico alle risorse di rete avviene di norma tramite
•
scorrimento di uno schema di classificazione;
•
ricerca puntuale per parole-chiave.
A tali servizi si aggiungono spesso:
•
tesauro in linea;
•
ricerca per area geografica;
•
ricerca per tipologia di risorsa;
•
ricerca per tipologia di destinazione d'uso della risorsa.
Nella maggior parte dei casi all'utente vengono offerti almeno entrambi gli
strumenti principali.
Tra le classificazioni si distinguono41:
tipologia
caratteristiche
esempi
Schemi universali
copertura di tutte le
DDC (Dewey)
discipline,
UDC (Universal)
destinazione
d'uso
generale
Schemi specifici per
copertura dettagliata di
NLM
soggetto
una singola disciplina
Library of Medicine)
Schemi personalizzati
uso previsto nell'abito
Yahoo!
di
uno
(National
specifico
servizio
I principali vantaggi e svantaggi nell'uso di un (qualsiasi) sistema di
classificazione sono i seguenti:
Vantaggi
Svantaggi
- facilità di ricerca (soprattutto quando è
- partizione talvolta forzata delle discipline e
messa a disposizione dell'utente la voce in
degli
chiaro della notazione piuttosto che la
allontanamento di documenti logicamente
notazione stessa)
correlati (vi si può ovviare attraverso
41
argomenti,
con
conseguente
Non si prendono qui in considerazione i cosiddetti "schemi nazionali generali".
118
- continua contestualizzazione dei termini
l'assegnazione di più classi allo stesso
di
documento)
ricerca
attraverso
la
contiguità
dell'ambito di significato disciplinare
- lentezza nella copertura di nuove aree di
- possibilità di allargare o restringere
ricerca e nella gestione di nuove terminologie
agevolmente il campo della ricerca
(vi
si
può
ovviare
con
modifiche
personalizzate ella notazione)
Principali vantaggi e svantaggi nell'adozione di ciascuna delle principali
tipologie di schemi di classificazione:
Schema universale (DDC)42:
Vantaggi
Svantaggi
- facilità d'uso da parte dei bibliotecari
-
- garanzia di stabilità e aggiornamento dello
precendente
gli
stessi
elencati
alla
voce
schema
- alta interoperabilità
-
indipendenza
linguistica
della
notazione
numerica
- disponibilità dello schema in formato elettronico
Schemi specifici per soggetto:
Vantaggi
Svantaggi
- estrema precisione della notazione
- complessità di gestione in caso di
- familiarità dell'utenza con lo schema
gateway multidisciplinare
della propria disciplina
- mancanza di un sistema accreditato per
molte
discipline
(es.:
musica,
arti
performative, scienze religiose)
Schemi personalizzati:
Vantaggi
Svantaggi
- flessibilità
- considerevole dispendio di tempo
- possibilità di rispondere con maggiore
- necessità di approfondita conoscenza
42
Si prende in considerazione esclusivamente la Classificazione decimale Dewey in quanto in uso nel catalogo
del Sistema bibliotecario di Ateneo.
119
efficacia ai bisogni dell'utenza
delle discipline
- rischi di incoerenza
- scarsa interoperabilità
2. Parole-chiave.
La ricerca per parole chiave può essere resa disponibile tramite:
•
l'utilizzo di un vocabolario controllato
•
la ricerca a testo libero nell'intero documento o nelle sue parti significative.
Vocabolario non controllato:
Vantaggi
Svantaggi
- risparmio di tempo per l’operatore
- necessità per l’utente finale di
- possibilità di uso di neologismi
tenere conto di varianti grafiche,
nell’ indicizzazione e nella ricerca
omonimie
-
possibilità
documenti
non
di
richiamo
pertinenti
e
di
di
perdita di documenti pertinenti
Vocabolario controllato:
Vantaggi
Svantaggi
- coerenza dell’indicizzazione
-
- precisione del risultato della ricerca
l’indicizzatore
dispendio
di
tempo
per
- necessità per l’utente finale di
conoscere il vocabolario usato per
l’indicizzazione
Al momento di decidere sia quale politica di indicizzazione adottare, sia quali
strumenti di ricerca offrire agli utenti, è necessario considerare preliminarmente:
-
estensione disciplinare del gateway in costruzione;
-
strumenti di indicizzazione già in uso in biblioteca;
-
strumenti accreditati di indicizzazione disponibili per le discipline
coperte;
-
lingua da adottare per la ricerca e il recupero delle informazioni;
120
-
risorse umane, tecniche e finanziarie disponibili;
-
caratteristiche dei gateways già esistenti nell'area/e disciplinare/i in
oggetto43
Il problema lingua
Un ambito particolarmente delicato della collaborazione tra SBIG a livello
internazionale è costituito dalle barriere linguistiche.
Rispetto al multilinguismo sono due gli aspetti da considerare:
1. l’archiviazione, manipolazione e presentazione dell’informazione in diversi linguaggi
2. la ricerca su dati di lingue diverse
Sotto ambedue questi aspetti le soluzioni adottate dai vari SBIG non sono
univoche. Per il primo aspetto un panorama è offerto dalla seguente tabella relativa ai
43
Esempio di gateway multidisciplinare:
BUBL <http://bubl.ac.uk/link/>
ricorre alla DDC e a voci di soggetto (controllate) per l’indicizzazione; all’utente finale offre le seguenti
possibilità di ricerca:
innanzitutto una griglia di relazioni tra le discipline e i loro argomenti del tutto indipendente dallo
schema Dewey (es. agriculture sub life sciences), al cui interno sono elencate alfabeticamente delle voci di
soggetto da cui si accede alle risorse;
quindi una maschera di ricerca semplice e avanzata per autore, voci di soggetto, parole del titolo e
dell’abstract.
E’ offerta anche la possibilità di scorrere le classi, di cui viene visualizzata sia la notazione numerica
che la vedette (browse by Dewey class);
quella di scorrere un menu contenente le principali etichette di discipline (main subject menus);
di interrogare l’elenco alfabetico completo delle voci di soggetto (A-Z);
di accedere alle risorse per tipologia (types);
di visualizzare le sole new entries (updates).
Esempio di gateway a soggetto specifico:
OMNI <http://omni.ac.uk>
indicizza utilizzando le Medical subject headings. Offre le seguenti possibilità di ricerca:
ricerca semplice e avanzata sui campi titolo, descrizione e parole-chiave;
scorrimento del tesauro MeSH 2000 e delle voci di soggetto della National library of medicine.
Fonti utilizzate:
DESIRE information gateways handbook. 2.5: Subject classification, browsing and searching, [by] P. Cross, M.
Day, T. Koch, M. Peereboom, A.-S. Zettergren [online].
<http://www.desire.org/handbook/2-5.html> [aggiornato al 26.4.2000]
Kirriemuir, J.-Welsh, S.-Knight, J., Cross-searching subject gateways: the query routing and forward knowledge
approach, “D-lib magazine”, January 1998 [online].
<http://www.dlib.org/january98/01kirriemuir/html> [visitato il 7.9.2000]
Koch, T., Controlled vocabularies, thesauri and classification systems available in the WWW. DC subject
[online].
<http://www.lub.lu.se/metadata/subject-help.html> [creato il 10.12.1996, aggiornato al 28.7.2000]
The role of classification schemes in Internet resource description and discovery, Work package 3 of Telematics
for research project DESIRE (RE 1004), [by] UKOLN metadata group [online].
<http://www.ukoln.ac.uk/metadata/desire/classification/class_tc.htm> [aggiornato al 14.5.1997]
121
partner del progetto RENARDUS44 in cui, come si nota, l’inglese utilizzato nei campi a
testo libero funge da lingua "franca":
Nome
Copertura
Lingua
prevista
(descrizione, campi di
dell’interfaccia
testo libero)
utente
e
inglese
inglese, olandese
inglese
DutchE
nazionale
ss
internazionale
NOVA
area scandinava
Gate
dei
metadata
e
Lingua
lingua
inglese
inglese (titolo in lingua
inglese
originale
EELS
nazionale
DEF
e
internazionale
originale)
nazionale
Danese e inglese (?)
nazionale
tedesco
danese/inglese
fragport
al
DAINet
(presto
in
tedesco (presto in
inglese)
inglese)
FVL
nazionale
Finnico e inglese
finnico e inglese
Les
nazionale
francese
francese
e
inglese
inglese
e
inglese (titolo in lingua
inglese
signets
RDN
nazionale
internazionale
SSBIG-
nazionale
FI
internazionale
originale)
Per quanto riguarda la ricerca e lo scorrimento di liste per soggetto tra
Information Gateways, le tecniche di CLIR (Cross language information retrieval) - che
hanno al CNR di Pisa un importante riferimento - in corso di sperimentazione sono
soprattutto:
1. traduzione automatica di testo (soprattutto traduzione della query nella lingua
del documento; traduzione del documento nella lingua richiesta, tipo Altavista)
44
Becker, H. J., … (et al.), Evaluation report of partner subject gateway, (26.04.2000) file MS-Word 97,
scaricabile da: Errore. L'origine riferimento non è stata trovata.
122
2. tecniche di analisi del testo e confronto con knowledge bases; queste possono
essere:
thesauri multilinguistici come quello che viene creato dal progetto EuroWordNet
(in corso da giugno 1999)
3. schemi di classificazione disponibili in più di una lingua (es. DutchEss che offre
una struttura classificatoria basata sulla Nederlandse Basisclassificatie
disponibile in olandese e inglese; è in corso la traduzione in tedesco)
4. parole chiave, da aggiungere alla descrizione della risorsa: tra le varie possibilità
vi è quella di aggiungere parole chiave in inglese come “lingua franca” di
internet.
Il software
Qualsiasi programma di gestione di basi dati è ovviamente proponibile
specialmente in un primo momento. Anche per quanto riguarda il software la situazione
degli SBIG è abbastanza differenziata e prevalgono soluzioni fatte "in casa".45 Una certa
diffusione ha conosciuto il software ROADS (Resource Organisation And Discovery in
Subject-based services) sviluppato nell'ambito del progetto e-lib. Si tratta di un software
scritto in perl che implementa il formato dei dati IAFA, per altro mappato col Dublin
Core, e utilizza per la ricerca il protocollo wohis++ . E' in corso la preparazione di
un'interfaccia per Z39,50. Il progetto IMesh si ripropone tra l'altro di rilasciare una
nuova versione di ROADS che risponda alle esigenze di altri progetti di gateway in
corso.
Utilizzano questo software i seguenti Gateway:
1. ADAM - Art, Design, Architecture & Media Information Gateway
2. ALEX - un catalogo di testi elettronici mantenuto a Berkeley
3. BeCal - dedicato all'insegnamento di credenze e culture
4. Biz/ed - dedicato all'economia per il mondo accademico e dell'educazione
5. EELS - Engineering Electronic Library Sweden
6. The Finnish Virtual Library Project
7. HISTORY
8. JIME - The Journal of Interactive Media in Education
9. LeedsLASER- accesso a risorse selezionate di elettronica
123
10. NADIR - un e-zine e centro di informazione di area tedesca per le attività sociali
e politiche
11. NOVAGate - forestazione, veterinaria, agricoltura, cibo e scienze ambientali;
servizio di biblioteche di università Scandinave
12. OMNI - Organising Medical Networked Information
13. Port - risorse selezionate relative alle attività marittime
14. ROUTES - Resources for Open University Teachers and Students
15. SOSIG - The Social Science Information Gatewway
16. Waste - biblioteca virtuale dell'ingegneria dell'acqua46
I servizi da prevedere per la scelta di package potrebbero essere:
Servizi per l'editing dei record:
1. editor Dublin Core o comunque di formato. Per la creazione di metadata esistono sia
software commerciali (TagGen - Dublin Core Edition della Hisoftware47) che compie
automaticamente una serie di operazioni di editing di metadata come di analisi del testo,
sia
strumenti
gratuiti.
Il sito ufficiale del Dublin Core, mantiene la lista dei vari software disponibili in rete
per:
•
creare metadata (Nordic metadata creator, Reggie, DC-dot, etc.)
•
creare e scambiare modelli (Reggie, Mantis..)
•
convertire tra formati (Nordic metadata project e DC-dot
•
estrarre e raccogliere automaticamente i metadata da file html o in MS
Office
•
produrre automaticamente i metadata di pagine html in base all'analisi
del testo
•
altre funzioni 48.
2. strumenti per la creazione automatica di liste di siti di un soggetto o classe (combineharvester, Scorpion v. avanti, Klarity)
3. interfaccia per suggerimenti: si tratta di form attraverso cui l'utente o il
corrispondente autorizzato può segnalare una risorsa all'attenzione del catalogatore o
45
Un quadro della situazione dei principali SBIG con l'analisi di 18 broker secondo MODELS Information
Architecture (MIA)di MODELS (MOving to Distributed Environments for Library Services) è offerta da:
Evaluation report of existing broker models in related projects, Project deliverables di Renardus
46
http://www.ilrt.bris.ac.uk/roads/who/
47
http://www.hisoftware.com/trialware.htm
48
La lista degli strumenti per la creazione automatica dei metadata del DC è mantenuta a:
http://purl.org./dc/tools/index.htm
124
inserire direttamente i dati (nel primo caso si ha semplice segnalazione di un sito
interessante, nel secondo catalogazione partecipata)
4. spelling cheacker: un correttore ortografico
Servizi per il mantenimento della collezione
5. link cheacker. Poiché i siti rimangono mediamente stabili solo per 50 giorni sono
necessari strumenti per controllare periodicamente i link riportando gli errori segnalati
dai server.
6. software per registrare variazioni nei siti monitorati
7. messaggistica per avvertire che un sito è stato inserito nel catalogo, che un link non
funziona, che una catalogazione o segnalazione è stata accettata, etc…
Altri strumenti:
8. per l'indicizzazione e la ricerca (whois++, Z39.50)
9. interfaccia utente (Europagate)
9. robot per l’indicizzazione automatica in base a filtri (combine)
Da segnalare anche il software Mantis creato da OCLC e integrato con numerosi servizi.
Indicizzazione
L'indicizzazione automatica di risorse disciplinari sembra dover svolgere un
ruolo sempre più importante nella costruzione di SBIG.
Dall'attività del progetto DESIRE emerge infatti che l'utente preferisce poter
scorrere una quantità di risorse più ampia del numero relativamente piccolo di risorse di
qualità catalogate nei SBIG, senza per questo incorrere nell'eccesso di risultati restituiti
da servizi di ricerca globali49. Si tende così a combinare la collezione di risorse www
selezionate, catalogate e di attestata qualità, con un indice a soggetto molto più ampio
purché affidabile. Il concetto che sottende questa pratica è quello di "comunità di
interessi" che si costituisce perché ogni servizio mira a soddisfare le esigenze della
propria utenza anche segnalando risorse esterne di analogo argomento e supposta
qualità.
49
Anders Ardö, Traugott Koch, Automatic classification applied to the full-text Internet documents in a robotgenerated subject index, manuscript of a forthcoming publication in: Proceedings of the Online Information 99
Conference, London. : http://www.renardus.org/deliverables/
125
Dal punto di vista pratico tali indici per argomento vengono costruiti 50:
•
indicizzando le risorse elencate in varie liste cooperanti nella selezione di risorse
di un soggetto applicando qualche criterio di qualità (p.e.: Argos51, un indice
generato da un robot che indicizza le pagine dei siti elencati in liste mantenute
da specialisti della materia);
•
indicizzando tutte le pagine di siti organizzativi di una area particolare (ad
esempio i siti accademici selezionati manualmente per GERHARD);
•
indicizzando tutte le risorse elencate in selezionati servizi di qualità, includendo
anche i siti a cui puntano i link suggeriti fino a tre livelli di citazione (All
engineering);
•
le pagine indicizzate con simili criteri possono essere confrontate con un
vocabolario rilevante per il soggetto in questione per identificare i siti che
meglio corrispondono al focus del soggetto (rilevanza). Di tali pagine vengono
seguiti i link e la procedura si ripete.
Esempi di indicizzazioni automatiche nell'ambito di SBIG
Netlab dell'Università di Lund (Svezia) utilizza e mantiene Combine harvester52
(falciatrice) per costruire All Engineering un indice di 250.000 risorse di ingegneria
generato automaticamente e associato ai siti selezionati manualmente di EELS. Il robot
segue i link delle risorse contenute in EELS fino a 3 livelli. Il robot utilizza
lo
Engineering tehsaurus (ed. 1995) di 17458 termini per assegnare automaticamente la
classificazione.
Nell’ambito di OCLC il progetto Scorpion utilizza la DDC per la classificazione
automatica dei documenti.
Il risultato del confronto tra parole delle pagine web e "banca del sapere"
(knowledge base) - costituita dal vocabolario, le notazioni, i descrittori, la struttura e le
relazioni del sistema di classificazione - produce una serie di numeri della DDC (che
possono essere confrontati con le classificazioni assegnate manualmente: infatti i
documenti analizzati sono tratti dal catalogo manuale di NetFirst).
50
The construction of a robot-generated subject index, DESIRE II D3.6a, Working Paper 1, Anders Ardö,
Traugott Koch, Lars Noodén, NetLab, Lund Univ. Library Development Dept. March 1, 1999.
http://www.lub.lu.se/desire/DESIRE36a-WP1.html.
51
http://argos.evansville.edu/about.htm
52
http://www.lub.lu.se/combine/
126
Il progetto GERHARD (German Harvest Automated retrieval and Directory)53 è
stato concepito come una base dati interamente automatica. Esso utilizza Harvest, un
programma di indicizzazione automatica, per costruire un indice web del full text (in
html) delle risorse accademiche tedesche. G. utilizza metodi statistici e di linguistica
computazionale svilupati dallo Institut fuer Semantische Informationsverarbeitung
(ISIV) dell’Università di Osnabrueck per stabilire concordanze tra il testo in lingua
naturale dei documenti e la classificazione prescelta
Per l'analisi semantica dei documenti GERHARD si avvale del vocabolario in
più lingue (tedesco, inglese e francese) disponibile in formato elettronico della UDC
dello ETH di Zurigo, composta da oltre 70.000 voci. Le pagine indicizzate erano
950.000 nel 1998.
53
Bearb. von Wätjen, Hans-Joachim, Diekmann, Bernd, Moller, Gerhard, Carstensen Kai-Uwe, Bericht zum
DFG-Projekt: Gerhard, file Word 97 scaricabile da: http://www.gerhard.de/info/index_de.html
127