Semantica_e_terminol..
Transcript
Semantica_e_terminol..
Università degli Studi di Firenze Coordinamento centrale biblioteche SEMANTICA E TERMINOLOGIA NEI PORTALI Tavola rotonda Firenze, 11-12 Dicembre 2000 2 INDICE Semantica e terminologia nei portali…………………………………………….4 Il seguito di un'iniziativa Giulia Maraviglia………………………………………………………...…….11 Conoscenza, coscienza, comunicazione: tre termini per una proposta operativa Paola Capitani………………………………………………………………….15 Gli scenari della ricerca sul Web Mario Rotta…………………………………………………………………….19 Systems for Collaboration Peter Noerr……………………………………………………………………..27 Un portale europeo per la salute e la sicurezza del lavoro Maria Castriotta…………………………………………………….…...……..33 Alinari Photolibrary: il controllo terminologico e l’organizzazione dell’informazione in rete Rita Scartoni…………………………………………………………..………..41 Biblioteca–Centro di documentazione di Polimoda Paola Corrias…………………………………………………………………..45 Mediaset: il portale sulla comunicazione Maria Eleanora Lucchin……………………………………………….……….51 Unioncamere: il portale sull’economia Elisabetta Bidischini……………………………………………………………55 Internet a supporto della didattica Giovanni Bonaiuti………………………………………………………………57 3 Problemi legati all’uso specifico di Internet Cesare Grasso…………………………………………………………………..69 Principi di psicologia cognitiva nella progettazione delle interfacce Anna Sette………………………………………………………………………73 Il problema delle interfacce Sergio Cappelli…………………………………………………………………77 I portali visti da chi li usa Cristina Bueti…………………………………………………………...………85 La catalogazione delle risorse di Internet Nicola Benvenuti……………………………………………………………….93 Itineroteca Ulisse Gianfranco Bettoni…………………………………………………………....103 APPENDICE………………………………………………………………….107 4 SEMANTICA E TERMINOLOGIA NEI PORTALI Tavola rotonda, Firenze 11-12 Dicembre 2000 Abstract “Semantica e terminologia nei portali”, organizzata dal Coordinamento centrale biblioteche, Università degli Studi di Firenze, in collaborazione con University Press, fa seguito al precedente incontro del 27 gennaio scorso sul tema "Il controllo terminologico delle risorse elettroniche in rete". Il successo ottenuto ha motivato gli organizzatori a rendere permanente l’occasione di discutere, in presenza e a distanza, tra utenti ed esperti di gestione dell’informazione. L’obiettivo di questo incontro è focalizzato sulla tematica dei portali, con l’intento di evidenziare problematiche e opportunità attuali. La discussione analizzerà i seguenti temi: a. metadata e interoperabilità; b. semantica nel web; c. usabilità. Per ciascuno di questi temi appositi gruppi di lavoro predisporranno una sintesi con le proposte conclusive per la gestione dei forum on line. Programma Lunedì 11 Dicembre 2000 10,00 Introduzione alla tavola rotonda (Giulia Maraviglia, Coordinamento centrale biblioteche) 10,10 Presentazione degli atti della Prima Tavola rotonda "Il controllo terminologico delle risorse elettroniche in rete" 27 gennaio 2000 (Paola Capitani, consulente sistemi informativi) 10,20 Gli scenari della ricerca nel web - Mario Rotta (Laboratorio Tecnologie Educative, Università degli Studi di Firenze) 10,40 Peter Noerr, Consulente, USA, Strumenti e standard per l’organizzazione della conoscenza; Software MUSE 5 11,00 Eugenio Picchi (CNR/Istituto di Linguistica Computazionale) Linguistica computazionale, biblioteche digitali e recupero dell'informazione. 11,30 Introduzione ai gruppi di lavoro (Anna Maria Tammaro, University Press) 11,40 Presentazione di studi di caso nei settori: educazione, formazione, beni culturali, cinema, ricerca scientifica, salute e prevenzione, economia, viaggi, informazione giuridica, comunicazione, editoria, moda: Archivio di Stato di Firenze, Archivio di Stato di Prato (Ida Toccafondi), Archivi Alinari, (Rita Scartoni), Archivi della Comunità europea, Associazione Italiana Formatori (Marco Del Medico), Biblioteca Nazionale Centrale di Firenze, CNR/Istituto per la Documentazione Giuridica (Costantino Ciampi), CNR/Istituto di Studi sulla Ricerca e Documentazione Scientifica (Adriana Valente), CNR/Istituto Tecnologie Biomediche (Bruno Felluga, Paolo Plini), CNR/Istituto Tecnologie Didattiche 14,00 Proseguimento degli studi di caso, interventi programmati e comunicazioni ISPESL (Maria Castriotta), Istituto Superiore di Sanità, Istituto Universitario Europeo (Michiel Tegelaars), Mediaset (Elita Lucchin), Ministero Beni Culturali (Maria Pia Mariani, Erilde Terenzoni), Ministero della Sanità (Roberto Cardea), Scala Group (Paolo Lippi), Telecom, Unioncamere Roma (Elisabetta Bidischini), Polimoda (Tiziana Marchi), Itinerarioteca Ulisse (Gianfranco Bettoni) I portali EULER: un portale della matematica – Patrizia Cotoneschi (Coordinamento centrale biblioteche) L’organizzazione delle risorse web all’Università – Nicola Benvenuti (Biblioteca di Architettura, Università degli Studi di Firenze) Il portale come supporto alla formazione a distanza - Giovanni Bonaiuti (Dipartimento di Scienza della formazione, Firenze) I portali commerciali (Sordi e Mortillaro, Superava Dada) 16,30 Dalla parte dell'utente (interventi di studenti universitari) (Cristina Bueti, Cesare Grasso, Anna Sette) 16,40 Dibattito 6 17,00 Organizzazione dei gruppi di lavoro Martedì 12 dicembre 9,00 Divisione nei gruppi di lavoro: a. metadata ed interoperabilità (facilitatore: Patrizia Cotoneschi) b. semantica nel web (facilitatore: Paola Capitani) c. Usabilità dell’interfaccia e strumenti di assistenza (facilitatore: Michiel Tegelaars) 11.20 - Sintesi in plenaria di gruppi di lavoro 12,00 – Conclusione sui contenuti dei gruppi di lavoro (Mario Rotta) 12.30 – Le conclusioni come orientamenti programmatici per il 2001 (Anna Maria Tammaro) 13,30 – Chiusura dei lavori (Giulia Maraviglia) Round table "Semantics, terminology and portals" Florence 11-12 December 2000 Università degli Studi, Florence – Palazzo Pazzi Ammannati - Borgo Albizi, 28 – Florence Italy The round table, organized by the Coordinamento centrale biblioteche, Università degli Studi di Firenze, in cooperation with the University Press, follows the previous one held last January on "Terminological control of elecronic sources in the web". The success obtained with the first round table moved the organizers to maintain this opportunity to discuss, also on distance, among users and experts of information management. The main goal is the theme of portals, focusing on the actual problems and the opportunities. 7 The discussion was on the following themes: a. metadata and interoperability; b. semantic and web; c. interface usabilità and help tools. Each of these was followed by working groups with operative solutions for further practical schedules. Monday 11 December 9.30 Registration of participants 10.00 Introduction tothe round table (Giulia Maraviglia, Coordinamento centrale biblioteche) 10.10 Round table proceedings of 27 January 2000 “Terminological control of web sources”(Paola Capitani, information systems consultant) 10.20 Web researches (Mario Rotta, LaboratorioTecnologie Educative, Università degli Studi di Firenze) 10.40 Tools and standard for the knowledge management, Software Muse, (Peter Noerr, consultant, USA) 11,00 Computational linguistics, digital libraries and information retrieval (Eugenio Picchi, Pisa, Istituto di Linguistica Computazionale) 11,20 A national iniziative for the semantics of Internet sources (Jacopo Di Cocco, CIB, Università di Bologna) 11,40 Metadata and portals: SBN – Claudia Parmegiani (ICCU) 12,00 Introduction to working groups (Annamaria Tammaro, University Press) 12,10 Case studies on the following areas: education, training,cultural heritage, cinema, scientific research, health and prevention, legal information, communication, publishing, fashion, travelling, press: Archivio di Stato di Prato (Diana Toccafondi), Archivi Alinari (Rita Scartoni), CNR/Istituto per la Documentazione Giuridica (Costantino Ciampi), ISPESL (Maria Castriotta), Istituto Universitario Europeo (Michiel Tegelaars), Mediaset (Elita Lucchin), Ministero Beni Culturali (Erilde Terenzoni) 13,30 Lunch 14,30 Ent-Art Polimoda (Paola Corrias), Itinerarioteca Ulisse (Gianfranco Bettoni 16,00 The portals EULER: a portal on mathematics (Patrizia Cotoneschi, Coordinamento centrale biblioteche) Web sources organization at the University (Nicola Benvenuti, Biblioteca di Architettura, Università degli Studi di Firenze) 8 The portal as support to the training (Giovanni Bonaiuti, (Laboratorio Tecnologie dell’Educazione, Facoltà di Scienze della Formazione, Firenze) 16,40 The user point of view (university’ students) (Cristina Bueti, Cesare Grasso, Anna Sette) 17,10 Debate 17,30 Working groups setting Tuesday 12 December 9,00 Working groups: a. metadata and interoperability (facilitator: Patrizia Cotoneschi) b. web semantic (facilitator: Paola Capitani) c. interface usabilità and help tools (facilitator: Michiel Tegelaars) 11,00 Coffee break 11.20 Working groups setting 12,00 Conclusions about the three working groups contents (Mario Rotta) 12.30 Conclusions and programs for 2001 (Anna Maria Tammaro) 13,30 Final conclusion (Giulia Maraviglia) url http://www.unifi.it/universita/biblioteche/eventi/11dic.htm The proceedings will be published by the University Press of Florence, either on paper or on line http://casalini.digital.com For further information please contact: [email protected], [email protected] Secretery: University Press Palazzo Pazzi Ammannati Borgo Albizi,28 50122 Firenze tel. 0039 055 2347658 [email protected] 9 10 IL SEGUITO DI UN'INIZIATIVA Giulia Maraviglia1 Abstract I motivi dell’inziativa e le riflessioni sulle complesse ragioni che sono alla base di questo incontro, destinato a rimanere costante come invito alla riflessione di addetti ai lavori e di utenti sui temi portanti della gestione e soprattutto del recupero delle informazioni disponibili e difficilmente, spesso, recuperabili. La necessità di diffondete esperienze e competenze sono alla base di questo incontro che vede riuniti bibliotecari, documentaristi, produttori di fonti di informazione, tutti coinvolti in uno stesso problema: orientarsi nella rete e utilizzare le risorse. Parole chiave Portali, Orientamento dell’utenza, Recupero dell’informazione, Terminologia multilingue L'iniziativa segue a distanza di un anno, la tavola rotonda dedicata al controllo terminologico delle risorse elettroniche in rete. Un anno fa poco si parlava di portali. Un solo anno di distanza segna un’evoluzione incredibile in questo settore di sviluppo. Poco tempo è sufficiente a segnare sviluppi considerevoli che presuppongono la massima attenzione da parte di noi tutti che operiamo in questo ambiente. Un appuntamento annuale è il tempo massimo che possiamo permetterci di far intercorrere per incontri come questo. Altrimenti rischiamo di non riuscire a legare un discorso all'altro tanta è la strada che percorre la rete, la tecnologia ad essa legata, la capacità umana di organizzare nuovi strumenti per l'archiviazione, la ricerca, il recupero dell'informazione. Abbiamo scelto la sede di Borgo Albizi, nuova anche per noi, per legare maggiormente il tema della tavola rotonda al settore dell'editoria elettronica che, all'interno dell'ateneo fiorentino, sta avviando una sua presenza con l'iniziativa di Firenze University Press, che in questa sede ha iniziato, nel corso di quest'anno, la propria attività. 11 Il successo della precedente tavola rotonda ci ha convinto a proseguire sulla strada intrapresa, con la proposta di rendere direi permanente l'occasione di discutere temi e problemi di sempre maggiore attualità e direi complessità, sia per chi come noi bibliotecari deve fornire l'informazione giusta, deve suggerire all'utente il percorso giusto per reperire l'informazione, sia per chi questa informazione la deve produrre e poi organizzare e rendere accessibile. I ruoli si intersecano sempre di più e le occasioni di scambio e arricchimento della conoscenza che ci consentono occasioni come questa tavola rotonda con i successivi aggiornamenti futuri, come speriamo possano esserci, sono preziose per proseguire poi anche a distanza la discussione. La tavola rotonda di queste due giornate sarà dedicata a 3 temi: 1. Metadata e interoperabilità 2. Semantica nel web 3. Usabilità dell'interfaccia e strumenti di assistenza A ciascuno di questi temi si dedicherà un gruppo di lavoro che predisporrà una sintesi che ci fornirà la linea guida per lo sviluppo futuro, per la programmazione futura. Nel corso della mattinata, prima di passare alla presentazione dei gruppi di lavoro e degli studi di caso in settori specifici ascolteremo i contributi di: • Mario Rotta che introdurrà gli scenari della ricerca nel web; • Peter Noerr che presenterà il software Muse, uno strumento di estremo interesse per tutti gli operatori del settore; • Eugenio Picchi che ci introdurrà nel mondo della linguistica computazionale, in un tema cruciale come quello della biblioteca digitale e del recupero dell'informazione, tema in cui ormai ci stiamo dibattendo alla ricerca delle soluzioni migliori sapendo di non avere certezze. • Iacopo. Di Cocco con l'esposizione dell'iniziativa nazionale per la semantica delle risorse Internet così vicina e così importante per la discussione in questa nostra iniziativa; • e l'iniziativa dell'Iccu, il portale SBN, del Sistema bibliotecario nazionale a cui tutti noi guardiamo come un punto di partenza ma anche di arrivo per tutte le nostre biblioteche, con l'intervento di Claudia Parmeggiani. 1 Responsabile del Servizio Bibliotecario d’Ateneo, Coordinamento centrale biblioteche dell’Università di Firenze, Piazza San Marco, 4- 50122 Firenze – tel. 055-2757688 – www.unifi.it, e-mail [email protected] 12 Una mattinata particolarmente intensa e interessante che nel pomeriggio proseguirà con la presentazione di casi studio per poi entrare nello specifico del tema: i portali. Il Sistema bibliotecario dell'Università di Firenze presenterà EULER, un portale della matematica, frutto di anni di lavoro e collaborazione a livello europeo grazie ad un progetto specifico finanziato dalla Comunità europea i cui esiti attualmente sono di estremo interesse sia per la metodologia seguita sia per il prodotto ottenuto che, in questa occasione, saremo lieti di presentarvi. E’ sembrato utile, e abbiamo anche creduto di interpretare le difficoltà che saranno proprie anche di altre istituzioni come la nostra, presentare il punto della situazione all'interno del nostro SBA sulla organizzazione delle risorse web per gli utenti delle nostre biblioteche sempre più alla ricerca di risposte esaurienti dalla rete. Ancora di estremo interesse in ambito universitario ma anche credo al di fuori di esso è capire quanto il portale possa essere un valido supporto per l'attività formativa. E infine un panorama, un contributo su quello che nella rete sta causando una vera e propria rivoluzione: il commercio elettronico, il portale come strumento di accesso, che identifica l'insieme dei servizi disponibili nell'ambito di uno stesso sito, che si propone come punto di snodo, di accesso ad altri siti della Rete, dedicato ad una disciplina specifica come punto di riferimento per una comunità di utenti con interessi specifici in quel settore, il portale come un generico contenitore, il portale come sintesi di portali e così via fino alla necessità di fare ordine, di semplificare un mondo sempre più complesso. Certo se è vero come è vero che l'informazione più importante è quella che si trova, assume molto valore la strutturazione del documento immesso in rete oltre che la necessità che esso venga in qualche modo censito, segnalato da una organizzazione commerciale per ciò che interessa quel settore, culturale per ciò che interessa biblioteche ecc. L'uso di una terminologia condivisa, comune, la condivisione di una semantica multilingue per la rete saranno dunque strumenti strategici per il successo, per un alto fattore di reperibilità dell'informazione e dei documenti. Entriamo quindi nello specifico dei temi che verranno discussi ed esplosi in questa occasione in cui sentiremo anche il parere dell'utente, nel nostro caso saranno interventi di studenti universitari. Da essi e anche da altre categorie di utenti dovremo 13 sempre più spesso avere un feedback per capire quanto le nostre strategie operative siano in realtà funzionali. Grazie 14 CONOSCENZA, COSCIENZA, COMUNICAZIONE: TRE TERMINI PER UNA PROPOSTA OPERATIVA Paola Capitani2 Abstract I tre termini del titolo individuano sinteticamente gli aspetti che interagiscono nella riuscita del percorso comunicativo/informativo. E’ infatti provato che la conoscenza, stimolata dalla consapevolezza, rimane sul soggetto a meno che non intervenga la comunicazione che produce il trasferimento di dati/informazioni su soggetti esterni, realizzando quel processo che interessa l’ambito di interesse di questa tavola rotonda. A parte l’indispensabile presenza di questi tre fattori, entra in gioco il sistema di rete senza il quale non si realizzano ricerche, lavori, cooperazioni in un’ottica di condivisione e di reciproco rispetto. I tre gruppi di lavoro, rispettivamente sui metadata, sulla semantica e sull’interfaccia, organizzati nell’ambito della tavola rotonda, propongono tematiche di particolare interesse, per le quali saranno organizzati gruppi operanti a distanza, per poter operare celermente, razionalizzando risorse e tempi. Parole chiave Conoscenza, Consapevolezza, Comunicazione, Informazione, Reti The three terms which are here considered synthetically identify the aspects that will be considered and that interact in the success of the communicative course. It has in fact been proven that knowledge, stimulated by consciousness, remains in the individual unless communication intervenes to produce the transfer of data to exterior individuals thus achieving that process which concerns the sphere of interest of this round table. Separately from the indispensable presence of these three factors, the networking system enters into play without which researches, pieces of work, co-operations cannot be realized in a viewpoint of sharing and reciprocal respect. The three workgroups which were organized for this round table, respectively on metadata, semantics, and interface, have proposed themes of particular interest, from 2 Consulente sistemi informativi e formatrice per biblioteche e centri di documentazione. [email protected] 15 which distance work groups will be organized, in order to be able to operate more rapidly, thus rationalizing resources and time. Key words Knowledge, Consciousness, Communication, Information, Networks Sempre più ci si sente costretti tra due stridenti forze: tecnologia e realtà. Una è veloce, sintetica, moderna, irruenta, pratica; l’altra è lenta, burocratica, ottusa, con tempi dilatati, granitica. Ho recentemente sentito un intervento di Stefano Mazzonis, responsabile relazioni esterne della Federcomin, durante il convegno “Net economy & skill shortage. Nuove professionalità e nuove modalità formative”3, pronunciare la frase “il tempo medio di obsolescenza della tecnologia è di circa 6 mesi”. Se si pensa ai tempi “tecnici” necessari alla pubblica istruzione (o anche a diversi contesti imprenditoriali) per prendere decisioni e rendere operativi i progetti ci si sente subito precipitare verso il baratro. Da tempo gira lo slogan che oggi “non è più il pesce grosso che mangia il pesce piccolo, ma quello veloce che mangia il più lento”, con le conseguenze che questa riflessione comporta. Se poi si considera che viviamo nella società dell’informazione e della comunicazione occorre riportare l’attenzione su tre parametri fondamentali senza i quali non sono possibili attività, servizi e progetti: coscienza, conoscenza, comunicazione. Coscienza o consciousness, è basilare per muoversi con competenza e serietà alla ricerca dei possibili percorsi già presenti e disponibili, ammesso che usiamo la conoscenza o knowledgement, della quale pare che solo ora ci siamo accorti. Forse il termine inglese fa più tendenza di quello antico che avremmo dovuto usare da tempi lontani Ed ecco che finalmente si usano i termini gestione della conoscenza, diffusione della conoscenza, condivisione della conoscenza, che, grazie anche alle nuove tecnologie e a Internet, è presente in quantità inimmaginabili, ma, anche in questo caso, è necessario riuscire a conoscerla, a dominarla e soprattutto a diffonderla. Da queste premesse nasce l’iniziativa di queste tavole rotonde, organizzate e coordinate da University Press dell’Università di Firenze. La prima, del 27 gennaio scorso sul tema “Il controllo terminologico delle risorse elettroniche in rete” di cui sono disponibili gli atti al sito www.unifi.it/biblioteche, che ha iniziato a mettere insieme risorse operanti nello stesso settore, nella stessa area, sulle stesse tematiche ma 3 Organizzato dalla Scuola Superiore Reiss Romoli all’Aquila nei giorni 1-2 dicembre 2000. 16 non ancora cooperanti tra di loro. Se la conoscenza non è condivisa è inutile utilizzare Internet, se la rete non è prima concepita come sistema di cooperazione è inutile accendere il PC, se non si utilizzano le stesse metodologie e non si hanno gli stessi obiettivi non si costruirà mai un sistema. L’organizzazione di questa seconda tavola rotonda “Semantica e terminologia nei portali” procede nell’analisi del fenomeno che vede coinvolti la terminologia, le metodologia e l’utenza. Il metodo è sempre lo stesso: coinvolgere gli attori che si muovono nello scenario considerato, quindi i docenti, gli esperti, i ricercatori, gli studenti universitari, gli editori. Infatti il programma prevede, al termine delle relazioni che sintetizzano lo stato dell’arte nei rispettivi ambiti tematici, la costituzione di tre gruppi di lavoro, rispettivamente su a. metadata e interoperabilità, b. semantica nel web, c. usabilità dell’interfaccia e strumenti di assistenza. I gruppi di lavoro dovrebbero continuare a svolgere un lavoro di analisi e studio, operando a distanza e mantenendo contatti di cooperazione e collaborazione tra loro, creando sinergie anche con realtà straniere. Non è un caso che nello stesso periodo nel quale è stata organizzata la tavola rotonda anche a Bruxelles e a Parigi si sono svolti seminari e convegni sullo stesso tema. E’ evidente che il tema è di interesse e per utilizzare tutte le risorse disponili ed operare in un’ottica di rete occorre reperire tutti i soggetti coinvolti e costruire una vera ed efficace rete di relazioni e di scambi, per procedere non solo velocemente, ma razionalizzando competenze e conoscenze, utilizzando il principio su cui si basa la condivisione e la gestione della conoscenza, di cui tanto si parla in teoria. Per fare questo entro in gioco la comunicazione, fattore essenziale senza il quale ogni conoscenza e ogni consapevolezza rimangono sul soggetto e non utilizzano alcuna azione transitiva. Ma qui agiscono altre variabili che presuppongono la percezione del gruppo, la percezione dell’obiettivo condiviso, il rispetto dei ruoli e delle dinamiche relazionali con gli annessi e connessi. Basta vedere l’uso ancora primordiale che viene fatto della posta elettronica per la quale non sono sempre rispettate le regole del gioco previste da qualsiasi netiquette. E la posta elettronica è uno degli strumenti più efficaci e potenti, oltre che facili da usare e da diffondere: ma occorre conoscere le metodologie e usare le risorse con professionalità e competenza, come in tutte le attività. Se il gruppo non è motivato, non è coordinato, non vede l’utilità degli obiettivi qualsiasi sforzo è completamente nullo. Si tratta anche in questo caso di un lavoro di “formazione e di orientamento”: basta infatti vedere come si opera diversamente in contesti 17 internazionali, nei quali la posta elettronica è strumento ormai consolidato, il gruppo è un metodo datato e il rispetto degli altri un gene quasi naturale. Non resta che procedere per obiettivi e stabilire momenti di verifica e controllo per apportare modifiche e integrazioni, convinti che solo operando con queste procedure oggi è possibile muoversi nella confusione dilagante della sovrainformazione, per riappropriarsi di quella conoscenza che ha origini remote e che presuppone metodo e organizzazione. Solo se la comunicazione riuscirà nel suo intento, la consapevolezza avrà avuto ragione della sua essenza. Già da ora si pensa al prossimo incontro, che sarà organizzato nel mese di dicembre 2001, sul tema “Web semantico: i problemi della terminologia nella ricerca scientifica”. 18 GLI SCENARI DELLA RICERCA SUL WEB Mario Rotta4 Abstract Percorsi di ricerca e tipologia dei naviganti in rete: queste alcune delle riflessioni contenute nel testo che affronta le tematiche dalla ricerca sul web. Dall’accesso all’informazione alla costruzione di informazioni, dalla comunicazione alla collaborazione che sono forse gli aspetti più significativi dei questo fenomeno che sottolinea la ricerca e che accompagna il lavoro quotidiano. Interessanti le riflessioni sui ruoli e le competenze degli “animatori del web”: sempre meno "colui che insegna" o "colui che eroga conoscenze", sempre più tutor, facilitatore, mediatore, moderatore, animatore di rete, una figura in grado di supportare attività che si svolgono attraverso canali autonomi, attivando azioni/reazioni tra soggetti attivi, presenti o "remoti". Parole chiave Reti, Tipologia dei ricercatori, Criteri di ricerca Itineraries of research and typologies of web researchers: these are some of the considerations contained in this work which discusses the topic of research on the Web. From the access to information to the construction of information, to communication and collaboration which are perhaps the most significant aspects of this phenomenon underlining research and accompanying daily work. The reflections on the roles and skills of "web animators", who are always less "the person who teaches" or "the person who dispenses knowledge", and are ever more tutors, facilitators, mediators, moderators, web animators, a figure able to support activities which are carried out through autonomous channels, activating actions/reactions between active individuals, whether face-to-face or "remote". Key words Networks, Researcher typology, Search criteria 19 Dal punto di vista didattico e in generale in Internet si intravedono almeno quattro dimensioni significative. Una prima dimensione, la più evidente e spesso la sola ad essere percepita, è l’accesso all’informazione. Internet implica la possibilità di avere "a portata di mouse" la più grande biblioteca mai esistita, un archivio sterminato, peraltro in continuo accrescimento. Una seconda dimensione è la possibilità di costruire informazioni: in Internet non siamo solo lettori, ma anche autori, non solo perché noi stessi determiniamo i percorsi di lettura delle informazioni che vengono erogate attraverso Internet, ma anche perché è estremamente facile - e quindi siamo stimolati a farlo - produrre delle informazioni e depositarle in rete, in modo da condividerle con altri. Costruire informazione significa inoltre condividere, quindi comunicare: Internet è anche questo, un modo nuovo e potente di comunicare, e questa dimensione comunicativa interpersonale va capita e valorizzata, poiché è uno degli aspetti più interessanti del fenomeno. Comunicare e condividere, produrre informazione e accedere a informazioni distribuite, configurano complessivamente una quarta dimensione del fenomeno: Internet è un modo di collaborare, una piattaforma attraverso cui si possono risolvere insieme dei problemi. La dimensione comunicativa e quella collaborativa sono sicuramente gli aspetti più interessanti del fenomeno Internet, quelli su cui conviene soffermarsi più attentamente: in queste dimensioni la rete in quanto tecnologia presuppone in realtà una rete di persone. Configura quindi nuovi modi di pensare e nuove dinamiche sociali. La rete è l'insieme delle persone che comunicano tra loro, che dialogano, che instaurano delle relazioni, che si aiutano reciprocamente a crescere: l'orizzonte appare illimitato, entusiasmante. In realtà, in questo potenziale si nascondo dei rischi: nella comunicazione in rete il rischio principale è l’equivoco, poiché si tratta di una comunicazione mediata ed è molto facile che si creino situazioni conflittuali, che andranno, in qualche modo, pilotate, particolarmente in un contesto didattico. Se la competenza dei docenti, dal punto di vista dell’accesso e della costruzione dell'informazione, è legata alla capacità di pensare criticamente, da questo punto di vista, quando si parla di dimensione comunicativa, il ruolo del docente si dovrà ulteriormente riconfigurare: il docente dovrà imparare quindi a controllare i conflitti che la comunicazione mediata finisce col generare, ma dovrà anche cercare di sviluppare un 4 Docente di Informatica presso la facoltà di Scienze della Formazione dell'Università di Firenze e collabora con il Laboratorio di Tecnologie dell'Educazione della stessa Università. e-mail [email protected] oppure [email protected] 20 atteggiamento nuovo, sempre meno "colui che insegna" o "colui che eroga conoscenze", sempre più tutor, facilitatore, mediatore, moderatore, animatore di rete, una figura in grado di supportare attività che si svolgono attraverso canali autonomi, attivando azioni/reazioni tra soggetti attivi, presenti o "remoti". E dal punto di vista di chi vede in Internet prima di tutto un insieme di risorse? Come si potrebbe definire la rete in termini meno rigidi di quanto non si faccia solitamente? Personalmente, ritengo che si possa essere d’accordo con quanto affermano Ibrahim e Franklin, ripresi poi da altri , circa le due direzioni verso cui Internet, considerata ovviamente come ambiente di apprendimento, si sta evolvendo: • da un lato la rete si può considerare come un closed corpus, ovvero come insieme di informazioni pre/strutturate rivolte a gruppi ben definiti di utenti. • dall’altro la rete può essere percepita come un open corpus, una vera e propria esperienza, uno strumento per costruire attività educative a distanza, dialogare o condividere situazioni formative. Nel primo caso l’aspetto su cui si dovrà indagare sarà quello legato alle strategie di navigazione e di ricerca: usare Internet come insieme strutturato di fonti implica infatti, prima di tutto, la capacità di sapersi destreggiare tra le infinite sollecitazioni offerte dalla struttura ipermediale delle informazioni distribuite attraverso la rete. Internet, da questo punto di vista, può rivelarsi un ottimo sussidio didattico, ma a patto che si sappia che cosa cercare, come trovarlo, come utilizzarlo, a volte semplicemente da dove cominciare, superando sia le inevitabili delusioni - il cosiddetto “effetto silenzio”- che le facili illusioni, il cosiddetto “effetto rumore”. Nel secondo caso, il problema è più complesso: perché l’uso di Internet possa configurarsi come vera e propria condivisione di esperienze, infatti, non è solo necessario che gli utenti sappiano navigare, ma occorre che si abituino da un lato ad elaborare direttamente le informazioni, dall’altro a dialogare tra loro utilizzando tutti la gamma degli strumenti di cui si può disporre in rete, ben al di là del browser e della posta elettronica. Ciò implica dimestichezza con le logiche di programmazione e con la pratica del design, con le tecniche della comunicazione, con le tecniche di interazione e con i linguaggi e le logiche della rete, un retroterra di conoscenze che spesso docenti e studenti non possiedono, tanto che per molti di loro risulta decisamente più difficile sfruttare la rete in questo senso. Si è osservato che la prima tipologia di approccio produce forme relativamente tradizionali di didattica a distanza e sfrutta soprattutto le potenzialità del World Wide Web a livello di accesso remoto e navigazione ipertestuale, mentre la 21 seconda è più orientata verso forme di apprendimento aperte e flessibili, di ispirazione costruttivistica, basate sulla collaborazione e sul continuo riuso delle informazioni, connotando conseguentemente Internet come ambiente di condivisione. Per riassumere, tra le tante descrizioni possibili, ha senso affermare che Internet: • è un insieme di risorse, fonti e documenti in continua evoluzione • è un insieme di metarisorse in continuo aggiornamento • è uno spazio in cui le conoscenze si formano • è un insieme di esperienze continuamente in progress • è un ambiente per comunicare in tempo reale • è un ambiente per collaborare con interlocutori remoti • è un modo per condividere conoscenze ed esperienze C’è una seconda considerazione da fare. Una comprensione più ampia del fenomeno Internet non può essere affidata solo ad una più larga definizione di campo. Non è sufficiente. Internet è un ambiente con cui si interagisce: il rapporto tra utente e informazioni assume quindi un particolare valore. Al Georgia Institute of Technology di Atlanta due studiosi, Catledge e Pitkow, hanno studiato ed analizzato il comportamento di un gruppo di utenti durante delle sessioni di lavoro in Internet per individuare le strategie di navigazione adottate. Si è notato che il metodo di interazione più usato è di gran lunga il link ipertestuale suggerito dalla pagina corrente, seguito nell’ordine dal back, dalla richiesta di un indirizzo URL specifico e dall’uso dei bookmarks (segnalibri) già memorizzati. Ne consegue, secondo gli autori dello studio, che “gli utenti normalmente non conoscono l’indirizzo dei documenti a priori, e si affidano ad un approccio euristico per navigare verso un documento specifico”. Si è osservato inoltre che per arrivare all’informazione realmente desiderata spesso sono necessari non meno di tre passaggi, partendo da una home page strutturata, e altrettanti per tornare indietro: ciò dovrebbe far riflettere chi si occupa di interface design, poiché in questo contesto di relativa difficoltà di movimento l’utente non si sente del tutto soddisfatto e tende a non approfondire una strategia di esplorazione che invece potrebbe e dovrebbe portarlo molto più lontano. Complessivamente, dagli studi del Georgia Tech emergono tre distinte tipologie di “navigatori”: • il general purpose browser, che non ha interessi bene delimitati ed esplora le risorse di rete cercando di affrontare argomenti generali, da approfondire 22 successivamente restringendo il campo e gli obiettivi. Usa soprattutto i portali come base per le sue esplorazioni, delega cioè ad altri il compito di selezionare le risorse. Si può dire che impara perché si informa. • il searcher, che sa già cosa vuole ottenere e utilizza prevalentemente strumenti orientati alla ricerca veloce delle informazioni. Usa soprattutto i motori di ricerca e questo significa che sa impostare una query, ovvero che conosce lessico ed elementi di ciò che sta cercando. Si può dire che impara qualcosa perché approfondisce qualcosa che sa già. • il serendip, che naviga spesso senza una meta precisa ma spinto da una curiosità, alla continua ricerca di qualche “tesoro” nascosto tra le tante isole di quello sterminato arcipelago che è la rete. Procede scambiando indirizzi con amici, spesso virtuali, condividendo i "tesori nascosti" nella rete, mettendo insieme un indirizzario molto personale. Si può affermare che impara perché scopre, ovvero che ha percepito uno dei significati intrinseci della rete. Va notato che ci sono assonanze precise tra questa classificazione e un'analoga classificazione dell'atteggiamento del pubblico nel contesto del museo (che è un insieme destrutturato di informazioni, metaforicamente associabile a Internet). Perin dimostra ad esempio come nei musei siano riconoscibili: • gli streakers, letteralmente i “corridori”, ovvero coloro che visitano i musei velocemente senza soffermarsi in particolare su singoli momenti o sale e leggono malvolentieri le didascalie; • gli strollers, letteralmente i “vagabondi”, che dedicano più tempo alla visita e fondano la loro esperienza sulla curiosità e sull'emozione della scoperta, senza necessariamente avere un chiaro obiettivo da raggiungere; • i readers, i “lettori”, ovvero il pubblico che dedica molto tempo alla visita e la considera come un momento essenziale dal punto di vista informativo o formativo. La differenza tra le due classificazioni è nell'interpretazione che se ne può dare. Mentre i museologi presuppongono una crescita di consapevolezza nel passaggio da streaker a stroller a reader, i tre modi affini di interagire con la rete non sono classificabili lungo una scala di valori: l’uno non è migliore dell’altro. Certamente, l’atteggiamento del searcher ricorda da vicino quello dello studioso tradizionale mentre quello del serendip è l’atteggiamento tipico dell’adolescente che ama i videogames e 23 pratica lo zapping televisivo. Tuttavia, ognuno di noi può essere indifferentemente e in qualsiasi momento un browser, un searcher o un serendip. Dipende da una serie molto complessa di fattori, dall’obiettivo che intendiamo raggiungere, ad esempio. Non dobbiamo tuttavia dimenticare che uno degli aspetti che rendono il World Wide Web particolarmente interessante sul piano didattico è quello motivazionale. Sembra che gli studenti siano particolarmente stimolati, e conseguentemente più ricettivi, quando il loro approccio a Internet si fonda sulla curiosità e quando viene privilegiata la tecnica dell’esplorazione. Uno studioso canadese (Perron, 1995), ha voluto sondare precocemente le potenzialità della rete in tal senso organizzando un corso di informatica in gran parte impostato sull’uso di Internet e della posta elettronica. Osservando le reazioni degli studenti e considerando le loro aspettative, ha individuato due comportamenti prevalenti: i learners, ovvero coloro che avrebbero desiderato prima di tutto acquisire delle nozioni, e gli adventurers, ovvero coloro che prima di tutto erano eccitati dall’idea di sperimentare una nuova forma di didattica tecnologicamente avanzata e si lasciavano in qualche modo trascinare dal mezzo. Le due tipologie ricordano molto gli atteggiamenti del searcher e del serendip. Contrariamente alle aspettative, il corso si è risolto in un parziale insuccesso per i primi e in un completo successo per i secondi. Per quanto non sia facile definire esattamente i limiti e le potenzialità della rete come ambiente educativo e collaborativo (Campbell e altri, 1995), i risultati di questi studi potrebbero significare che le potenzialità maggiori della rete consistono, più che nelle risorse in quanto tali, nel modo in cui le risorse vengono esplorate, ovvero nella costruzione di percorsi e attraversamenti. Alla luce di questa serie di riflessioni, la ricerca e la selezione delle informazioni su Internet potrebbe essere definita come un percorso che da un qualsiasi punto di partenza porta ad un obiettivo che a sua volta può costituire un nuovo punto di partenza. Non si tratta di un obiettivo generico, ma di un insieme preciso di coordinate a cui più esploratori possono convergere e per raggiungere il quale si toccano obiettivi parziali, che spesso suggeriscono il bisogno di una sosta o attivano una deviazione dal percorso. Possiamo provare a paragonare una sessione di navigazione su Internet ad una sorta di viaggio interstellare: in ogni momento è come se ci trovassimo in un punto e dovessimo raggiungere un far point: le rotte possibili sono molte, poiché lo spazio virtuale in cui ci stiamo muovendo non può essere descritto e compreso usando solo la x e la y della logica cartesiana. Entrano continuamente in gioco altre dimensioni: se il far point è una galassia, o meglio, una nebulosa inesplorata di risorse su un dato argomento, allora 24 nemmeno il punto di partenza potrà essere dato per scontato. La sua scelta appare infatti legata alle tecniche di navigazione che ciascun utente preferisce adottare e alle strategie di ricerca che egli mette in atto. Si può concludere evidenziando schematicamente una strategia minima per la buona riuscita di una ricerca in rete. Quando si effettua una ricerca tradizionale, il primo passo consiste solitamente nel definirne il campo con una certa esattezza: cercare è più semplice se si circoscrive ciò che si sta cercando. In un ambiente come Internet non è detto che lo stesso approccio risulti efficace. Bisogna imparare a conoscere la natura e i limiti della rete per poter effettuare ricerche sensate, per la stessa ragione per cui, per trovare un documento in un archivio, bisogna essere capaci di “pensare” l’archivio. Quelle che seguono sono alcune indicazioni utili essenziali per procedere ad una ricerca in rete in modo proficuo ed efficace, senza dimenticare al contempo che la rete presuppone un approccio esplorativo, un atteggiamento aperto. 1. Determinare accuratamente l’oggetto della ricerca e domandarsi sempre qual è lo scopo della ricerca e che cosa si vuole realmente ottenere. 2. Riflettere attentamente sull’oggetto della ricerca e cercare di isolare i concetti più importanti pertinenti all’argomento. 3. Identificare le parole/chiave più adatte a descrivere i concetti fondamentali pertinenti all’oggetto della ricerca. 4. Considerare i sinonimi e le varianti delle parole/chiave individuate. 5. Impostare una strategia di ricerca e stabilire un punto di partenza della processo di ricerca. 6. Non dimenticare mai che Internet non incrementa necessariamente l’abilità di chi effettua una ricerca e che gli schemi di classificazione e indicizzazione tradizionalmente applicati nell’organizzazione delle informazioni non sono applicabili a Internet, in quanto ambiente destrutturato. 7. Evitare di considerare Internet come unica fonte di una qualsiasi ricerca e non dimenticare che molte informazioni e risorse sono ancora distribuite attraverso altri mezzi. 8. Cercare di valutare l’utilità di una qualsiasi risorsa Internet domandandosi almeno se e quanto è autorevole chi ha prodotto l’informazione, qual è l’obiettivo del progetto, a chi è indirizzato e quanto può essere considerato affidabile nel tempo. 25 26 SYSTEMS FOR COLLABORATION Peter Noerr Abstract This presentation outlines some of the requirements necessary to allow Internet based systems to communicate and interact. It considers systems whose primary purpose is to perform transactions on behalf of a human user, where the totality of the user transaction requires access to more than one source system. It is concerned primarily with the architecture where a single system operates ‘on behalf’ ofthe user and interoperates with the source systems which have the information desired by the user, or which perform the transactions required by the user. The Information Universe This discussion centers round the use of an information retrieval system which acts as a surrogate for the end user in the Information space of the Internet. In the Internet there are a multitude of Information Sources, there are the networks which connect the user to the sources and there is the user himself. For the purposes of this discussion we will limit ourselves to the interaction of a single user with the networks and the sources of the Internet. However, we should bear in mind that this interaction is being repeated many times for many users - all interacting with the same or different surrogate systems, or directly with the sources. Direct interaction between the user and a number of sources is the current common model. It exists because it is the easiest situation to set up technically. The user who wishes to search for information on a particular topic must serially submit the same search to a number of sources previously identified by the user. In addition to the tedium of this approach, it is necessary for the user to operate through a number of different interfaces to search the different sources, and then manually combine and compare the results. Within this universe there are additional components which hinder the user in this interoperability exercise: diverse communications protocols, differing content and treatment, differing functionality of the sources, and the personalization of individual source systems. 27 Protocols and Standards The Internet and the World Wide Web have raised user expectations of a seamlessly connected world. The very existence of the Internet is the premier example of interconnection. However it is achieved by a myriad of standards and layer upon layer of software and systems which ta1k to each other through those standards. The Internet is based on a loosely connected system where any two points can be connected in a number of ways. If some fail, then others take over. This is the beauty of the Internet. It is something that only works because of standards. However this very proliferation of standards is a problem. There are often a number of 'standard' ways of achieving the same effect. Of interest here are the standards for information retrieval. A user's client can transmit the user's query to a target server in one of a number of protocols or languages. It could use Z39.50, or XML query language, or as a http string. All of these are standards and their use depends on the interface (protocol) the server supports. This is the problem - designers can decide on any of these, or other, standards - and the user has to know which one to use and then how to use it. Even once the query has been posed the problem is not over. The results may be returned in one of a number of record formats. Thus bibliographic records may arrive in MARC, or XML, or Dublin Core, or a private format. So the user's client has to be able to recognize these and other formats so that the record can be presented in a sensible fashion to the user. Interoperability There must be a way to overcome these problems. In fact there are two possible solutions. The first is a series of standard services and methods to describe the servers to the clients - in effect another layer of standards. The second is to admit the problem will always be with us and use translators. Many projects and initiatives are underway to promote interoperability by taking away the choices within the standards and to describe in a standard way the functionality of systems. Some of the standards even have such capabilities within them The Z39.50 standard has an 'Explain' function which enables a client to ask a server what it can do and how it does it. In theory this is a perfect solution. In practice this is a function which is hardly ever implemented. There is little benefit to the source 28 organization in setting it up, and they are the ones doing all the work. If it is not implemented then it cannot be relied on and the system fails. Currently there is much work underway in creating Profiles for Z39.50 servers. These are a shopping list of the possible Z39.50 functions to which the servers must comply if they wish to claim 'Profi1e compliance'. The most famous of these is the Bath Profile. Then there is the Z- Texas Profile and the emerging National Profi1e in the US. And there is the problem - there are a number of standard sets of features so we are back where we started. This is only in the area of the retrieval protocols, similar 'initiatives' are underway in the functiona1ity of OPACs, the description of material, subject headings, and so on. Many of these have been underway for quite some time. The problem is that as soon as some body decides on a standard set of something, some other body or organization decides that it needs one of the things left out in the compromises necessary to create the standard in the first place. So that organization 'extends' the standard, and so does someone else... The second option is to allow that human nature will always look for 'improvements', and work with this as a fact of 1ife. This leads to the conclusion that there needs to be a class of services and systems whose purpose is to translate the protocols and formats. The translators contain their own dictionaries and methods and act as black boxes into which a query in one protocol is fed and the same query in another protocol comes out. The analogy with natural language translation is very close. Such systems would contain other functions, but their prime functionality is that of converting messages and data between systems. A system for collaboration We have been working for a number of years on a system which assumes the second scenario above, namely that adherence to standards will not be universal any time soon. The system (called Muse) is designed to translate transaction instructions (for searching the search command and the query string) from the input of the user into the protocol and language of each of a number of search server systems. It then re-formats the returned results 1ists and records so they may be manipulated and present in a consistent display to the user. 29 It is, in fact, a system which makes heavy use of standards. But not one of them. It uses as many standards as it can to give it the widest possible scope. It is constructed to accommodate effectively even on-off private protocols and formats. Muse acts as an intermediary between the user's system (usua11y a Web Browser and Web Server) and the different search systems the user wishes to search. Thus it will take the text the user fills in to a Web page and re-format it into the Z39.50 protocol to send the query to a library catalogue, into http to send it to a Web Search engine, into SQL to send it to a Relational Database Management System. On getting results back the records are converted (from MARC, HTML, SQL) into a consistent format. These may be combined and manipulated (for instance by removing duplicates) and are then presented to the user. It does not provide any search capabilities. It does not give consistent indexing. It does not create consistent data. It uses what the sources offer, and makes it practical for a user to now search 10 or 20 or 100 sources at once to gather all the answers to his question. Its processing reduces redundancy and focuses the results. It is a very broad net that can catch a wide range of information because it is prepared to ask for it in a wide range of languages. About the author Dr. Peter Noerr has degrees in Physics and Computer Science and a PhD in Information Science from The City University, London. In the 1970s he worked for The British Library for 6 years, four of them as Head of Systems Development. He then spent three years consulting for academic, national library and IGO clients in all parts of the world. During this time he started his one library automation systems company (Information Management and Engineering Ltd (IME» in the UK. This company produced the "Tinlib" / "The Information Navigator" software and sold it through distributors in 25 countries to over 2,750 customers in 38 countries. The company ranked in the top three in either specia11ibraries or academic libraries in the annual Library Journal survey from 1994 onwards. Just as important as the company's market success, was the advanced design of the software. It uti1ised an entity-relationship database for accurate bibliographic modelling. It introduced a multi-user DOS based system in 1985, incorporating a client/server architecture. In 1987 the system was migrated to UNIX and it incorporated Unicode support as early as 1990. The system operated in an isolated environment (very 30 simi1ar to a Java VM) allowing portability across multiple operating systems. The entire functionality of the ILS was controlled via profi1es, and the system introduced browsing and inter-record navigation long before the web was available. Dr. Noerr was the chief systems architect of this and the company's other products. He created systems designs for all levels of library from small special libraries to national infrastructure plans for government ministries. In 1996 IME was sold. Dr. Noerr is currently employed by EduLib, an information systems, services and consultancy company, as Technical Director. He is engaged in consultancy and system design work in the areas of digital libraries, multiple character set handling, information modelling, search system and interfaces, and systems architecture and design. He may be contacted through the company at [email protected]. 31 32 UN PORTALE EUROPEO PER LA SALUTE E LA SICUREZZA DEL LAVORO Maria Castriotta5 Abstract Partendo dalla definizione del concetto di portale, la relazione si insinua nel mondo più specializzato dei “gateway per soggetto”, soprattutto per meglio introdurre il modello di caso proposto: il sito dell’Agenzia Europea per la Salute e la Sicurezza del Lavoro. Tale organismo, operativo da circa quattro anni, si è dedicato, come compito prioritario, alla costruzione di una rete informativa dedicata alle tematiche della salute e sicurezza occupazionali. Il relativo progetto di miglioramento terminologico costituisce quindi lo spunto per affrontare il tema delle problematiche semantiche nei portali. Parole chiave Portali, Salute, Sicurezza, Problemi terminologici The report stars with the definition of the concept of portal, deepening then in the more specialised word project gateways; in this way, the proposed model is introduced: the website of the European Agency for Safety and Health of Work. This body, fully operational for about four years, has realized, as its priority task, an information networking regarding occupational safety and health topics. The related project of terminological improvement constitutes the occasion to deal with semantic problems in portals. Key words Portals, Health, Safety, Terminological problems Introduzione Abbiamo già avuto modo di rilevare come l’universo delle tecnologie documentarie si sviluppi in un movimento incessante di flussi e riflussi6 , per cui spesso 5 ISPESL - Dipartimento Documentazione,Informazione e Formazione – Roma, www.ispesl.it [email protected] 6 ] M.CASTRIOTTA Overload dell’informazione: l’intermediazione come qualità, AIDA Informazioni, 1998, 2, p.5-10 (p.7). 33 di fronte alle questioni che ruotano intorno alle nuove tecnologie, sembra di assistere ad un déjà vu. I primi thesauri agganciati alle grandi banche dati bibliografiche a partire dagli anni Cinquanta, tentavano di risolvere i problemi di “normalizzazione” della terminologia causati dalle troppe variabili del linguaggio libero e dalla mancanza di univocità semantica delle parole. Ora che, passata l’ubriacatura iniziale per l’informazione in rete, la tecnologia Internet sta diventando più matura, si tenta di cercare soluzioni idonee, importando nel nuovo mondo dei portali i concetti di semantica e terminologia, anche da parte dei servizi commerciali, perché ci si rende conto che lo sviluppo di servizi sempre più attraenti per il cibernauta passa attraverso un’informazione di qualità. Naturalmente tutto ciò ben venga, perché è giusto fare tesoro (e la parola non è a caso) delle ricerche e delle sperimentazioni precedenti, ma allora occorre cercare di ripartire da dove eravamo arrivati e di adattare, questo sì, gli ottimi livelli allora raggiunti ad un contesto che presenta alcuni aspetti già noti e molti aspetti nuovi. In questa breve relazione si è seguito un filo conduttore che, partendo dalla definizione del concetto di portale, si insinua nel mondo più specializzato dei “gateway per soggetto”, soprattutto per meglio incasellare quello che è il modello di caso proposto: il sito dell’Agenzia Europea per la Salute e la Sicurezza del Lavoro. Il relativo progetto di miglioramento terminologico costituisce quindi lo spunto per affrontare il tema delle problematiche semantiche nei portali. 1. Portali e “gateway per soggetto” Il termine “portale” è stato introdotto nelle nuove tecnologie di navigazione in rete dai produttori dei maggiori motori di ricerca commerciali allo scopo di diventare l’unico, o almeno il principale, punto di ingresso in Internet per i propri utenti. Prima del 1997 il “portale” era un concetto già presente nel mondo dell’informazione e della documentazione, ma rappresentava un’utopia, quella del “one-stop-shop”. Certamente il termine di “portale” dilaga comunque velocemente, rappresentando servizi molto diversi tra loro, accomunati da un’utenza generalmente poco esperta. Una classificazione molto comune li distingue oggi in:7 7 R.RIDI Strumenti e strategie per la ricerca di informazioni www – vers.2.1 (2000-08-06). <http://www.burioni.it/forum/ridi.mot.htm> 34 portali orizzontali, informazioni generali relative ai più svariati servizi (notiziari, quotidiani di borsa, e-mail gratuite, oroscopi, stradari, chat e forum, messaggistica SMS, previsioni del tempo; portali verticali, di collegamento con informazioni dedicate ad una particolare tematica. Più specializzate sono invece le metarisorse denominate “gateway per soggetto” (acronimo: SBIG, cioè subject-based information gateway), repertori che possono essere definiti come “servizi di supporto al reperimento sistematico di risorse in rete, consistenti in documenti, oggetti, siti, servizi, che vengono brevemente descritte e rese accessibili per mezzo di una struttura per soggetto” 3]. Il tipo più frequente di SBIG è quello globale con soggetto specifico (un soggetto, globale e monolingue, o al massimo in lingua inglese più la lingua locale). Una importante caratteristica di questi servizi consiste nel prevedere un controllo di qualità. Liste strutturate di link eterogenei possono essere chiamate SBIG, come i repertori del tipo Yahoo!, ma la loro debolezza generalmente risiede nella mancanza di una selezione di qualità della collezione e nella descrizione delle risorse senza l’adozione di uno standard. Infatti, scendendo nel dettaglio, perché un repertorio di questo tipo possa essere definito come “SBIG con controllo di qualità” deve prevedere una lunga serie di parametri [ibid.]: creazione o intervento manuale; selezione di qualità dello sviluppo della collezione; controllo corrente dei link (gestione della collezione); descrizione delle risorse per mezzo di metadati, i cui indicatori di qualità sono: adesione ad uno standard; visualizzazione dei metadati; ricca serie di metadati di qualità; livello formalizzato e coerente e stile della descrizione del contenuto (annotazioni, abstract, review); uso di livelli più specifici di classificazione, uso di thesauri e indicizzazione per soggetto; standard che consentano l’interoperabilità [cfr. pag. 9] con altri servizi. 35 Gli SBIG con controllo di qualità sono stati fino ad oggi sviluppati quasi esclusivamente da biblioteche e università situati per lo più negli USA, in alcuni stati europei e in Australia. Per quanto riguarda le modalità di gestione di questi servizi, si possono prevedere due tipi di cooperazione: internazionale in una stessa area di soggetto; nazionale tra SBIG che coprono differenti aree. Come esempio concreto di un servizio che costituisce un ibrido tra un portale non commerciale e uno SBIG, nato dalla collaborazione tra i quindici stati dell’Unione Europea, viene presentato qui di seguito il sito web dell’Agenzia Europea per la Salute e la Sicurezza del Lavoro. Il modello proposto risulta interessante non solo perché non è commerciale, non solo perché ha un’attenzione privilegiata per quello che fino a poco tempo fa si chiamava “utente finale”, ma anche perché costituisce una sorta di “work in progress”, in cui il tentativo di perfezionamento del sistema di ricerca, sta portando ad approfondire le problematiche terminologiche. 2. Il sito dell’Agenzia Europea per la Salute e la Sicurezza del Lavoro L’Agenzia Europea per la Salute e la Sicurezza del Lavoro è stata istituita con Regolamento del Consiglio dell’Unione Europea nel 1994 ed è divenuta pienamente operativa con l’assegnazione della sede a Bilbao, in Spagna, a partire dal 1997. La sua missione, che riguarda la promozione di ogni possibile miglioramento dell’ambiente di lavoro, si sostanzia nell’obiettivo pratico di fornire a tutti coloro che sono coinvolti nelle problematiche della salute e della sicurezza del lavoro, le informazioni tecniche, scientifiche, economiche e pratiche di settore. Tutto ciò è stato realizzato in via prioritaria con la messa a punto di un servizio di informazioni in Internet, che si è basato fin dall’inizio su una rete capillare di centri informativi in tutta l’Europa, partendo dall’ossatura centrale costituita dai quindici Punti Focali nazionali che, a livello europeo, condividono obiettivi comuni di organizzazione della rete. Ogni Punto Focale è responsabile dell’istituzione e della gestione di network nazionali per la raccolta e la disseminazione delle informazioni esistenti nei singoli stati membri. L’Istituto Superiore per la Prevenzione e la Sicurezza del Lavoro, attraverso il Dipartimento Documentazione, Informazione e Formazione riveste il ruolo di Punto Focale italiano ed ha avviato, a partire dal 1997, la costituzione del network italiano, 36 coinvolgendo rappresentanti regionali, sindacali e imprenditoriali, oltre ad enti ed organizzazioni di settore, che hanno dato vita ad un network in crescita, composto attualmente da circa 80 membri. Il consolidamento e l’ulteriore sviluppo della rete sono processi costanti finalizzati alla graduale espansione delle informazioni nazionali, europee ed internazionali, sulla base delle esigenze informative prioritarie emergenti in materia di sicurezza e salute sul lavoro. Tali obiettivi vengono attuati, a livello europeo, prestando particolare attenzione alla cooperazione con i servizi della Commissione Europea, tra i quali le diverse Direzioni generali competenti, Eurostat, oltre all’Ufficio delle Pubblicazioni Ufficiali delle Comunità Europee e alla Fondazione Europea per il Miglioramento delle Condizioni di Vita e di Lavoro, con sede a Dublino. E’ prevista inoltre un’estensione della rete a livello internazionale ed extraeuropeo, creando connessioni con importanti organizzazioni coinvolte a vario titolo nel settore della salute e sicurezza occupazionali, quali l’Ufficio Internazionale del Lavoro (ILO/BIT), l’Organizzazione Mondiale della Sanità (WHO/OMS), l’Agenzia Internazionale per la Ricerca sul Cancro (IARC), l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), l’Associazione Internazionale per la Sicurezza Sociale (ISSA/AISS), l’Organizzazione Panamericana per la Salute (PAHO), oltre ad istituzioni americane. La strutturazione del sito web http://osha.eu.int della rete di Agenzia trova il suo principale punto di forza nella uniformità delle categorie che sono state identificate in via preliminare e che costituiscono dei grandi contenitori ideali (tradotti nelle diverse lingue comunitarie), in cui ogni Punto Focale, gestore del web nazionale (per l’Italia http://it.osha.eu.int ) va ad immettere le informazioni disponibili. Tali contenitori o voci di soggetto di livello primario, sono i seguenti: Notizie Legislazione Buona Pratica Ricerche Statistiche Sistemi Formazione Voci tematiche 37 Pubblicazioni. Ognuna delle voci di soggetto di livello primario è suddivisa a sua volta in sottocategorie, che sono obbligatorie per la ulteriore strutturazione delle informazioni nei quindici siti web interconnessi. Al di sotto del secondo livello, ogni Punto Focale è libero di adottare voci diverse. Questo modello di condivisione della gestione del servizio in Internet si configura come una cooperazione internazionale in una stessa area di soggetto [cfr. pag. 5]. Inoltre, all’interno delle pagine web gestite direttamente dall’Agenzia Europea presso la sua sede di Bilbao, si trovano altri elenchi strutturati di risorse elettroniche di settore, sommariamente descritte e correntemente monitorate. Dal suo ruolo di “portale” per l’utenza più ampia e meno smaliziata, il sito dell’Agenzia è passato anche a quello di SBIG con un elevato livello di qualità. 3. Progetti per la terminologia Per migliorare le tecniche di navigazione, che attualmente si basano sul motore di ricerca Altavista, (e sul suo software Babelfish per risolvere grossolanamente i problemi di traduzione), è attualmente allo studio la creazione di un thesaurus multilingue ridotto, basato sui thesauri di settore esistenti. Questo indice strutturato di parole chiave verrà quindi combinato con un potente motore di ricerca che potrà navigare in tutti i siti collegati al sistema. Non è possibile prevedere allo stato attuale i risultati di tale sperimentazione, ma ci si aspetta un notevole miglioramento della qualità delle informazioni reperite. D’altronde l’Agenzia Europea non è la prima a percorrere questa strada. C’è un crescente numero di thesauri disponibili sul web, riguardanti una grande varietà di discipline, formati e lingue. Sono stati calcolati più di cinquanta thesauri significativi in rete, che coprono circa trenta tematiche e il loro numero sta crescendo in misura massiccia8]. Recentemente, molti gateway per soggetto sono stati sviluppati sul web, utilizzando thesauri per l’indicizzazione e il reperimento dell’informazione; ne è un esempio il servizio OMNI (Organising Medical Networked Information) con l’uso del Thesaurus MeSH. 8 A.A.SHIRI, C.REVIE Thesauri on the web : Current developments and trends. Online Information Review, 2000, 24 (4): 273-279 38 Sostanzialmente possono essere identificate due problematiche relative alla trasposizione dei thesauri su web: la prima di tipo tecnico-informatico e l’altra di tipo contenutistico. In relazione al primo ordine di problemi, molti produttori di software sono impegnati nella realizzazione di programmi correlati al web, come html, java e xml per la costruzione e la pubblicazione dei thesauri. I risultati sono già visibili in rete, con la possibilità di consultare questi strumenti in forma statica o dinamica. Le tecnologie di rete sembrano quindi permettere agli utenti di utilizzare i thesauri gerarchicamente o alfabeticamente e di scegliere con facilità tra termini correlati, più specifici, più ampi, per includerli nella strategia di ricerca. E’ comunque da notare che i browser web non sono mai basati su thesauri e gli esistenti formati di metadati ne fanno poco uso [ibid.]. Il secondo ordine di problemi è causato dal fatto che un siffatto entusiasmo per l’uso della moderna tecnologia web nella pubblicazione di thesauri, ha avuto come risultato un crescente numero di strumenti di questo tipo. Da qui il bisogno di integrare le diverse risorse disponibili, almeno nell’ambito di ogni settore disciplinare; di arrivare, quindi, alla “interoperabilità” tra thesauri, vale a dire alla possibilità di accedere e utilizzare diversi strumenti contemporaneamente per la ricerca e il reperimento. Ecco di nuovo che problemi già noti da decenni si riaffacciano: la soluzione consiste ovviamente nell’adozione di uno standard per la creazione di thesauri (includendo ogni tipo di vocabolari controllati, sistemi di classificazione, tassonomie, ecc.). Tra i più importanti progetti di integrazione di thesauri diversi, anche multilingui, va citato il Thesaurus UMLS (Unified Medical Language System), uno dei più grandi thesauri nell’area della medicina e campi ad essa correlati. L’edizione del 2000 include più di 730.000 concetti da più di 50 diversi vocabolari biomedici, con l’inclusione di molte lingue diverse dall’inglese. Questo strumento funziona come motore di ricerca nel sito della National Library of Medicine (USA), che, come è noto, consente libero accesso ad un gran numero di basi e banche dati bibliografiche biomediche tra le più prestigiose. Conclusioni Allo stato attuale si può affermare che non esistono ancora delle valutazioni riguardanti i miglioramenti che vengono dall’assegnazione di descrittori, tratti da thesauri, nella descrizione e nel reperimento di risorse. A tale proposito, un nuovo problema emergente è la “sostenibilità”, che potremmo definire come il rapporto 39 costo/beneficio tra intervento manuale (umano) e automatico9 [3]. E in questo senso, ci sentiamo di ribadire che “la realizzazione di strumenti limitati ad aree disciplinari specifiche, mediante l’ausilio di theasuri di settore, che siano in grado di ricondurre il linguaggio naturale entro limiti di contesto, appare come una promettente strada da percorrere”; anzi, oggi è meglio affermare che l’alta specializzazione appare come l’unica strada percorribile. Alla luce di quanto emerso fino ad ora dalle sperimentazioni già effettuate, possiamo affermare in conclusione che il ruolo dei thesauri, in questo nuovo universo delle tecnologie di rete, è parzialmente cambiato; o meglio, la sua antica caratteristica di strumento bilanciato tra la fase di indicizzazione e quella di reperimento, è cominciata a venir meno e il thesaurus può essere oggi considerato soprattutto uno strumento di efficace reperimento. 9 T.KOCH Quality-controlled subject gateways: definitions, typologies, empirical overview Online Information Review, 2000, 24(1): 24-34. 40 ALINARI PHOTOLIBRARY: IL CONTROLLO TERMINOLOGICO E L’ORGANIZZAZIONE DELL’INFORMAZIONE IN RETE Rita Scartoni10 Abstract Sintesi delle principali caratteristiche dei Progetti in corso degli Archivi Alinari: Progetto Educational e Progetto Business. Dopo aver messo in luce gli aspetti salienti di entrambi vengono fornite le indicazioni utili per orientare l’utente nella ricerca attraverso i diversi filtri utilizzati e anche per utilizzare al meglio sia il Thesaurus che le Authorities utilizzate per navigare negli archivi fotografici. Parole chiave Archivi fotografici, Authority files, Campi di ricerca Synthesis of principle characteristics of the Archivi Alinari Projects in progress: Progetto Educational and Progetto Business. After illustrating the salient aspects of both projects, this report gives useful indications for user orientation for research by means of different filters utilized and for also using in the best way possible both the Thesaurus and the Authorities adopted for navigating in the photographic archives. Key words Photographic archive, Authority files, Research fields. .In occasione della Tavola Rotonda del 27 Gennaio 2000, ho avuto modo di presentare sinteticamente la struttura del sistema di catalogazione utilizzato dall’Archivio Alinari, sistema finalizzato alla ricerca in linea, facendo riferimento, in quella sede, ai principali sistemi di controllo terminologico in esso adottati: le Authorities e il Thesaurus iconografico. Il criterio metodologico di base che ha regolato la codificazione ed il trattamento semantico delle informazioni ha corrisposto ad una esigenza fondamentale: dare voce all’immagine, ovvero mentre da un lato la fotografia viene trasformata in immagine digitale, e quindi diventa fruibile su web, dall’altro i contenuti in essa espressi e di cui la fotografia rappresenta un momento di estrema sintesi (sia essa creativa che 41 documentaria), vengono per così dire dissociati e presentati analiticamente sotto forma di termine, di parola. Messa a punto questa prima fase (sempre suscettibile di aggiornamenti e varianti) di strutturazione e applicazione degli strumenti di normalizzazione dell’informazione, è stata affrontata più da vicino la problematica dell’organizzazione delle informazioni su web, ovvero delle possibilità di interrogazione offerte all’utente. Quando si parla di informazione o di comunicazione su Internet è impossibile prescindere dal soggetto principale, dal fruitore, il “consumatore” dell’informazione, l’utente. E l’utente deve essere in prima battuta identificato, chiaramente in rapporto allo specifico dei contenuti proposti. Durante quest’anno si è lavorato quindi ad un approfondimento (rispetto alle linee guida già rintracciate al momento della strutturazione del sistema di catalogazione) dell’identificazione e della definizione delle aree di utenza. Due sono stati gli strumenti determinanti in questa analisi identificativa: da un lato un’attenta indagine del mondo della rete nel campo della fotografia e dell’immagine, dall’altro la considerazione delle specifiche caratteristiche del materiale fotografico degli Archivi Alinari e del Museo di Storia della fotografia Alinari: un materiale con grandi potenzialità di documentazione non soltanto della parabola storica degli oltre 150 anni del “nuovo” mezzo espressivo, la fotografia, ma anche con grandi capacità di documentazione di un notevole numero di soggetti (dall’arte, all’agricoltura, all’industria alle scienze …) e di restituzione delle relative infomazioni semiologiche. Ne è conseguita l’identificazione di varie aree di utenza, rispetto alle quali sono stati attivati, al momento, due specifici progetti: Il Progetto Educational e il Progetto Businnes. Il progetto Educational è rivolto all’utente che utilizza l’immagine come documento di studio, di ricerca, ed è indirizzato ‘in primis’ al mondo universitario, italiano ed estero. Il progetto Business è rivolto all’utente che utilizza l’immagine principalmente a scopi professionali (editori, giornali, agenzie, fotografi…). Il sito Alinari sarà quindi strutturato come un piccolo portale verticale, ovvero un portale tematico sulla fotografia. Infatti dal sito Corporate sono previsti gli accessi alle due Photolibrary Educational e Businnes. 10 Archivi Alinari – www.alinari.it [email protected] 42 In queste due aree l’organizzazione dei dati di accesso e d’interrogazione della banca dati catalografica e delle immagini digitali inscindibilmente ad essa collegate, è stata quindi diversificata e calibrata in base alle diverse esigenze dell’utente. In particolare, nel progetto Educational si è mirato ad una presentazione delle ricerche che permette sia l’uso di strumenti molto semplici, quali la ricerca libera, sia l’uso di strumenti d’indagine più sofisticati quali l’esplorazione dei Thesauri. Attualmente sono possibili quattro tipi di interrogazioni: la ricerca libera, la ricerca avanzata, la ricerca per liste (autorithies) e la ricerca tramite thesauri. La ricerca avanza permette di combinare interrogazioni diverse. Un primo gruppo di campi è relativo alla storia dell’immagine e al suo contenuto iconografico, quali: Parole chiave, Soggetto, Fotografo, Luogo dello scatto, Località raffigurata, Personaggio, Stile fotografico, Data dello scatto. Un secondo gruppo di interrogazioni è relativo allo specifico settore delle tecniche fotografiche: Tipo oggetto, Tecnica per il positivo, Tecnica per il negativo. Un terzo gruppo è infine specifico per ricerche su opere d’arte: Artista, Tipo pera, Data, Collocazione, Periodo e stile. Si è ritenuto opportuno dare la possibilità all’utente di ricercare l’immagine attraverso la consultazione diretta delle Authorities; in ricerca per liste sono accessibili le authorities Fotografi, Artisti, Movimenti stilistici della fotografia, Eventi, Personaggi. Nella sezione Thesauri è possibile l’esplorazione del Thesaurus iconografico, del Thesaurus Geografico, di quello relativo al Periodo e stile artistico e del tipo opera. Contrariamente ai criteri metodologici adottati in altri repertori di indicizzazione, primo fra tutti l’AAT del Getty Research Institute, abbiamo preferito tenere visivamente separate le sezioni relativa alla periodizzazione stilistica , alle tipologie artistiche (nonché agli eventi che nel nostro sistema sono un semplice authority file ‘in divenire’) dal thesaurus iconografico, funzionale alla ricerca per soggetto. L’esplorazione dei thesauri viene effettuata tramite la presentazione delle classi di primo livello, da cui si accede ai descrittori di livello inferiore. I risultati della ricerca restituiscono sempre come primo dato l’immagine. Attualmente stiamo lavorando per rendere ancora più agevole e sintetico l’accesso e l’esplorazione del Thesaurus iconografico, quello più complesso, raggruppando le 61 classi di primo livello in 8 dipartimenti disciplinari e attivando collegamenti trasversali tra le classi, attraverso la formula ‘vedi anche’. Per quanto riguarda i dipartimenti disciplinari li cito qui brevemente facendo riferimento alle principali classi iconografiche in essi contenute. Un primo dipartimento 43 è relativo alle Arti e comprende classi come Archeologia, Architettura, Arredo e Arredamento, Arti applicate, Fotografia, Miniatura, Pittura, Scultura.., un altro relativo alle Arti ricreative e dello spettacolo (Cinema, Televisione, Teatro, Sport), Scienze naturali e matematiche (Astronomia, Biologia, Botanica, Zoologia…), Scienze applicate e tecnologia (Agricoltura, Alimentazione, Medicina, Trasporti), Religione, Storia e Geografia, Letteratura e discipline umanistiche, e infine un ultimo dipartimento disciplinare relativo alla Scienze sociali (Comunicazione e pubblicità, Educazione, Ritratto, società…). 44 BIBLIOTECA–CENTRO DI DOCUMENTAZIONE DI POLIMODA11 Paola Corrias12 Abstract Il centro di documentazione–biblioteca di Polimoda è una biblioteca speciale che si distingue dalle tradizionali biblioteche di interesse umanistico per alcune caratteristiche riguardanti l’utenza, la tipologia delle collezioni, la finalità, il servizio di reference offerto. I documenti di tipo monografico vengono indicizzati con descrittori che costituiscono un lessico strutturato bilingue relativo alla storia della moda e del costume, la cui validità scientifica è garantita dalla collaborazione con esperti specializzati nella storia del costume. L’introduzione di Internet come strumento di ricerca dell’informazione ha aperto la via a riflessioni di ordine metodologico riguardo al thesaurus e al lessico controllato, ai quali l’utente sempre meno si rivolge ma che sono la garanzia di una risposta precisa ad una strategia di ricerca mirata. Parole chiave Moda, Servizi di reference, Thesauri The Biblioteca-Centro di Documentazione di Polimoda is a special which is different from the traditional library of humanistic interest for several characteristics regarding its users, the typology of its collection, its aim, and the reference service it offers. Documents of the monographic type are indexed with descriptive words which form a structured bilingual lexicon relating to the history of fashion and costumes, whose scientific validity is guaranteed by the collaboration of experts specialized in the history of costumes. The introduction of Internet as the instrument of information research has opened the way for considerations of a methodological order regarding the thesaurus and controlled lexicon, to which the users turn ever less but which are the guarantee of a precise answer to a strategy of directed research. 11 Polimoda (Politecnico internazionale della moda) è un istituto superiore di livello universitario di studi sulla storia del costume e della moda, i cui corsi sono svolti in collaborazione con l’Università degli studi di Firenze (Diploma di operatore del costume e della moda) e con il Fashion Technology Institute di New York. 12 Bibliotecaria presso la Biblioteca dell’Entart Polimoda di Firenze, [email protected] www. Polimoda (Politecnico internazionale della moda) è un istituto superiore di livello universitario di studi sulla storia del costume e della moda, i cui corsi sono svolti in collaborazione con l’Università degli studi di Firenze (Diploma di operatore del costume e della moda) e con il Fashion Technology Institute di New York. 45 Key words Fashion, Reference services, Thesauri La presentazione dello studio del caso Polimoda deve essere introdotta da alcune informazioni fondamentali relative alla nostra realtà di biblioteca speciale che presenta, rispetto ad altre realtà operanti nel settore delle arti, alcune significative particolarità sia per quanto riguarda l’utenza che per quanto riguarda la collezione, la finalità, il tipo di reference offerto. La nostra utenza si compone soprattutto di studenti (circa 530 nell’anno accademico 2000/2001), di ricercatori di storia del costume e di professionisti del settore moda (designer, fotografi, manager, aziende). Il centro si qualifica come un sistema informativo completo, nel quale le informazioni ottenute dalla raccolta di monografie e di periodici si integrano organicamente con i dati ottenibili dalla rete. Ciò è possibile grazie all’indicizzazione dei documenti attuata attraverso descrittori ricavati da testi specializzati e integrati con il thesaurus AAT.13 Durante i quindici anni di attività (Polimoda nasce nel 1986), è stato costituito un lessico strutturato bilingue relativo al settore della moda e del costume, la cui validità scientifica è garantita dalla collaborazione con storici specializzati nella storia del costume. Le ricerche effettuate sulla rete sia dal personale che dagli utenti si avvalgono di un catalogo di siti interessanti per il settore che abbiamo messo insieme e che è presente, come work in progress, nel nostro centro, a disposizione di chi desideri effettuare ricerche in rete. Le tematiche che compongono la collezione comprendono l’aspetto storico, teorico e produttivo del settore moda (abiti, accessori, tessuti); un panorama assai approfondito delle arti figurative, decorative ed applicate; un nutrito insieme di testi monografici comprendenti fotografia per creativi (maestri fotografi, fotografia di soggetti specifici, macrofotografia etc.). 13 Art and Architecture Thesaurus, [by J.Paul Getty Trust], Oxford, Oxford University Press, 1990 46 Oltre alla collezione di monografie, periodici e video, la raccolta si compone di letteratura grigia quali cataloghi pubblicitari, documentazione relativa a fiere del settore, di un archivio fotografico di modelli di designers contemporanei. Non diversamente dalle altre realtà documentarie, la finalità della biblioteca è fornire all’utente rapidamente e con precisione l’informazione cercata: data la particolarità tipologia delle richieste dell’utenza (immagini, ispirazioni, silhouettes, particolari nuances di colore, volumi, impressioni), tale finalità è perseguita tuttavia attraverso modalità diverse. Nel caso degli studenti (utenti che non hanno ancora confidenza con la biblioteca) e che mostrano al primo approccio con la collezione un certo impaccio, abbiamo approntato un percorso educativo finalizzato a renderli presto autonomi nelle strategie di ricerca, in un breve corso all’inizio dell’anno, articolato in lezioni teoriche sulla classificazione Dewey e sulla ricerca al catalogo ed esercitazioni pratiche che sperimentino vari approcci alle informazioni, dalla serendipity tra gli scaffali (tutta la collezione è collocata a scaffale aperto) alle tecniche di ricerca sulla rete. Ben presto infatti, gli studenti, usciti dalla scuola e inseriti nel mondo del lavoro, dovranno essere in grado di effettuare in tempi assai limitati una ricerca approfondita su particolari temi, linee ed ispirazioni: perciò il ciclo di studi qui compiuto dovrà fornire loro non solo gli strumenti per esprimere la creatività in modo professionalmente valido ma anche dovrà comprendere l’apprendimento delle strategie di ricerca particolari di questa collezione e dei percorsi di reperimento delle informazioni che sono assai utili anche sul piano della formazione personale. Anche la letteratura più avvertita, del resto, ha più volte sottolineato l’importanza di questa “educazione ad apprendere” che è fondamentale per un moderno servizio di reference, attento ai bisogni dell’utente in modo autentico e partecipe.14 Verso i ricercatori e i professionisti del settore, il servizio di reference è quasi ad personam: data l’esiguità del tempo a loro disposizione e l’estrema precisione della loro ricerca, le informazioni fornite sono rapide e puntuali, sostituendosi spesso il documentalista ad essi o con essi collaborando strettamente. Quanto detto vale a chiarire la particolarità del contesto nel quale, come abbiamo rilevato per esperienza, pur essendo a disposizione dell’utente il lessico strutturato nell’archivio thesaurus consultabile dal pubblico, la ricerca autonoma da parte 14 G. Pili, Imparare in biblioteca, “Biblioteche oggi”, XVI, 1998, 8, pp.62-63, e A.M. Tammaro, Apprendere ad apprendere, “Biblioteche oggi”, XII, 1999, 10, pp.46-52 47 dell’utente, partendo da esso, è assai rara. Lo studente preferisce una ricerca in linguaggio naturale, anche se questo lo conduce ad ottenere una risposta con notevole “rumore”: ci chiediamo se, con l’avvento di Internet, e con l’abitudine ad una ricerca sempre più libera, il lessico controllato sia utile solo al catalogatore. D’altra parte, la ricerca in profondità è sempre quella coadiuvata dal documentalista che, attraverso la combinazione consapevole dei descrittori, produce la maggior quantità di informazione rilevante, approntando strategie di ricerca più mirate e con più alto grado di richiamo. Nell’ultimo anno il Polimoda si è inserito in un processo di cambiamento che ha coinvolto tutti gli organi della sua struttura, favorendo l’ampliamento e la differenziazione delle sedi (Prato, Via Baldovinetti, Villa Strozzi), conseguentemente alla moltiplicazione e specializzazione dei corsi: cambiamento in linea con l’ampliamento degli orizzonti dell’istituto, più volto che nel passato alla partnership con l’estero e col mondo aziendale. Tutte le sedi di Polimoda stanno collegandosi alla rete. Da poco anche il sito web è stato messo in linea nella sua versione aggiornata. L’ampliamento della biblioteca–centro di documentazione è stato finalizzato all’accoglienza di un pubblico notevolmente aumentato, alla predisposizione di nuovi servizi e alla maggiore visibilità della collezione, assai accresciuta ed arricchita. Nel futuro prossimo prevediamo un OPAC accessibile dalla nostra home page, garantendo una visibilità globale utile non solo al nostro principale partner, il Fashion Technology Institute di New York, ma al mondo intero (i nostri studenti rappresentano ventisei diverse nazionalità). Le nuove possibilità offerte dalla rete aprono l’orizzonte della scuola verso un più mirato document delivery, per i corsi fortemente specialistici organizzati dal nostro istituto il cui materiale, selezionato dai bibliotecari-documentalisti, potrà essere consultabile nel web. Con una tecnologia opportuna sarà infine possibile realizzare un portale che esprima nella realtà della connessione in rete di molteplici poli della moda, siano essi produttivi, formativi o commerciali, l’essenza del nuovo obiettivo del Polimoda, secondo il Presidente Renato Ricci: divenire “l’associazione che raccoglie tutte le 48 istituzioni”15, tutte quelle aziende con le quali il nostro Istituto si integrerà, “divenendone il braccio operativo”16. 15 R.Ricci, Renato Ricci, proiezioni sul Polimoda, a cura di O. Napoletano,< http://www.modaonline.it> 12 febbraio 2001 16 ibidem 49 50 MEDIASET: IL PORTALE SULLA COMUNICAZIONE Maria Eleanora Lucchin17 Abstract L’attività del Centro di documentazione Mediaset, operante dal 1990, con un particolare cenno alla revisione del Thesaurus THESCOM, che sta per essere tradotto in inglese, oltre ad essere rivisto secondo le attuali esigenze dell’informazione di settore. Il progetto prevede inoltre la realizzazione di un portale sulla comunicazione che sarà realizzato entro il 2001, con la successiva traduzione in cinque lingue dello strumento di controllo, rivisto sulla base delle diverse fonti internazionali esistenti nell’area trattata, oltre che secondo gli standard ISO vigenti. Parole chiave Informazione, Portali, Multilinguismo The activities of the Centro di Documentazione Mediaset, which has operating since 1990, with a particular mention of the revision of the Thesaurus THESCOM, which is about to be translated into English, as well as being reviewed according to the actual needs of information of the sector. The project also foresees the realization of a portal on communication which will be accomplished by the end of 2001, with the successive translation into five languages of the control instrument, which will be reviewed on the basis of the different international sources existing in the area treated, in addition to the current ISO standards. Key words Information, Portals, Multilingualism Dal 1990 Mediaset ha un Centro di documentazione che si pone come obiettivo primario il trattamento di libri, articoli, letteratura grigia sul tema della Comunicazione, core business dell'Azienda18. Vengono trattati prevalentemente documenti pubblicati in 17 Direzione Documentazione e Analisi Istituzionaledel Gruppo Mediaset, Milano. e-mail [email protected] 18 Centro di Documentazione generalista del Gruppo Mediaset: grazie al ricco patrimonio di strumenti e fonti informative, ha la possibilità di soddisfare le esigenze di informazione che possono emergere all'interno dell'Azienda, siano esse di cultura generale che focalizzate sul settore della Comunicazione e dei Media. 51 Italia, nei principali Paesi europei e negli Stati Uniti dai primi anni Ottanta ad oggi in lingua italiana, inglese e francese. I riferimenti a tali documenti sono stati inseriti (con abstract e indicizzazione) nella base dati bibliografica BCOM - Banca dati della Comunicazione, consultabile fino ad oggi solo da utenti interni a Mediaset. BCOM copre il settore interdisciplinare della comunicazione monitorando i media nei loro aspetti economici e di business, sociologici, legislativi, culturali, tecnologici e dell’audience. Fanno da sfondo la comunicazione d’impresa, dagli aspetti teorici a quelli di gestione aziendale e di marketing, nonché l’economia in generale, la politica, la società e i consumi. L’interrogazione di BCOM permette agli utenti di soddisfare direttamente il bisogno informativo o di richiedere fotocopie e/o prestiti dei documenti. A gennaio 2001 inizierà la riorganizzazione della struttura della base dati e delle informazioni in essa contenute. Particolare interesse verrà dedicato al THESCOM Thesaurus sulla Comunicazione, che non sarà solo aggiornato e ristrutturato secondo le esigenze dell’utenza e dei contenuti tematici emergenti dalla documentazione odierna, ma anche completato inserendo un campo di ricerca di descrittori in lingua inglese. Questa scelta è determinata dalla consapevolezza che il settore della Comunicazione ha una forte connotazione terminologica anglosassone, ma soprattutto dall'obiettivo di diffondere la base dati in Internet. Inoltre, l'intervento consentirà di effettuare una normalizzazione terminologica e un allineamento delle traduzioni che sono attualmente in uso nel settore, talvolta non sempre omogenee e trasparenti per l’utente. L'attuale THESCOM è frutto di un lavoro di analisi concettuale della documentazione relativa al settore della comunicazione realizzato dal personale del Centro di documentazione e al quale hanno contribuito esperti esterni sia della costruzione di thesauri sia dei vari ambiti disciplinari coinvolti. Un importante riferimento, soprattutto per quanto concerne i termini dell'ambito economico in generale, è stato il Macrothesaurus for Information Processing in the Field of Economic and Social Development curato dall'OCDE. Altre liste di termini, provenienti da Gestisce una biblioteca di circa 8.000 volumi (comprensivi di monografie, rapporti e ricerche, atti di convegno e tesi di laurea, bilanci aziendali, materiale giuridico) e un'emeroteca che raccoglie varie annate di oltre un centinaio di testate periodiche specializzate italiane ed estere. Tale patrimonio documentale va ad aggiornare periodicamente BCOM, la Banca dati della Comunicazione. Completa la gamma degli strumenti informativi disponibili il collegamento a numerose banche dati su cd-rom e in linea di varia natura (news, repertori, legislazione). Il Centro di Documentazione rappresenta un punto di riferimento aziendale per l’utilizzo di banche dati esterne e servizi di informazione elettronica, nonché per l'aggiornamento delle fonti e degli strumenti della documentazione in generale. 52 thesauri settoriali, hanno permesso di controllare ulteriormente le scelte compiute a livello sia di lessico che di relazioni tra i termini. Il Thesaurus della Comunicazione attualmente è articolato come segue: totale termini: 3378; descrittori: 1680; identificatori: 1698 (nomi propri enti, società, associazioni, persone, luoghi) anno della prima edizione: 1994 anno della seconda edizione: 2001 aree tematiche trattate: Economia e società (politica economica e sociale; economia e gestione aziendale; mercato comune europeo; istituzioni e politica, cronaca; industria commercio e servizi; ambiente, lavoro; demografia e popolazione); Economia dei media e della comunicazione: gruppi multimediali (industria televisiva; industria cinematografica e spettacolo; home video, discografia; stampa; editoria libraria) Comunicazione d'impresa e pubblicità: (promozione e pubblicità; comunicazione pubblica; marketing; ricerche di mercato) Telecomunicazioni e Internet (industria delle telecomunicazioni; telefonia; Internet e Information Technology; commercio elettronico; multimedialità) Comunicazione e società (teorie della comunicazione; sociologia dei media; dibattito politico e culturale; politica radiotelevisiva; linguaggio dei media e della pubblicità; nuovi media e Internet) Legislazione dei media (legislazione sull'emittenza radiotelevisiva; legislazione sul cinema e sullo spettacolo; disciplina della pubblicità; diritto d'autore; diritto dell'informazione; telecomunicazioni e informatica, Internet) Il pubblico e l'audience Gruppo Fininvest-Mediaset Oltre alla premessa il Thesaurus ha una presentazione alfabetica generale e una Lista degli Idenficatori, alle quali si sta aggiungendo una presentazione permutata. Il progetto di riorganizzazione del thesaurus prevede la realizzazione entro il dicembre 2001 di un portale internazionale sulla Comunicazione patrocinato da Mediaset e che coinvolgerà professionisti autorevoli provenienti da diversi ambiti esterni (mondo accademico, della ricerca, delle imprese). Il flusso delle operazioni che saranno attuate per tale obiettivo comprende: Normalizzazione della terminologia esistente secondo gli Standard ISO 53 Traduzione in lingua inglese come secondo accesso terminologico Confronti con altri sistemi operanti nell’area considerata User Group di testimonial (giornalisti, docenti, esperti, studenti universitari, ricercatori) con cui verificare l'efficacia e l'efficienza del sistema. Traduzione, entro il 2002, in lingua francese, spagnola e tedesca. Per effettuare queste operazioni saranno utilizzate, tra le altre, le seguenti fonti: Thesaurus ERIC, Thesaurus EUDISED, Thesaurus CEDEFOP, Thesaurus Unesco, Thesaurus Ortelius, Thesaurus BIE, THES/ITLaw. A Multilingual Thesaurus of Terminology in “Information Technology adn Law”, Thesaurus regionale toscano. Per ulteriori informazioni in merito al progetto rivolgersi a: Annalisa Manfredi, Centro Documentazione Mediaset, [email protected] 54 UNIONCAMERE: IL PORTALE SULL’ECONOMIA Elisabetta Bidischini Abstract A project which will reunite several public institutions and agencies operating in Italy in the sector of economic research: Unioncamere, Isvor Fiat, Libera Università di Castellanza, university libraries and departments interested in the economic area. The objective of the project is using a unique shared reference terminology, however without altering the single operative realities and leaving the existing terminological specificness. The stages of the project foresee, after the individuation of several priority areas, a comparison of preliminary definitions of the realization of the project, which obviously foresees links to the European agencies operating in the sector. Key words Economy, Multilingual Project, Subject headings, Thesauri Dal 1950 il Centro Documentazione dell'Unioncamere tratta materiale a stampa e letteratura grigia nel settore "economico" con particolare interesse alle seguenti tematiche: economia locale e settoriale con particolare riferimento alle pmi, statistiche nazionali, comunitarie e internazionali, normative regionali, nazionali e comunitarie; inoltre promuove e coordina iniziative dirette agli archivi, alle biblioteche ed ai centri di documentazione delle Camere di commercio italiane. I materiali trattati sono libri, riviste, leggi, annuari statistici, rapporti e relazioni in lingua italiana con qualche eccezione di testi in lingua inglese e francese per tematiche relative a al commercio estero. I criteri di trattamento utilizzati prevedono la schedatura delle unità analizzate (descrizione bibliografica secondo gli standard ISBD) e attribuzione di termini controllati (descrittori) tratti dalla bozza di lista di autorità allegata. Si tratta di termini in fase di revisione e che verranno strutturati in gerarchie entro il prossimo anno oltre che tradotti in lingua inglese e, possibilmente, anche nelle altre lingue comunitarie di maggior interesse (francese, tedesco, spagnolo). Sono in corso contatti con organismi e istituzioni nazionali e europee per costituire un gruppo di lavoro per la revisione dei termini utilizzati e la messa in rete di 55 terminologia specializzata e specialistica afferente all'area considerata. Si tratta di unire esperienze e competenze diversificate che salvaguarderanno un "core" terminologico di base e le specificità tipiche delle singole istituzioni che manterranno ovviamente i termini specifici di interesse. L'ingresso nel mercato europeo e l'avvento dell'EURO comportano anche una vasta opera di formazione e di orientamento che parte necessariamente dalla terminologia: se non si riesce a comprendere il contenuto informativo e comunicativo dei termini non si può procedere ad alcun lavoro di gruppo e ad alcuna progettazione operativa. I portali sono oggi il leit motiv degli addetti ai lavori, ma devono essere soprattutto uno strumento ritagliato sulle effettive esigenze dell'utenza, sempre più allargata e diversificata e della quale non si conoscono a priori le caratteristiche. Da qui la necessità di redigere strumenti agili e facilmente interrogabili, in linea e con un accesso multilingue: spesso infatti la linguae inglese costituisce un minimo comune denominatore che semplifica e riduce ai minimi termini, in un'ottica di sinergia e trasparenza. I partner nazionali del progetto potrebbero essere: Assefor, Biblioteca Walter Bigiavi (Bologna), Centro Studi ISVOR Fiat (Torino), Libero Istituto Universitario "Carlo Cattaneo" (Castellanza), SDA Bocconi (Milano). A livello europeo sono invece da coinvolgere: le Camere di commercio di Parigi, Londra e Madrid. La programmazione operativa prevede le seguente fasi: · Normalizzazione della terminologia · Traduzione dei termnini (descrittori e non descrittori) in lingua inglese · Redazione di liste di autorità per i nomi propri Per informazioni in merito al progetto rivolgersi a Elisabetta Bidischini - tel. 06.47041 e-mail [email protected] 56 INTERNET A SUPPORTO DELLA DIDATTICA Giovanni Bonaiuti Abstract L’intervento cerca di tratteggiare alcuni effetti, spesso trascurati, che le tecnologie hanno nel trasformare le attività umane, anche di quelle considerate “tradizionali”. Nel settore della formazione, in particolare, si parla sempre più spesso di Formazione a distanza (FaD) correndo a volte il rischio di ignorare l’importanza delle tecnologie quali preziosi supporti per le attività educative tradizionali. Internet, in particolare, può ad esempio diventare il portale d’accesso all’Università: ovvero il luogo da cui si snodano e si organizzano i servizi informativi e interattivi, ma anche il punto di incontro di persone e di queste con le istituzioni. Parole chiave Formazione a distanza, Aspetti metodologici, Ricerca in Internet This participation seeks to trace some often neglected effects which technologies have on transforming human activities, even on those considered "traditional". Particularly in the education sector, ever more often distance education is mentioned, sometimes running the risk of ignoring the importance of technologies as precious supports of the traditional educational activities. For example Internet, in particular, can become the access portal to the University: or rather the place from which informative and interactive services are articulated and organized, but also the meeting point of persons with each other and with the institutions. Key words Online distance learning, Methodological aspects, Research in Internet 1. Premessa Oggi ci interroghiamo su quali funzioni Internet possa svolgere nell’ambito delle strutture universitarie e delle istituzioni scolastiche in genere, fra breve, rileggendo i quesiti che oggi ci poniamo sarà persino ovvio che la telematica debba coprire certi spazi e che attraverso i “terminali” (non solo computer, ma apparati eterogenei variamente connessi alla rete) si possano ottenere certi servizi. Lo sviluppo delle 57 tecnologie sta rapidamente introducendo a fianco dei tradizionali contesti educativi nuovi ambiti di accesso all’istruzione ed alla conoscenza. La formazione a distanza (FaD) attraverso le reti telematiche si presenta oggi come fenomeno complementare e, in alcuni casi alternativo, alla didattica presenziale. Il grande successo di Internet nasce del resto dalla possibilità che la rete offre di “unire”, di avvicinare le persone infrangendo le tradizionali barriere spazio-temporali che caratterizzano le attività umane. Molti “portali” presenti sul Web sono addirittura pensati con lo scopo di enfatizzare questo aspetto. Gli istituti bancari offrono l’esempio più emblematico: attraverso il Web vengono tenuti aperti 24 ore al giorno sportelli polifunzionali direttamente presso il cliente. Non solo, ma lasciando al cliente le “chiavi” per accedere a svariate funzioni operative, si ottengono nello stesso tempo risparmi sui costi del personale che si trova così sempre meno impegnato a registrare transazioni o a rispondere a richieste informative. Oltre ai vantaggi immediati (per lo più legati alla fidelizzazione del cliente) esistono, in generale nell’e-business, aspetti che toccano ambiti meno evidenti e che possono invece caratterizzarsi come maggiormente significativi: tra questi è senz’altro importante la spinta verso la ridefinizione organizzativa e gestionale che l’apertura di una presenza sul Web determina in una struttura (business process re-enineering) . Se analizziamo come queste trasformazioni intervengano all’interno di organizzazioni impegnate sul fronte dell’istruzione (come scuole, università ed enti privati) vedremo che, anche in questo caso, i livelli coinvolti sono molteplici. L’attivazione di una seria presenza sul Web, potenzialmente, può cambiare molte delle tradizionali modalità con cui l’Ente interagisce con i “soggetti”, ma anche il modo con cui questi finiscono per relazionarsi tra di loro. Come conseguenza di ciò la struttura nel suo insieme vedrà una complessiva variazione dei flussi relazionali e quindi lavorativi. La Rete diventa allora, anche per quelle Istituzioni che credono fermamente nella necessità di mantenere la parte più rilevante delle proprie attività formative legate allo svolgimento presenziale (compresenza degli attori in un dato momento e luogo), fonte di riflessione sulle modalità operative in vista, ad esempio, di una diversa organizzazione dei servizi. In questo senso gli ambiti maggiormente coinvolti dal cambiamento sono essenzialmente quattro: informazione, gestione, didattica e partecipazione. 58 1.1. Informazione I soggetti che ruotano attorno ad ogni istituzione necessitano continuamente di informazioni per poter svolgere adeguatamente i propri compiti. Saranno necessarie informazioni sui luoghi (dove andare per), sulle strutture e le attrezzature, sui tempi (quali orari di apertura), sulle procedure (come fare per), sull’Istituzione stessa (missione, visione, storia, organizzazione, attività formative attivate), sui soggetti e i loro recapiti, sulle iniziative straordinarie (convegni, manifestazioni, ecc.), sulle facilitazioni per soggetti con esigenze particolari (stranieri, handicappati, ecc.), sul territorio (come raggiungerla, quali attività nel tempo libero) e così via fino ad esaudire ogni immaginabile desiderio informativo di ogni possibile tipologia di utenza. Se un servizio informativo on-line fosse in grado di dare questo tipo di informazioni, curando in maniera adeguata l’ergonomia delle interfacce e presentando il tutto in maniera chiara e comprensibile, avrebbe non solo già raggiunto un ottimo risultato come creazione di uno “spazio di coscienza condiviso” al quale ogni soggetto può ricorrere per comprendere il contesto in cui si trova ad agire, ma avrebbe anche ottenuto un notevole risparmio a carico del front-office che solitamente si occupa di rispondere alle richieste del pubblico (portinerie, segreterie, ecc.). Sul piano dell’informazione si pongono dunque le basi a quei possibili sviluppi che potranno portare – attraverso le reti – a definire, per usare le suggestioni offerte da Lévy (1998), nuovi spazi antropologici caratterizzati da maggiore trasparenza e democraticità. 1.2. Gestione La telematica può, più specificatamente, arrivare a modificare il modo in cui le attività vengono “gestite”. Attraverso la disponibilità di strumenti e specifici ambienti realizzati in Internet, carichi di lavoro ed ambiti di responsabilità possono essere ripartiti in maniera più efficace tra i soggetti coinvolti. Il caso dello sportello bancario è in questo senso paradigmatico: “perché impiegare personale aziendale in attività che possono svolgere gli stessi fruitori del servizio?”. L’automazione determina la ridefinizione dei ruoli e il riequilibrio dei compiti consentendo il rinnovamento della modalità di svolgimento di molte attività e il conseguente accesso ai servizi. Qualche esempio può essere fatto immaginando le attività che ogni Facoltà universitaria si trova a svolgere nei confronti degli studenti e che invece possono essere delegate direttamente agli stessi: dal pagamento delle tasse d’iscrizione (transazione sicura con carta di 59 credito) alla redazione autonoma di molti dei dati personali (piani di studio, iscrizione agli esami, richiesta di tesi), dalla visualizzazione del proprio curriculum (esami sostenuti, crediti/debiti formativi, stampa certificazioni) all’accesso ai servizi bibliotecari (consultazione catalogo, prenotazione prestito, lettura testi elettronici). Ma l’automazione coinvolge tutti gli attori del sistema, non solo gli studenti che quindi, interagendo attraverso il Web con il sistema informativo universitario, finiscono per decretarne la trasformazione. In Italia i docenti universitari già partecipano attraverso la Rete ad alcune attività del senato accademico (votazioni, rendicontazioni, ecc.), ma l’automazione potrà presto rendere possibile anche la gestione delle verbalizzazioni degli esami e di altre incombenze burocratiche snellendo così parte del loro lavoro amministrativo. I dipendenti amministrativi delle università, liberati da molti compiti ripetitivi e gestionali, potranno dedicare parte del proprio tempo al miglioramento dei servizi ed allo studio di nuove pratiche organizzative e gestionali, mentre già da oggi in molte realtà è per loro possibile l’accesso attraverso i computer alla visione della propria situazione lavorativa (gestione presenze, crediti/debiti orari, gestione ferie, richieste di permessi, ecc.) ridefinendo anche in questo caso i rapporti interni. Insomma in questo ambito, attraverso la possibilità di accedere ai database, si potranno sempre più ottenere semplificazioni del contesto organizzativo con importanti ricadute sul fronte dello snellimento dei tempi necessari per accedere ai servizi. Chiunque abbia frequentato l’università negli anni passati ricorderà come buona parte del proprio tempo fosse investito nella “raccolta” delle informazioni, nell’adempimento di formalità burocratiche e in “viaggi a vuoto” (intesi come lezioni non tenute, ricevimenti e revisioni rinviati, sessioni d’esami senza certezze sul proprio turno, ecc.). In tutti questi casi, sempre più negli anni a venire, un supporto interattivo ben strutturato potrà proficuamente intervenire aumentando la fiducia dell’utenza grazie alla rapida possibilità di accesso alle informazioni richieste. 1.3. Didattica Relativamente alla “didattica”, come detto, esistono molteplici possibili utilizzi delle tecnologie da parte delle Istituzioni impegnate nel settore della formazione: a partire da esperienze di supporto tecnologico ad una didattica che rimane invece presenziale, fino a forme più o meno spinte di didattica a distanza (cfr. Olimpo, Trentin, 1993, p.6). Nella pratica sarà probabile assistere per svariati anni a forme ibride di utilizzo della telematica alternate a forme più classiche di insegnamento anche per 60 motivi legati alla forza della tradizione ed alla resistenza degli apparati burocratici ed economici legati al sistema “scuola-classe-lezione orale” (Calvani, 1994, pp.33-35). In ogni caso le tecnologie, anche se introdotte marginalmente rispetto all’esperienza in aula, potranno supportare gli insegnamenti, ridistribuendo ed alleggerendo il carico di lavoro sia dei docenti che degli studenti. Attraverso la telematica si hanno dei benefici diretti sia nell’organizzazione del tempo e delle modalità di lavoro dei vari soggetti sia, indiretti, sul piano dell’impostazione e dell’erogazione della didattica presenziale (tradizionale) che diventa allora maggiormente distribuita ed efficace. Ogni intervento migliorativo che le tecnologie riescono ad apportare alle modalità operative delle persone coinvolte (docenti, studenti, personale vario) finiranno inevitabilmente per determinare dei miglioramenti nelle pratiche e nelle abitudini di studio negli studenti quali utenti finali dei servizi erogati. 1.4. Partecipazione Uno dei motivi per cui le nuove tecnologie possono efficacemente integrare anche la didattica tradizionale è legato alla disponibilità che queste offrono di ridefinire le comunicazioni interpersonali attraverso il computer (CMC). Si può cioè immaginare lo “spazio” reso disponibile dalla rete come un ambito dove le relazioni sociali preesistenti nel contesto universitario vengono a svilupparsi ed estendersi oltre alle forme convenzionali. Verranno potenziate le interazioni comunicative sia attraverso la liberazione dai limiti geografici e temporali, ma anche grazie ad una diversa possibilità di definire ruoli e forme organizzative e collaborative. Il lavoro svolto in rete, inoltre, consente il formarsi di spazi di conoscenza condivisa (knowledge base), con forti implicazioni anche sul piano dell'identità personale e collettiva (Olimpo-Trentin, 1993; Harasim, 1995; White-Weight, 1999; Calvani-Rotta, 1999) oltre che sul piano dell’organizzazione sociale e comportamentale (Bagnara, 1995). Le possibilità comunicative offerte dalla rete sono infine alla base di forme di apprendimento collaborativo particolarmente efficaci (Palloff-Pratt, 1999; Trentin 1998, 1999; Kaye, 1994; Rowntree, 1988). Strumenti quali la posta elettronica, i Web-forum e gli ambienti di chatting rendono disponibili degli spazi che possono essere intenzionalmente (ed efficacemente) progettati per assistere la preparazione della “comunità che apprende”, ma che possono essere autogestiti in maniera creativa per scopi anche divergenti dalle finalità dell’Ente. Del resto attorno alle istitituzioni scolastiche, al loro modo di funzionare ed alla 61 capacità che queste hanno di rispondere ai problemi della gente, da sempre si attivano iniziative aggregative spontanee o eterodirette. Ai luoghi di incontro tradizionali, biblioteche, circoli, bar, associazioni, si affiancano oggi nuovi spazi di incontro e di condivisione: dalle bacheche studentesche rivolte allo scambio di esperienze e materiali (compresi la vendita di libri e dispense o l’offerta di una casa in affitto da condividere), agli spazi dialogici di partecipazione democratica (gestiti dalle associazioni studentesche o dai movimenti politici giovanili), fino ai luoghi delle offerte formative alternative e/o a supporto di quelle canoniche (vedi le varie scuole di recupero e di supporto alla preparazione degli esami). All’interno di questi “luoghi di incontro” in rete, siano essi istituzionali o non, il gruppo produce estensioni alle attività formative che intervengono a supportare i partecipanti ed a colmare, spesso in maniera creativa, le carenze del sistema. 2. La formazione in rete Oggi la formazione a distanza sta imponendosi soprattutto nei contesti dell’educazione degli adulti (e in modo particolare in ambito aziendale), nell’ambito dell’aggiornamento professionale e in alcune tipologie di insegnamento universitario (come ad esempio nei settori delle Nuove Tecnologie). In un periodo storico in cui lo sviluppo socio-economico ha determinato una crescente esigenza di istruzione negli individui e nei lavoratori, il tradizionale percorso “istruzione-lavoro-pensione” si sta progressivamente ridefinendo sotto la forma di ciclici periodi di alternanza “formazione-lavoro” ai quali le tradizionali istituzioni educative non sono preparate a far fronte. Si assiste quindi all’aumento delle agenzie formative ed all’introduzione di forme atipiche di istruzione. La formazione a distanza viene in questo senso spesso vista come complementare alla didattica tradizionale. Nel settore formativo manageriale, come riportato da Serio e Melgrati (2000, p.44) le varie esperienze presenti sul mercato internazionale19 sono accomunate dalla combinazione dei due metodi: la formazione a distanza viene cioè affiancata da periodi residenziali nei campus universitari o comunque da formazione classica (aula, seminari) Nelle forme miste (presenza-distanza) vengono enfatizzati i vantaggi di entrambi i metodi formativi. Il distance learning “puro” sembra mostrare i propri limiti nell’incapacità di sostituire completamente la relazione tra formatore e discente e nella verifica delle possibilità di 62 trasferimento della teoria nella pratica: in questa ottica nel caso delle business school “vengono organizzati momenti in cui il partecipante deve partecipare a role playing, simulazioni, business game, ma anche lezioni in aula in cui l’elemento importante rimane in ogni caso la vicinanza al docente” (Serio-Melgrati, 2000, p.45). Similmente nel panorama formativo italiano post-lauream è facile constatare come la quasi totalità dei Corsi di Perfezionamento e dei Master vengano proposti dagli atenei in forme che combinano variamente la “presenza” alla “distanza”. I vantaggi della formazione a distanza sono soprattutto legati all’esigenza di riduzione dei costi, ma si ricorre alla FaD anche perché è in grado di rispondere in maniera flessibile al crescente bisogno di formazione delocalizzata e detemporalizzata (“a la carte”). Le tecnologie presentano anche dei vantaggi quali la capacità di determinare forme di istruzione che vengono percepite dai discenti come maggiormente democratiche e partecipative. In particolare le tecnologie impiegate nella così detta FaD di terza generazione20, basandosi sull’uso estensivo della collaborazione tra discenti all’interno di una classe virtuale, stanno dimostrando come sia possibile il passaggio dalla tradizionale relazione educativa monodirezionale (docente-discenti) al reticolo di relazioni di apprendimento attraverso l’allestimento di anfiteatri tecnologici in grado di rendere possibile la “costruzione cooperativa delle conoscenze” sulla scorta di modelli ampiamente descritti in ambito costruttivista come quello delle comunità di apprendimento (Brown-Campione, 1990; Ligorio 1994), e dell’apprendistato cognitivo (Collins-Brown-Newman, 1995). Nelle figure 1 e 2 sono rappresentati, i due modelli estremi: l’impostazione didattica tradizionale che vede il docente come l’unico depositario della conoscenza e l’impostazione favorita dalla FaD di terza generazione in cui il reticolo di relazioni determina anche la possibilità di forme negoziali di apprendimento tra i pari. 19 Tra le realtà citate: Aston Business School, Bradford Management Centre, University of Durham, Warwick Business School, University of Cambridge, Henley Management College, Cardean University, Fuqua Business School, Fordham University, Pace University, University of North Carolina, ecc. 20 Se la prima generazione di Formazione a distanza era basata sull’invio di materiali prevalentemente per corrispondenza , l’impostazione detta di seconda generazione sfrutta le tecnologie per irradiare i materiali didattici (broadcast). Un tipico esempio è la trasmissione televisiva di lezioni, ma anche l’uso di siti Internet, affiancati o meno da posta elettronica o bacheche, per la diffusione di materiali didattici . La FAD di terza generazione non sfrutta tanto nuove risorse tecnologiche, né del resto si mette in aperta contrapposizione con l’impostazione della FAD di seconda generazione, con la quale si può proficuamente integrare, quanto introduce un approccio all’apprendimento basato sulla costruzione sociale della conoscenza (Trentin, 1998, 1999). 63 Doce Doce Allie Alli Alli Fig. 1 - Rapporto educativo tradizionale Allie Allie Alli Fig. 2 – Rapporto educativo “orizzontale”, attivato ad es. nella FaD di terza generazione Le tecnologie introducendo peculiari modalità interattive sono dunque in grado di “contagiare” anche la didattica tradizionale (frontale e presenziale) facilitandone l’evoluzione verso un modello più flessibile in cui la capacità di determinare gli apprendimenti sia maggiormente distribuita all’interno del gruppo dei discenti. 3. Un esempio di ambiente a supporto della didattica Contrariamente a quanto si potrebbe spontaneamente pensare le tecnologie telematiche si affermano nella formazione non tanto quali algidi strumenti a servizio di una visione “trasmissiva” ed impersonale dell’insegnamento, quanto come veri e propri luoghi dove individui o gruppi di persone sono in grado di costruire in maniera creativa le conoscenze di cui necessitano. Un caso particolarmente eloquente dal punto di vista delle tecnologie quali ambienti di condivisione delle conoscenze e di ridefinizione delle modalità lavorative, è stato studiato nell’ambito del nuovo Corso di laurea in Scienze della Formazione Primaria, all’Università di Firenze21. Nell’organizzazione didattica di questo corso di studi rivolto ai giovani che aspirano alla professione di insegnante del ciclo scolastico materno e primario sono previsti dei momenti di tirocinio che gli studenti compiono, sotto la supervisione di tutor, presso scuole materne ed elementari convenzionate con l’Università. Le tecnologie sono qui state introdotte per migliorare le relazioni interne ed esterne al gruppo dei tutor supervisori dei tirocini. Questi si trovano ad operare in un ambito altamente problematico sia perché la normativa in questione è poco esplicativa, sia perché è per loro necessario interagire con una pluralità di referenti che si muovono in contesti e con finalità diverse, ovvero in una “dimensione sistemica” scarsamente integrata. Per l’allestimento dei tirocini i tutor devono districarsi in un fluido reticolo relazionale all’interno del quale è spesso presente la possibilità che si generino 64 defezioni ed incomprensioni. In primo luogo sono problematiche le relazioni con le scuole e gli insegnanti accoglienti: si tratta di realtà scolastiche di un diverso ordine, disperse sul territorio regionale e che non presentano apparenti vantaggi dall’aderire come partner al sistema dei tirocini. Sono quindi problematiche le relazioni con le segreterie amministrative di entrambi gli istituti (Università e scuole) con tutta la mole di documentazioni che devono seguire il tirocinio di ogni studente. Sono infine tesi i rapporti all’interno del Corso di laurea dove spesso i docenti vedono nei tutor e nei tirocini dei “pericolosi” sottrattori di risorse attentive e temporali. In questa esperienza l’ambiente tecnologico si pone come uno spazio di cooperazione e gestione per le attività interne alla comunità dei tutor e costituisce una Fig. 3. Il “portale” sul tirocinio finestra di informazione e raccordo per tutte le interazioni esterne. Gli strumenti operativi, che si sono concretizzati in una interfaccia Internet22 ed una Intranet rivolto al “sistema sul tirocinio” (Fig. 3), hanno privilegiato tre dimensioni principali: a. informazione ovvero la possibilità di alleggerire e sostenere le attività formative e didattiche rendendo disponibili “on-line” materiali, informazioni e strumenti; b. cooperazione spazio a supporto della condivisione e creazione di ambiti di conoscenza collettiva da realizzarsi in un ambiente riservato ai soli tutor; c. gestione, principalmente burocratica e amministrativa, ossia un insieme di strumenti in grado di definire e supportare le dinamiche organizzative. L’aspetto più significativo di questa esperienza risiede nell’apporto che questo ambiente polifunzionale è riuscito a dare alla comunità di pratiche condivise23 21 L’esperienza descritta, è stata coordinata dal prof. Antonio Calvani, quale responsabile locale del Progetto di ricerca 40% 1999: “Modelli e prototipi di didattica multimediale ed interattiva per la formazione a distanza degli insegnanti” (responsabile nazionale: Prof. L. Galliani). 22 L’indirizzo Internet è: http://www.scform.unifi.it/tirocinio 23 Il concetto di “communities of practice” (cfr. Pontecorvo, Ajello, Zucchermaglio, 1995), si è affermato nella letteratura nordamericana soprattutto nell’ambito della psicologia culturale e delle organizzazioni, e successivamente ripreso in scienze dell’educazione, per indicare quei gruppi lavorativi caratterizzati da 65 rappresentata dal gruppo dei tutor. Il gruppo, continuamente sotteso tra l’esigenza di definire il proprio ruolo (e quindi consolidare la propria identità) e quello di relazionarsi con efficienza nei confronti degli altri attori del sistema siano essi studenti, docenti o personale amministrativo, trova nel supporto tecnologico sia il luogo di incontro (principalmente comunicativo), che il luogo di conservazione e sedimentazione delle esperienze svolte (la “knowledge base”). Le nuove tecnologie, sono quindi al contempo artefatti in grado di potenziare le interazioni comunicative, con la liberazione dai limiti geografici e temporali, ma anche gli strumenti in grado di determinare forme innovative di organizzazione e collaborazione. La rete concretizza cioè lo “spazio” dove all’incontro sporadico tra persone impegnate in uno stesso lavoro possa seguire la sedimentazione e la continua rielaborazione di saperi comuni, diventando così il supporto per il miglioramento della preparazione individuale e per il supporto reciproco. Da questo ne conseguono benefici in termini di qualità delle prestazioni erogate e del livello di soddisfazione e automotivazione dei singoli attraverso il supporto di quella che finisce per essere una vera e propria comunità. aggregazione informale intorno ad obiettivi comuni, con una forte capacità di condivisione delle conoscenze e dotati di peculiari modalità di interpretazione e socializzazione delle esperienze. 66 4. Bibliografia Bagnara S. (1995), Interfacce nella comunicazione pubblica, in Catanzaro R, Ceri P. (a cura di), Comunicare nella metropoli, Torino, UTET, pp.121-133. Brown A.L., Campione J.C. (1990), Communities of learning and thinking: Or a context by any other name, in “Human development”, n.21, pp. 108-125. Calvani A. (1994), Iperscuola. Tecnologia e futuro dell’educazione, Padova, Franco Muzzio Editore. Calvani A., Rotta M. (1999), Comunicazione e apprendimento in Internet. Didattica costruttivistica in rete, Trento, Erickson. Collins A., Brown J.S., Newman S.E. (1995), L’apprendistato cognitivo. Per insegnare a leggere scrivere e far di conto , in Pontecorvo, Ajello, Zucchermaglio, I contesti sociali dell’apprendimento. Acquisire conoscenze a scuola, nel lavoro, nella vita quotidiana, Milano, Ambrosiana, pp.181-231. Colorni A., Sancassani S. (2000), Esperienze applicative al Politecnico di Milano, in Biolghini D., Cengarle M., Net Learning. Imparare insieme attraverso la rete, Milano, ETAS Libri. Harasim L. (1995), Learning networks: a field guide to teaching on learning online, Cambrige, MIT Press. Kaye A. (1994), Apprendimento collaborativo basato sul computer, in “TD” n. 4 - autunno 1994, pp. 9-27. Lévy P. (1998), Intelligenza collettiva. Per un’antropologia del cyberspazio, Milano, Feltrinelli (ed. orig. 1994). Ligorio B. (1994), Community of Learners. Strumenti e metodi per imparare collaborando, in “TD”, n.4, autunno 1994, pp. 22-35. Olimpo G., Trentin G. (1993), La telematica nella didattica: come e quando. Un’analisi dei possibili ruoli e significati che la telematica può assumere nei differenti momenti della didattica, in “TD” n. 2 - Autunno 1993, pp.4-17, disponibile in Internet all’indirizzo: http://paradiso.itd.ge.cnr.it/td/td_fr.htm Palloff R., Pratt K. (1999), Building learning communities in ciberspace, San Francisco, JosseyBass. Pontecorvo C., Ajello A.M., Zucchermaglio C. (1995), I contesti sociali dell’apprendimento. Acquisire conoscenze a scuola, nel lavoro, nella vita quotidiana, Milano, Ambrosiana. 67 Rowntree D. (1988), Insegnamento e apprendimento in rete: la didattica per corrispondenza del XXI secolo?, in Midoro V. (a cura di), Argomenti di tecnologie didattiche, Menabò, Ortona. Serio L., Melgrati A. (2000), I sistemi di formazione: modalità di integrazione tra formazione tradizionale e a distanza, in Mattei M.G. (a cura di), EduNet. Seminari, incontri e attività di formazione, Atti dei convegni di SMAU 2000, Milano, [print on demand], pp.42-47. Trentin G. (1998), Insegnare e apprendere in rete, Bologna, Zanichelli. Trentin G. (1999), Telematica e formazione a distanza, il caso Polaris, Milano, Angeli. White K. W., Weight B. (1999), The online teaching guide: an handbook of attitudes, strategies, and techniques for the virtual classroom, Needham Heights, MA, Allyn and Bacon, Inc. 68 PROBLEMI LEGATI ALL’USO SPECIFICO DI INTERNET Cesare Grasso24 Abstract Spesso i motori di ricerca rispondono alle interrogazioni con miriadi di proposte, fra siti e pagine web fra le quali appaiono tante ripetizioni. Il portale ideale dovrebbe saper riconoscere le risposte identiche e ricondurle ad una sola. L’idea del “preferiti” molto intelligente perché marca una serie di punti fermi nella rete. Spesso capita di perdere il link, il sito è sparito, si è spostato, ha cambiato indirizzo, è andato perso. E’ il fenomeno del link-rot. In particolare vengono illustrate esperienze di uso nei siti di trading on line. Parole chiave Portali, Utenti, Knowledge Management Often the search engines answer queries with a myriad of proposals, among web sites and pages in which appear many repetitions. The ideal portal world know how to recognize the identical answers and reduce them to only one. The idea of very intelligent "preferences" because it indicates a series of online fixed points. It often happens that one loses the link, or the site has disappeared, or it has moved, or it has changed address, or it has been lost. This is the phenomenon of link-rot. In particular experiences of use of sites for online trading are illustrated. Key words Portals, User's point of view, Knowledge Management Esaminerò le problematiche che affronto quotidianamente utilizzando Internet. Spesso i motori di ricerca rispondono alle interrogazioni con miriadi di proposte, fra siti e pagine web, fra le quali appaiono tante ripetizioni; morale: la ricerca si rivela inutile perché le risposte sono troppo numerose e devo cambiare key-word. Il portale ideale dovrebbe saper riconoscere le risposte identiche e ricondurle ad una sola. 24 Studente di economia e commercio, [email protected] 69 Trovo l’idea del “Preferiti” molto intelligente perché marca una serie di punti fermi nella rete: è come gettare una boa in alto mare, potrai sempre farci riferimento. Spesso mi capita però di tornare alla boa e di non trovarla più, il sito è sparito, si è spostato, ha cambiato indirizzo, è andato perso. E’ il fenomeno del link-rot, ovvero la rottura del legame tra bookmark e sito. Costruirsi personalmente un bookmark è utile ma molto complesso e richiede molto tempo, perché deve essere continuamente aggiornato. Esistono programmi di gestione automatica del BM che permettono un aggiornamento immediato dei link, ma quando il bookmark si fa consistente i problemi ritornano. Per quanto riguarda il trading on line. Un trader come me (a meno che non si tratti di un day-trader) segue il comportamento di un pacchetto limitato di titoli azionari per giorni, settimane, mesi per conoscere a fondo il proprio investimento: vuole conoscere molto bene i titoli preferiti e vuole seguirli giorno per giorno; deve sapere tutto di loro, grafici storici, news, capovolgimenti, prestazioni e deve avere tutto sott’occhio per potersi fare un’idea della situazione. Ma contemporaneamente si disinteressa degli altri titoli di borsa. I portali di trading, ad oggi, catalogano le miriadi di informazioni che forniscono seguendo dei contesti sbagliati (es. compra-vendi, grafici, news, contatti, forum); questi elementi di analisi sono nella maggior parte dei casi completi e interessantissimi, ma vengono distribuiti nel sito in pagine e ambiti differenti e non raccolti in relazione al titolo. Ne consegue che per farsi un’idea dell’andamento di un titolo bisogna saltare di pagina in pagina. Questo è evidentemente un problema di organizzazione del sito che dovrebbe essere improntata più all’utilizzo pratico e specifico della categoria di utenti. Si dovrebbe dare la possibilità all’utente di personalizzare il sito, dandogli modo di escludere dall’utilizzo quotidiano quelle informazioni che non desidera. Il trading (la Finanza democratica) sta diventando un fenomeno molto rilevante (si parla di 7,5 milioni di utenti nel 2002, più del doppio nel 2004). Probabilmente sarebbe il caso di affrontare il problema dell’attendibilità delle informazioni distribuite dalle SIM (Società d’Intermediazione Mobiliare), oltre che della disponibilità. La Legge italiana salvaguarda l’investimento privato in molte forme e in diversi contesti, sarebbe auspicabile quindi la nascita di siti ufficiali, gestiti dal Ministero delle Finanze che mettano a disposizione, gratuitamente, informazioni, altrimenti difficilmente reperibili dal privato, come i bilanci aziendali, per assisterlo in questa nuova forma di investimento. 70 La scarsa fiducia nelle transazioni finanziarie, nel commercio via Carta di Credito, nel trasferimento di informazioni personali. Il problema della manipolazione delle informazioni, dovuto alle incompatibilità di formato fra sistemi: .jpg, .wav etc…Accade di non poter manipolare il grafico scaricato, la foto o il file, e non sempre il sito mette a disposizione il software necessario per la conversione. Illogicità nella ricerca: molti siti risultano irraggiungibili perché i link da seguire sono illogici, quasi dei misteri. Se non conosci i segreti che celano e senza una mappa del sito, avvolte è impossibile raggiungere il sito desiderato. 71 72 PRINCIPI DI PSICOLOGIA COGNITIVA NELLA PROGETTAZIONE DELLE INTERFACCE Anna Sette25 Abstract Prestazioni mentali non omogenee, mappatura del mondo per contrasti, campo visivo limitato: questi alcuni dei processi cognitivi e dei limiti fisici dell’uomo tenendo conto dei quali disegnare un’interfaccia web. L’eccesso di informatività o novità nella pagina disorienta l’individuo che non riesce più a capire quali informazioni sono importanti: perché l’informazione sia affidabile occorre rispettare alcune regole di buon design: valutare a monte l’importanza della notizia e collocarla in modo opportuno nella pagina; impostare un layout corretto che evidenzi le notizie importanti; non mettere nella pagina troppa informazione; dare sempre un feedback per guidare l’utente. Parole chiave Utenti, Portali, Strategie di ricerca Different mental performances; the world built by view of contrasts, a limited field of vision: these are some of the cognitive processes and physical boundaries of men which must be kept in mind while designing a web interface. An excess of information or news on the page confuses the individual who can no longer understand which information is important: for the information to be reliable, some rules of good design must be respected: first evaluate the importance of the news and then arrange it in an appropriate way on the page; design a good layout that divides important news from other not so important; do not put too much information on the page; always give feedback to guide the user. Keywords Users, Portals, Searching strategies 1.Un controllo di autorità per il web Partiamo dall’ipotesi, ovvia ma non banale, che nel web, come per la carta, sia necessario sottoporre l’informazione ad un controllo di autorità. Allo stesso controllo 73 che ufficializza il dato e lo rende affidabile, deve essere sottoposto l’editing del sito, del portale nel nostro caso: è possibile che una veste grafica particolare - che risponda a criteri prestabiliti - renda l’informazione ufficiale? Ovvero: la grafica, la struttura della pagina web ha una valenza semantica? Io rispondo senza dubbio sì. 2.Usabilità e cognizione umana Un portale è un sito che offre un ventaglio di servizi e contenuti che copre tutti i media presenti in rete (chat, posta elettronica, e-commerce, strumenti di ricerca, orientamento e selezione per il web, possibilità di creare una propria pagina web…): in generale tramite un portale è possibile individuare una comunità di utenti e raccogliere dati su di loro (a un portale, difatti, ci si iscrive). In rete vi sono portali più o meno accessibili: con accessibilità intendo la possibilità di usare un portale in modo corretto sfruttandone al meglio le potenzialità, senza perdere il tempo che esso promette di farci risparmiare, senza dover fermarsi a capire come il portale funziona ed orientarsi in esso. Quali considerazioni, volendo raggiungere l’accessibilità o, se si vuole, una reale usabilità, devono guidare l’impostazione grafica cioè la disposizione dell’informazione nello spazio? 1) le prestazioni mentali (capacità di concentrazione, capacità di memorizzazione, attenzione ecc…) dell’uomo non sono omogenee nel tempo: è interesse del progettista del sito mantenere il livello di attenzione dell’utente il più alto possibile per la maggior parte del tempo possibile. 2) l’uomo costruisce una mappatura del mondo seguendo i contrasti: contrappone, cioè, aree a bassa informatività con aree ad alta informatività e per costruirsi un’immagine pone sullo sfondo gli elementi a bassa novità mentre in primo piano, al centro della sua attenzione, l’area ad alta novità. La limitatezza delle prestazioni mentali e la peculiarità dei processi cognitivi umani fanno sì che interfacce ad altissima novità mandino in tilt l’utente: pone tutto sullo sfondo non riuscendo a riconoscere le cose importanti e agisce in maniera casuale nell’interrogazione. E’ importante quindi: a) valutare a monte l’importanza della notizia per darle nella pagina la rilevanza adeguata (se la notizia è importante occorre metterla al centro della pagina, mentre le 25 Studentessa di scienze della comunicazione 74 informazioni meno urgenti stanno in periferia) e così impostare un layout corretto che distingua le notizie più rilevanti da quelle che lo sono meno. b) una notizia in periferia (nella pagina e quindi alla periferia del nostro campo visivo) è vista più difficilmente e richiama l’attenzione solo se è in contrasto o in movimento. Ma bisogna ricordarsi che lucette intermittenti, scritte scorrevoli, grafiche diversificate, immagini in movimento, affaticano la mente e vanno ad interferire con la capacità di concentrazione e attenzione. c) non mettere troppa informazione nella pagina: se la novità è troppa, l’attenzione in qualche modo si interrompe e l’utente comincia ad agire in maniera casuale, senza tenere conto delle priorità, senza riuscire a valutare l’importanza e la pertinenza delle informazioni trovate. d) è importante dare all’utente un feedback, un segnale di ritorno che lo guidi nella navigazione, dando conferma alle azioni che ha appena svolto. 3.Tnt: un esempio concreto E’ alla luce delle suddette considerazioni che un gruppo di studenti dell’Ateneo senese ha progettato e realizzato un sito per la raccolta, la catalogazione e, ovviamente, la consultazione di tesi e tesine. E’ un sito, non un portale, il che crea meno problemi per quanto riguarda l’editing e le decisioni per quanto riguarda struttura e contenuto, ma è un esempio significativo di come l’impaginazione grafica abbia una valenza semantica e non sia frutto del caso o di considerazioni puramente estetiche. L’indirizzo del sito è: www.media.unisi.it/tnt 1) Home page Perché la linea curva: Il gruppo TNT vuole salvaguardare, nel delineare la veste del sito, l’importanza dell’interattività e dell’interdisciplinarietà in cui lo studente vive creando la sua tesina. La forma circolare riflette bene questa dimensione del lavoro dello studente: interattività tra discipline studiate, interscambio tra studente e studente, tra studente e professore. 2) Mappa dei corsi La mappa dei corsi è uno strumento per tenere nello stesso campo visivo la complessità dei corsi e le relazioni fra essi: i nomi degli insegnamenti sono localizzati per prossimità tematica e sono inseriti in etichette diverse a seconda dell’indirizzo di studi di cui fanno parte. Da qui si sviluppa la navigazione. 75 3) Cliccando su di un corso si scende ad un livello di profondità. Pur essendo ad un livello di profondità diverso, nella pagina figurano ai bordi i circoli che riportano le voci che si trovavano nell’home page. Questo produce un incremento di informazione periferica che permette al visitatore impegnato nella lettura del singolo corso di avere continuamente feedback sul suo posizionamento all’interno del sistema degli insegnamenti. Autore Anna Sette approda a Siena dopo un percorso accidentato per trovare un progetto formativo che si adattasse alle sue esigenze e lo trova, finalmente, nel corso di laurea in Scienze della Comunicazione: un piano di studi eterogeneo e dinamico e, allo stesso tempo, completo. A Siena ha la possibilità di studiare e, allo stesso tempo, coltivare i suoi due principali interessi, leggere e scrivere, facendo esperienze lavorative preziose ed arricchenti: il lettorato per la Sperling & Kupfer e Frassinelli, il corso di composizione di italiano con Raffaele Donnarumma e Daniele Del Giudice, lo scambio sempre vivo con Paola Capitani, la preziosa esperienza con il quotidiano Siena Oggi. Decide di seguire due strade: acquisire le competenze necessarie ad un editore – o meglio, editor – per l’editoria libraria (in particolare quelle necessarie per rivoluzionare tale settore, restio a stare al passo con i tempi); continuare a scrivere, per soddisfare le esigenze di una preponderante creatività che la contraddistingue ed esercitare le capacità espressive con il mezzo che trova più consono, la scrittura, per l’appunto. 76 IL PROBLEMA DELLE INTERFACCE Sergio Cappelli26 Abstract Riflessioni, metodi e suggerimenti per risolvere il problema dalla usabilità e delle interfacce, partendo da una schematizzazione degli attori e dei problemi per individuare i percorsi utili alle soluzioni. Valutare, interpretare, parametrizzare, operare con gli strumenti idonei per effettuare le elaborazioni essenziali e pertinenti nell’orientamento della domanda dell’utente che deve essere condotto, oltre che orientato, nei meandri della rete. Parole chiave Interfacce, Strategies di ricerca, Usabilità A contribution for the definition (or designing) or an interface from one who, designing business documental systems (even for agencies and institutions), desires to enable real experts on the contents (producers and users of documents) to structure in a dynamic way their archives (documents) to be inserted in a portal. The objective is the designing of an instrument which, starting from the normal dynamics of writing, classification, indexing of the documents, allows them to act with direct competence on those documents editing them (in specific format) and thus inserting them in their document data base which has already been prepared for the edition and is in the portal. Key words Key word: Interface, Searching strategies, Usability Si configura (nello schema 1.-) la formulazione del problema per la progettazione di una interfaccia di un portale come il problema di un qualsiasi: soggetto proprietario (produttore e conservatore di informazioni), che si accinge a far parte di relazioni complesse con gli altri elementi del sistema: • Il soggetto utente (operatore ed utilizzatore della rete delle reti) potenziale utilizzatore delle sue basi documentali 77 • i fondi documentali (la complessità fisico/informativa delle basi documentali) che mette a disposizione Si verificano i noti conflitti (non necessariamente relazionati 1 a 1) fra: • il bisogno di informazioni da parte di un utente e la complessità della (non) struttura reale o potenziale dei documenti; • la necessità di mettere a disposizione la conoscenza delle fonti e la resistenza alla loro acquisizione e disponibilità; • l’attesa alle domande ed alle interrogazioni che vengono formulate ed il tempo della navigazione necessaria per acquisire, nella sicurezza della esistenza di informazione disponibile, quella risposta che soddisfi gli specifici bisogni di conoscenza; conflitti dei soggetti utenti che anche come operatori, chiamano in causa: • le modalità di produzione dei documenti (le fonti), la strutturazione (reale o potenziale) delle basi documentali (gli archivi); • la modalità di comunicazione interna che interessa non solo l’uso della rete Web; • le modalità di utilizzazione (accesso ed utilizzo) finalizzato delle basi documentali, che sono ricche, troppo ricche di dati, che sono da leggere come fonte di informazioni che debbono essere sicure, efficaci, fruibili. Su questa impostazione una interfaccia si può considerare indifferentemente: • uno strumento semplice nella sua utilizzazione che relazioni l’idea del bisogno con la formulazione di un possibile percorso (flessibile) di ricerca, memorizzabile; • un documento virtuale, complesso nella sua funzione, che consenta la compresenza dei documenti omogenei per contenuto ricercati ed individuati (so cosa ho trovato e dove); • una memoria potenziale aperta al mondo della informazione: (ri)acquisisco ciò che ho trovato attraverso la storiografia della ricerca. 26 Camatsistemi, Lago d’Orta www.camasistemi.it [email protected] 78 ??? proble comples bisogni resisten fonti attesa di risposta conosce nza produzione comunicazion e fondi docume ntari ??? Sgt.Utenti (operatori/utilizzat ori) Sgt.Proprietari (produzione/conservazione) 79 il Soggetto Utente/operatore si pone nei confronti di una interfaccia nella condizione di: • disporre di uno strumento che consenta di fare una attenta valutazione dei bisogni e di trovare una risposta al rapporto fra informazioni potenzialmente usufruibili e documenti reperiti. • valutare gli scostamenti in funzione della impostazione della finalità della ricerca e della disponibilità di fonti appropriate. • parametrizzare il rapporto ad un equilibrio che lo soddisfi: se non ha le informazioni necessarie a fronte dei documenti reperiti (<1) possa dinamicamente impostare la gestione delle fonti; se dispone di molte informazioni in modo caotico nei confronti dei documenti reperiti (>1) possa ridefinire dinamicamente le sue finalità; • interpretare, attraverso la produzione di un documento virtuale, il livello di soddisfazione ai propri bisogni (qualità e numero di documenti reperiti e le fonti rese disponibili). Gli scostamenti devono essere superati gestendo con l’interfaccia le fonti se si ha scarsità di documenti o riclassificando i bisogni se si ha abbondanza ed inomogeneità di documenti. Questa gestione deve essere supportata dagli operativismi che, offerti dalla interfaccia siano: la sintesi funzionale di aspetti logistici, linguistici e documentali per il trattamento dei documenti che vengono messi, in modo enciclopedico, a disposizione di un utente non esperto; l’espressione della utilizzazione inconsapevole (da parte dell’utente) di tecniche di gestione documentali avanzate che assommano metodologie di analisi dei bisogni informativi e di ricerca, utilizzazione, ricovero dei documenti. • operare in modo semplice ma completo. La maschera per il carico dei dati deve poter esprimere da un lato la struttura dei bisogni e interpretare dall’altro la corrispondenza delle informazioni ricercate da utilizzare: 80 l’insufficienza di documenti ricercati nei confronti della esigenza di informazione (struttura della ricerca) può dipendere dalla scarsezza di fonti rese disponibili, dalla ricerca impostata male o dalla struttura della maschera che non consente di definire e strutturare i bisogni; la ridondanza di documenti reperiti pone problemi di gestione della complessità e della non omogeneità dei documenti acquisiti e di ridefinizione dei bisogni per eliminare il rumore. 81 ??? Stato di … relazio informazione documento Valutazione dei bisogni documento documento virtuale Impostazione gestionale documento virtuale informazione Attività di Input/output Soggetto utente < 1 gestire le fonti = 1 soddisfazione/obiettivo > 1 (ri)definire le finalità < 1 rumore nelle fonti indisponibilità del doc.reale = 1 soddisfazione dei bisogni compresenza con doc.virt. > 1 utilizzazione complessa rumore nei bisogni < 1 agire sulle fonti (ri)definire la ricerca verificare la maschera = 1 utilizzazione attiva compresenza doc. virtuale soddisfazione dei bisogni > 1 gestire la complessità eliminare il rumore (ri) definire i bisogni < = > di 1 (bisogni/gestione/attivit à) 82 La complessità del sistema di gestione della conoscenza è evidente. La conoscenza è la consapevolezza dell’utilizzazione, da parte dell’utente, dell’informazione acquisita, qualunque sia stato il ruolo nel processo di comunicazione. In sintesi gli elementi componenti il sistema di gestione sono: • gli elementi che si relazionano alla gestione dei fondi documentali/archivistici: i Soggetti Proprietari dei fondi documentali i Soggetti Utenti (potenziali, istituzionali, …) la Produzione, la Comunicazione (trattamento), l’Utilizzazione dei documenti quali attività del processo di acquisizione documentale. • l’interfaccia quale: Strumento operativo da usare Documento virtuale che simuli la compresenza dei documenti reali Memoria che conservi anche ogni processo specifico di ricerca • l’analisi intellettuale dei bisogni e gli aspetti operazionali per la ricerca e l’utilizzazione dei documenti: la valutazione dei bisogni informativi l’impostazione gestionale: memorizzazione delle attività e delle finalità le attività di input/output prettamente operative • i riferimenti tecnologici di supporto al sistema, quali gli aspetti: logistici propri della integrazione ed interoperatività di strumenti informatici linguistici e propri della terminologia associata a sussidi SW Aspetti documentali (tipologia delle classificazioni) legati alla indicizzazione e codificazione dei documenti da acquisire • gli aspetti organizzativi nel cui contesto si opera, che richiamano le seguenti risorse specifiche: le persone della Organizzazione (semplice o complessa che sia) gli Strumenti e la loro interoperatività funzionale ed operativa 83 i Documenti di una struttura documentale specifica che può essere incrementata dalle attività di ricerca svolte con l’uso della interfaccia. 84 I PORTALI VISTI DA CHI LI USA Cristina Bueti27 Abstract Quasi dieci milioni sono gli italiani che navigano in Internet. Ma la vera domanda è: cosa cerca questo popolo di marinai che rema abitualmente in Internet? La rete è sentita come una risorsa. Il primo problema in cui ci si imbatte è quello di trovare, nell'ambito dei risultati della ricerca, le pagine che davvero collimano con la richiesta iniziale. "Internet è come l'unione di tutte le biblioteche del mondo, dove però qualcuno si è divertito a buttare giù tutti i libri dagli scaffali". Vale a dire: informazioni ce ne sono fin troppe, il problema è trovarle! Parole chiave Utenti, Internet, Knowledge Management Almost ten million Italians navigate on Internet. But the real question is: what are these sailing people who habitually row on Internet seeking? The Web is seen as a resource. The first problem that one encounters is finding the page which truly answers the initial query in the environment of all the search results. "Internet is like the union of all the libraries in the world, where someone has however had a good time throwing all the books off the shelves". That is to say, there is too much information, the problem is finding it! Key words Users, Internet, Knowledge Management Introduzione Quasi dieci milioni sono gli italiani che navigano in Internet, che dal 2000 si possono dire iscritti a pieno titolo all’anagrafe della rete. C’è stata una crescita esponenziale degli italiani surfer, ma anche degli usi e dei costumi dei gusti e delle 27 Studentessa di scienze politiche all’Università di Firenze. [email protected] 85 inclinazioni che l’appartenenza alla cittadinanza “internettiana”richiede o anche suscita. Ma la vera domanda è: cosa cerca questo popolo di marinai che rema abitualmente in internet? La rete è sentita come una risorsa.Un mare dove la gente naviga per agganciare ancore concrete: chi entra in rete non lo fa a caso, ma vuole trovare informazioni, notizie che possano aiutare alla compilazione di una tesina universitaria. Scovare indirizzi, numeri e persone alle quali rivolgersi per sbrigare una pratica d’ufficio, etc. In senso tecnico questa capacità che ha la rete di realizzare i propri progetti di vita, ha forte impatto sulle proprie “intentions”. Esigenze ed aspettative che sarebbero soddisfatte sia nella fascia dei cosiddetti ”internauti evoluti” sia in quella dei surfisti detti basici e persino in quelli che collegati non sono ma che hanno ottimi propositi per farlo al più presto. Forse per la proverbiale carenza dei servizi “reali”, il desiderio dei navigatori italiani è trovare servizi “virtuali” efficienti. Tre grandi categorie descrivono la rete: i portali, le telecomunicazioni e i siti che i navigatori possono scaricare sui propri computer. Ma è una quarta a fare la differenza tra un paese ed un altro: come usano Internet i navigatori. I Motori di Ricerca: sono la risorsa principale a disposizione dell'utente per la ricerca d’informazioni su Internet. Sono grandi archivi di dati, che contengono informazioni dettagliate su pagine Web. Ci sono due principali tipologie di motori di ricerca: i search engines e le directories. I search engines, come AltaVista, Lycos ed Infoseek, censiscono le pagine di un sito ed usano due sistemi per censirle: • il sistema add-url, che permette ad ogni utente di segnalare la singola pagina del sito al motore di ricerca, specificandone l'indirizzo web (definito con la sigla URL). • lo spider, che non è altro che un programma che scandaglia il Web cercando tutte le pagine che riesce a trovare e le registra nell'archivio generale. Le directories sono invece siti strutturati per categorie ed argomenti (ad esempio Yahoo e Virgilio), che riportano un unico riferimento per ogni sito, generalmente corrispondente alla home page. L'inserimento parte da una richiesta di registrazione dell'utente oppure da una recensione dello staff di redattori della directory. Esistono motori per ogni tipo di ricerca: 86 Per argomenti specifici, se ad esempio si cerca il sito di un prodotto particolare che ha un nome ben identificato, la ricerca si concentrerà sui search engines che hanno il database più vasto. Oltre ai noti AltaVista, Excite, Lycos, HotBot e Infoseek, vale la pena di segnalare Arianna per le ricerche sui siti in lingua italiana, e i meta-crawler, i quali effettuano una ricerca contemporaneamente su più motori di ricerca e forniscono un'aggregazione dei relativi risultati. I search engines classici, offrono una serie di funzioni sofisticate e molto utili per specificare nel dettaglio i criteri di ricerca. È così possibile selezionare solo pagine web scritte in una determinata lingua, oppure siti con un particolare dominio, ecc. Per argomento generico: se si desidera trovare i siti che parlano di quell'oggetto particolare o tutti i siti che parlano di una materia o disciplina. Fanno parte di questo tipo di motori di ricerca, denominati directory, Yahoo e Virgilio. Su queste directory sono anche presenti dei veri e propri spazi monografici e canali tematici, spesso corredati da servizi accessori (mappe, itinerari, ecc.). Da notare che anche sui search engines tradizionali, sono presenti delle directory. Come usare al meglio i motori di ricerca • circoscrivere la ricerca analiticamente usando più di un termine, oppure allargare la ricerca con altri motori di ricerca. • usare gli operatori. Uno di questi è l'apice ossia il simbolo ‘ da utilizzare quando si ha bisogno di cercare una coppia di parole da considerare come una sola, ad es. "New York". Da qui una prima precisazione: nei motori di ricerca sono memorizzati i singoli documenti che compongono un sito Web, ed è quindi possibile che un determinato sito Web sia riportato numerose volte, in relazione al numero di pagine di cui si compone. L'inserimento delle pagine Web negli archivi dei motori di ricerca, può avvenire in due modi: sia attraverso la registrazione manuale da parte dell'utente (il responsabile del sito ad esempio), sia in modo automatico attraverso un particolare software che riesce a visitare milioni di siti Web al giorno, inserendo le nuove pagine ed aggiornando le informazioni su quelle già censite. Attraverso tale funzione, i motori di ricerca mantengono un archivio aggiornato, anche se nessuno riesce (né riuscirà mai) a classificare l'intero Web. Per ogni pagina Web censita i motori di ricerca memorizzano gran parte del testo in essa contenuto, in 87 modo tale che, ad ogni ricerca dell'utente, viene presentata una lista delle pagine Web dove figurano le parole che interessano. L'utilizzo dei motori di ricerca è molto semplice. Occorre solo digitare i termini relativi all'argomento che interessa ed in pochi secondi si ottiene un elenco di pagine Web che contengono le parole richieste. Il primo problema in cui ci si imbatte è quello di trovare, nell'ambito dei risultati della ricerca, le pagine che davvero collimano con la richiesta iniziale. E se da una parte il modo con il quale si immettono le parole chiave è determinante, dall'altro è evidente come fra le pagine Web coerenti con gli interessi della ricerca, siano presentati anche documenti non attinenti. "Internet è come l'unione di tutte le biblioteche del mondo, dove però qualcuno si è divertito a buttare giù tutti i libri dagli scaffali". Vale a dire: informazioni ce ne sono fin troppe, il problema è trovarle! In ogni caso un uso adeguato dei motori di ricerca consente di orientarsi in questo mare di informazioni che, vale la pena di ricordarlo, non riguarda solo pagine Web, ma anche i cosiddetti Newsgroup, ossia liste di discussione pubbliche su argomenti specifici. Un'altra caratteristica dei motori di ricerca è che il loro uso è totalmente gratuito, così come la registrazione delle pagine negli archivi, e questo nonostante i massicci investimenti necessari per creare un simile servizio. La ragione sta nel fatto che, nelle pagine che vengono presentate all'utente, compaiono annunci pubblicitari (i banner) attraverso i quali le società che gestiscono i motori di ricerca traggono i loro ricavi. Recentemente, oltre ai banner pubblicitari, alcuni motori di ricerca hanno sviluppato altre forme di business mediante accordi con aziende specializzate. Il più noto è quello che coinvolge società che vendono libri attraverso il Web: appena un utente fa una ricerca, viene spinto a spostarsi sul sito del fornitore di libri per verificare se esiste un testo relativo all'argomento della sua ricerca. In questo caso, il motore di ricerca percepisce una commissione sull'eventuale acquisto scaturito per mezzo del suo sito, oltre comunque a dei compensi a titolo di pubblicità. É opportuno segnalare infine, una tipologia differente di motori di ricerca, le directory. L'esempio più noto di directory è rappresentato da Yahoo, il più popolare sito Web in assoluto. Chiamarlo Motore di Ricerca è improprio, in quanto classifica solo i singoli siti, indipendentemente dalle pagine in esso contenute, raggruppandoli per tipologia e permettendo all'utente di effettuare una ricerca partendo da macro-categorie, per poi approfondirla in base ad una struttura "ad albero". Altra differenza di Yahoo! da 88 altri motori di ricerca è che l'inserimento di un nuovo sito può avvenire solo manualmente ed è sottoposta a verifica del personale dell'azienda. Il motore del 2000 Sulle ultime versioni di Explorer e Netscape, invece di scrivere l'indirizzo web per esteso, è sufficiente scrivere una frase di più di due termini ed il browser lancia una ricerca effettuata in base al testo digitato. Questo è un trend che vede aziende come Microsoft o America On Line puntare a far diventare i programmi di navigazione, o le interfacce per il collegamento alla Rete, come una specie di motore di ricerca camuffato. Anche perché si sono accorti che il 50% degli utenti mantiene la pagina iniziale standard del proprio programma di navigazione fornito col computer e di conseguenza usa la relativa funzione di ricerca. Le ricerche sulla Rete, saranno comunque sempre più complesse: l'aumento vertiginoso della quantità di informazioni e dei documenti disponibili rende necessaria la nascita di strumenti di ricerca specifici. Già oggi iniziano a comparire dei software specializzati che, nelle versioni più sofisticate, fungono da "agente intelligente" che analizza la rete, non solo in base a parole chiave, ma a concetti sempre più perfezionati. Da segnalare, infine, la presenza di aziende alle quali è possibile commissionare delle ricerche sulla Rete (la più nota si chiama HumanSearch) e che in futuro saranno sempre più utilizzate. Università: grandi passi avanti sono stati fatti nell’arco di quest’anno, solo l’anno scorso eravamo qui a lamentarci delle mancanze di quest’Ateneo che sicuramente gode d’ottima fama da un punto di vista didattico, ma non altrettanto si poteva dire per quanto riguarda i servizi offerti agli studenti. Le ultime iniziative avviate in campo informatico riguardano proprio tutti, dagli studenti ai docenti. Sono stati organizzati corsi che forniscono strumenti di base per cercare nella rete Internet informazioni bibliografiche. I docenti, oltre al loro orario di ricevimento, molto spesso rispondono agli studenti tramite e-mail, e gli studenti sono obbligati ad internettizzarsi. Internet è stato anche sfruttato per permettere agli studenti di accedere, con più facilità, a tutte quelle informazioni che prima avrebbero richiesto code interminabili in segreteria, quali: consultazioni dati studenti, reddito, iscrizione ad esami. Nonostante i risultati raggiunti, i servizi messi a disposizione sono insufficienti rispetto al numero degli studenti. 89 Voto on line: come studentessa di scienze politiche vorrei segnalare un’iniziativa che ho apprezzato molto, indipendentemente dal partito che l’ha effettuata. E’ stata trasferita in rete una parte della vita del partito e hanno voluto sperimentare “in vivo”come funzionano una volta trasferiti nel virtuale i meccanismi del dibattere, votare e dell’eleggere rappresentanti. Sono state pubblicate da alcuni studenti californiani anche interessanti relazioni su come funziona la politica in rete. Internet comincia a costruirsi una dimensione della politica, non solo come esercizio di idee e di comunicazione, ma anche di decisione. Problemi: • Grafica: bisognerebbe incentivare chi realizza i siti Internet a non costruire siti “attraenti” con molte immagini che rallentano i tempi di attesa bensì alla semplicità estetica e alla rapidità di lettura. Il suggerimento non va necessariamente esteso a tutte le pagine di ogni sito web ma può limitarsi alla home page, ciò per due motivi: • Rispetto verso l’utente, nel senso che l’utente viene aggredito da questo vortice di immagini animate, spesso inutili, alla sua ricerca. • Accessibilità e leggibilità: è nell’interesse di chi ha realizzato il sito che esso venga frequentato dal più alto numero di persone. Se si offre un’immagine troppo ricca, si rischia di ottenere l’effetto inverso, cioè indurre l’utente a condurre altrove la sua ricerca. Sarebbe utile inserire all’interno di ogni sito una mappa del sito che illustri schematicamente come il sito è organizzato. • Pubblicità: ne esistono tre tipi “innocua”, a banner e quella che appare con prepotenza dal nulla occupando una propria finestra. • I link si rivelano essere sempre molto utili, anche se a volte sono mal organizzati in quanto non contengono le informazioni necessarie. I link dovrebbero agevolare, e quindi sveltire la ricerca: ciò è possibile solo se sono dei “buoni link”. Il passaparola si rivela molto utile anche in questo caso (es. url segnalate da amici). • Limite dei motori di ricerca: uno dei limiti è l’archivio di pagine contenute in essi. Sono tante ma allo stesso tempo troppo poche, infatti non sempre 90 effettuando una ricerca con un solo motore si riesce ad avere la soluzione in quanto potrebbe essere una pagina non censita. • Informazione: non sempre le informazioni ottenute si rivelano essere attendibili, aggiornate, chiare e complete. In proposito sarebbe bene che soprattutto i quotidiani on line mantenessero un archivio degli articoli precedentemente pubblicati. • Condivisione dell’informazione: gerarchia guidata dai portali stessi. 91 92 LA CATALOGAZIONE DELLE RISORSE DI INTERNET Nicola Benvenuti Qualche anno fa, all’inizio della fase di rapida espanzione del world wide web, i convegni professionali erano percorsi da brividi di inquietudine difronte a interventi che vaticinavano la scomparsa del bibliotecario, sostituito da brillanti informatici e abili web master capaci di rimodellare il mondo dell’informazione istaurando un rapporto diretto, non mediato, con l’utente. Il clima è ben rappresentato dalla definizione contenuta in una fortunata e ben fatta guida di internet, la quale per illustrare una distinzione cruciale della organizzazione dell’informazione, contrapponeva all’informazione strutturata – cioè alla creazione intellettuale di rappresentazioni normalizzate del documento secondo una struttura, il record, articolata in campi con funzioni di identificazione, semantica e gestionale – l’ambiguo termine di informazione “libera”, per indicare invece la disponibilità diretta sul web di notizie e documenti reperibili senza mediazione intellettuale, solo con l’uso di intuitivi strumenti di analisi del testo. In effeti il mondo dell’informazione conosceva un notevole fervore. Ai meccanismi di ricerca basati sulla tradizionale logica booleniana, si venivano affiancando sofisticate analisi linguistiche per definire modelli settoriali in grado di svelare il contesto semantico del documento e “pesare” le parole usate dall’utente, mentre la piena applicazione di tecniche statistiche (frequenza diretta e inversa) contribuivano, in unione ad altri fattori quali ad esempio la natura dell’ente, a definire diversi criteri di “rilevanza” rispetto alla richiesta (query) per indicare nei primi posti della lista i risultati più pertinenti. L’enfatizzazione della concorrenza tra motori di ricerca sulla presunta capacità di dominare il web e lo sviluppo di agenti di ricerca sempre più raffinati e “personalizzabili”, capaci cioè di modificare il proprio funzionamento in seguito a un qualche feedback dall’utente, completa un quadro, certamente assai stimolante e ancora ricco di promesse, ma alla prova – almeno fino ad ora - assai più insoddisfacente di quanto preventivato. I motori di ricerca rivelano infatti la tendenza a conseguire un alto richiamo con bassa precisione: si tratta di un difetto inerente alla ricerca per parole chiave che lascia ancora molto a desiderare sia per le ambiguità della lingua (omonimie, pluralità di 93 significati, diversa grafia, etc.) che per la scarsa diffusione ed efficacia dei lessici multilinguistici. Si tratta di un difetto non secondario se si considera che come è noto gli utenti che assai raramente scorrono anche le pagine di risultati successive alla prima. Da qui l’importanza, per soggetti in cerca di visibilità, di comparire tra i primi risultati listati e l’inevitabile avvertenza della necessità di dubitare dell’obiettività dei criteri di rilevanza adottati dai vari gestori di motori di ricerca. Una ulteriore, sostanziale obiezione di fondo agli strumenti automatici di ricerca dell’informazione in Internet deriva dal fatto che la qualità di questa informazione è assai variabile, contemplando tutta la gamma di possibilità dall’alta cultura alla truffa consapevole. Altri criteri di origine più interna al funzionamento dei motori di ricerca giocano poi il loro ruolo, tra tutti i più rilevanti sono la difficoltà di mantenimento della base dati, a fronte di un mondo in cui i tempi di cambiamento, dall’aggiornamento alla estinzione, sono rapidissimi (da cui i fastidiosi messaggi “not found” dei server richiamati dai link dei risultati) e la dimostrata impossibilità di tener dietro allo sviluppo dell’informazione di rete, sia in senso quantitativo che per la diffusione di nuovi linguaggi e tecniche di presentazione dei dati. In una accurata ricerca apparsa su Nature nel 1999, (Steve Lawrence e Lee Giles, Accessibility and distribution of information on the web, in “Nature”, 400, n. 107(1999)) gli autori analizzavano l'efficacia di 11 dei maggiori motori di ricerca di internet: Alta Vista, Euroseek, Excite, Google, HotBot, Infoseek, Lycos, Microsoft, Northern Light, Snap e Yahoo (cioè, allora, la base dati fornita da Inktomi – oggi sostituita da Google; sempre Inktomi era utilizzato per la ricerca da HotBot, Microsoft, e Snap ma forniva risultati diversi per il particolare settaggio dei filtri e la diversità della base dati su cui si applicava); i risultati erano abbastanza significativi. In breve: 1. al di là delle affermazioni dei vari provider, i motori di ricerca sono ben lungi dall'indicizzare tutto il web: la copertura del web da parte di tutti i motori di ricerca usati nello studio ammontava al 42%. Si noti tuttavia che la sovrapposizione del contenuto delle basi dati dei motori di ricerca rimaneva abbastanza bassa: da qui l'utilità dei metamotori per incrementare la copertura delle pagine web. La scarsa copertura del web da parte dei motori di ricerca può dipendere da vari fattori tra cui la non convenienza economica: grandi indici costano di più e rallentano i tempi di risposta. 2. i motori di ricerca non assicurano un accesso uguale a ogni risorsa: per il funzionamento stesso dei crawler, essi tendono a indicizzare i siti che hanno più 94 link puntati verso di loro. Tutti i motori esaminati (fa eccezione Alta Vista) privilegiano i siti USA e quelli commerciali. I siti più popolari diventano quindi sempre più popolari; 3. l'inclusione negli indici dei motori di ricerca di nuove pagine web può richiedere mesi, come pure l'eliminazione di link non più validi. A queste valutazioni sulla carenza dei motori di ricerca su indici si aggiunge la considerazione che il web si basa sempre meno sul solo linguaggio html. Se già i frame avevano complicato il lavoro a molti spider, oggi molte pagine sono mappe sensibili o eventi multimediali richiamati da script, per non parlare di tutti quei file non testuali il cui contenuto è colto dagli analizzatori automatici di testo tutt’al più dal contesto. Dal punto di vista della disponibilità di informazione è soprattutto la diffusione di database in linea a richiedere una riconsiderazione delle metodologie della ricerca di rete. Accade infatti che l'informazione disponibile sia costituita non da file html statici analizzabili dai robot, bensì da file di vario formato visualizzati da plug in (ma in questo caso vi è almeno un indice in html) oppure creati "on the fly", cioè in seguito all'azione di una ricerca: è il cosiddetto web "invisibile" che molti motori di ricerca stanno cercando di organizzare e che qualcuno stima addirittura, come quantità di informazione, più grande di 500 volte del web indicizzabile. (Secondo lo studio condotto dalla compagnia BrightPlanet, la parte inaccessibile del web sarebbe circa 500 volte più grande del numero di pagine accessibili tramite i motori di ricerca tradizionali. Si tenga però conto che la società in questione stava lanciando un proprio motore per la ricerca del cosiddetto "invisible web". Vedi: http://www.searchenginewatch.com/sereport/00/08deepweb.html visto il 28/08/2000. I siti che mantengono database interrogabili in linea sarebbero circa 100.000 v. The Deep Web: Surfacing Hidden Value file zip scaricato da http://www.completeplanet.com/Tutorials/DeepWeb/) Non stupisce quindi che dopo i primi entusiasmi la rete sia apparsa sempre più come caos ingovernabile spingendo il padre del www al prestigioso CERN di Ginevra, Tim Berners Lee, ad affermare: L’idea di documenti comprensibili dalle macchine non richiede alcuna magica intelligenza artificiale che permetta alle macchine di comprendere le rimuginazioni degli umani. Indica solamente l’abilità delle macchine di risolvere problemi ben definiti attuando operazioni ben definite su ben definiti dati esistenti. Invece di chiedere alle macchine di comprendere il linguaggio della gente, ciò significa chiedere alla gente di fare uno sforzo extra.(Conferenza sul Semantic web, 1998: http://www.w3.org/DesignIssues/RDFnot.html). 95 Su un diverso versante il successo di strumenti di ricerca organizzati per directory secondo una categorizzazione semantica più o meno accentuata e costruiti manualmente, come yahoo! o l’Open directory project (la cui peculiarità è la catalogazione dei siti da parte di volontari) sono rappresentati come “l’equivalente in Internet di una biblioteca pubblica non gestita da bibliotecari” (la definizione è di Emma Place, International Collaboration on Internet Subject Gateways, 65th IFLA Council and General Conference, Bangkok, Thailand, august 20-august 28, 1999: http://www.ifla.org/IV/ifla65/papers/009-143e.htm). Essi presentano quindi alcune peculiarità dal punto di vista di un affidabile strumento di recupero dell’informazione: sul piano dell’acquisizione il loro criterio di qualità è indefinito, o basato sulla sottoscrizione volontaria o attento più a esigenze di intrattenimento che di affidabilità dell’informazione. Sul piano dell’organizzazione dell’informazione il thesaurus per classificare i siti, anche se inevitabilmente tende a coincidere con strumenti di provata affidabilità e di costante aggiornamento come quelli sviluppati in ambito biblioteconomico (primo fra tutti la DDC), appare approssimativo e incoerente. In termini di valore aggiunto, la descrizione delle risorse, che costituisce indubbiamente un punto di forza di questi strumenti rispetto alle confuse stringhe create dai software di sommarizzazione automatica dei motori di ricerca su indici, è spesso generica, cosa che non stupisce vista la dimensione generalista della base dati (il che non toglie che singole directory o specificazioni – in relazione ad esempio all’invisible web – possano risultare assai utili). Se l’85% degli utenti di Internet dichiara di usare motori di ricerca per soddisfare i propri bisogni informativi, una percentuale ancora maggiore predilige la navigazione - da cui la fortuna dei portali - che fa leva sulla caratteristica più potente e innovativa del word wide web, il metodo ipertestuale. Infatti a partire dal saggio del 1945 di Vannevar Bush "As we may think", attraverso la sua prima realizzazione con le tecnologie informatiche olter vent'anni dopo, l'ipertesto ha rappresentato l’aspirazione ad una organizzazione del sapere non lineare, non condizionata dalla sequenzialità e quindi improntata alla creatività e alla libertà (si veda: Donatella Ceserani, Gli ipertesti cosa sono, a cosa servono. Un esperimento sulla loro efficacia educativa, Roma 1995, p. 25-27). La realtà è meno incoraggiante: il web si presenta all'utente come un caos disordinato in cui i percorsi intrapresi sono spesso casuali o immotivati conferendo un senso non di libertà bensì di smarrimento. A questo proposito proprio l'inventore (nel 96 1965) del termine stesso "ipertesto" e iniziatore del progetto Xanadu, Theodor Nelson, ebbe a dichiarare nel 1997: La reazione della comunità di ricerca sull’ipertestualità verso il world wide web è stata quella di chi scopre di avere un figlio già adulto. Ma che è un delinquente. (Intervento di T. Nelson a HyperText 97, Eighth ACM Conference on Hypertext, Southampton April 6-11, 1997 tratto da Tony Gill, Metadata and the World Wide Web; http://www.getty.edu/gri/standard/intrometadata Updated 7/5/2000). In questo contesto non stupisce che tra gli specialisti dell’informazione iniziasse anche una riflessione generale sulla conformazione stessa del world wide web partendo dalla considerazione che i linguaggi utilizzati e soprattutto html sono linguaggi editoriali, cioè volti alla rappresentazione dell’informazione, ma che niente dicono sulla sua struttura e funzione. Lo sviluppo del commercio elettronico (!?) avrebbe poi finalmente richiesto una chiara definizione delle informazioni contenute nei file (quel numero, con qualsiasi carattere sia scritto, è un prezzo o indica una percentuale di sconto, o è una data o è il numero dei prodotti disponibili … ). Ci sembra che le soluzioni proposte si possano ricondurre a due iniziative. da un lato l’uso dei metatag, cioè di quei codici che in html introducono informazioni sul file ma non compaiono sullo schermo, per codificare informazioni sul contenuto del file; dall’altro il tentativo di sviluppare un nuovo linguaggio di costruzione dei file di Internet che contrariamente ad html codifichi non il layout, bensì il contenuto del documento, lasciando a specifici fogli di stile il compito di definirne la presentazione sullo schermo. Il mondo delle biblioteche aveva in realtà reagito a questo mutato panorama degli strumenti di comunicazione e trasmissione dell’informazione evidenziando due orientamenti opposti. L’uno è rappresentato dalla diffidenza verso l’informazione di rete nel cui caos sarebbe impossibile discernere l’informazione di qualità da quella assolutamente priva di valore e ha a lungo coltivato il dubbio se fosse compito delle biblioteche organizzarne l’accesso. Come ha recentemente scritto Michael Gorman, decano per i servizi bibliotecari dell’Università di California: Nessuno è interessato a dissodare la sterminata terra incolta di Internet perché la maggior parte di quella terra è priva di valore. È necessario identificare le oasi per applicare loro una qualche versione della catalogazione effettiva. (M. Gorman, From Card Catalogues to WebPACS: http://lcweb.loc.gov/catdir/bibcontrol/gorman.html). 97 Questa obiezione, sicuramente da non sottovalutare, non tiene tuttavia conto del fatto che come ha detto Berners-Lee “Il web sta diventato rapidamente il deposito di dati che cresce più rapidamente al mondo”. Inoltre, secondo lo studio citato di Lawrence e Giles l’analisi sociologica dei server di Internet forniva il seguente quadro: 6 Su circa 2,8 milioni di server nel edu 5 porno 4 gov 3 health 2 comm 1 relig assoc 0 1 1999 • 87 % sarebbero dichiaratamente commerciali; • del rimanente 17%, il 6% sarebbe costituito da server di istituzioni scientifiche o educative (università, laboratori, istituti di ricerca); E’ quindi possibile delimitare nel web un’area assai promettente dal punto di vista della qualità dell’informazione. In realtà commentare questi dati richiederebbe anche altre, indubbiamente essenziali osservazioni: come negare il valore informativo ad esempio dei siti “governative” – la NASA … - o di associazioni private non profit – molte con intento dichiaratamente culturale ! Ma anche come negare che anche tra quell’87% di siti commerciali si possano trovare informazioni di grande interesse e valore ! E come ignorare oggi la dimensione del cosiddetto “invisible web”, la enorme quantità di dati (immagini, software, testi, film, file sonori …) conservati in numerosissime basi dati, molte dichiaratamente commerciali. Ai fini del nostro ragionamento basta però sottolineare che i risultati della ricerca citata indicano quantomeno che le “oasi”, per riprendere l’espressione di Gorman, sono abbastanza numerose da imporsi all’attenzione di chi ha come compito la mediazione dell’informazione per fini di studio e di ricerca; e nello stesso tempo che tali risorse sono relativamente contenute nel numero rispetto alla vastità dello spazio web, per cui vale la pena intraprendere l’impresa di un trattamento professionalmente adeguato per il recupero di tali risorse informative. Da anni le biblioteche, e questo è il secondo orientamento di cui vogliamo far cenno, si sono attrezzate a rispondere alla richiesta dei propri utenti di accedere in modo efficace alle risorse di qualità che si trovano in Internet. 98 Con il Dublin Core Matadata Initiative (DCMI) OCLC catalizzava la reazione del mondo bibliotecario più attivo elaborando una versione assai semplificata dello USMARC, il formato di catalogazione bibliografico (provenienza forse ancora troppo evidente, c’è da dire), con il duplice obiettivo di creare un’agile struttura per la catalogazione delle risorse di rete che comportasse uno sforzo commisurato alla volatilità di questa informazione, e di fornire agli autori dei documenti di Internet degli strumenti per contestualizzare il proprio lavoro in modo da poter essere facilmente reperito. La partecipazione di protagonisti dello sviluppo commerciale di Internet a questa iniziativa non deve però nascondere il fatto che l’uso di metadati standard è ancora assai limitato. Dallo studio di Lawrence e Giles si evince che dei 2,8 milioni di server stimati attivi sulla rete nel 1999 ben il 34,2% conteneva metadati. Tuttavia tali metadati codificano per lo più dettagli e fanno registrare addirittura 123 distinti tag indice di una grave carenza di standardizzazione. Il DC alla data della ricerca era utilizzato in solo lo 0,3% dei documenti, sottolineando la lentezza del processo di accettazione e applicazione di questo standard; un dato analogo (0,11%) emergeva nel 1998 da una ricerca condotta in Germania nell’ambito del progetto GERHARD (Bibliotheks- und Informationssystem der Carl von Ossietzky Universität Oldenburg. Bericht zum DFG-Projekt: GERHARD. German Harvest Automated Retrieval and Directory / bearbeiter: Bdir hans Joachim Wätjen (Projectleiter) … (et al.), Stand: 16.6.1998: scaricabile da: http://www.gerhard.de) Alcuni dei principali motori di ricerca (segnatamente Excite e Altavista) hanno però abbandonato la politica di indicizzare i metadati semantici come “keywords” e “description”, a fronte dell’abuso fatto da web master che ne distorcevano la funzione per occupare i primi posti nelle liste dei risultati. Al di là di questi aspetti contraddittori, non vi è dubbio che i risultati dello sviluppo della riflessione sugli strumenti dell’informazione in Internet, ha comunque rilanciato l’approccio bibliotecario alla ricerca dell’informazione in rete a cominciare, come si è accennato, dalla mediazione catalografica tramite un set minimo di campi identificativi, gestionali e semantici, fino alla rivalutazione degli strumenti di “knowledge organisation” (organizzazione del sapere) nati in ambito biblioteconomico (a cominciare dalle classificazioni e thesauri generali e specialistici) e alle regole definite per la loro costruzione. Non è raro oggi trovare nella letteratura professionale espressioni enfatiche su questo riacquisito ruolo (si veda per esempio; dublin core: die renaissance der bibliothekare: http://www.informatik.hu-berlin.de/~mayr/d_c.htm). 99 Forse sul modello dell’organizzazione delle informazioni sul “Gopherspace” i primi servizi di ricerca dell’informazione di qualità sono stati i directory service tra cui ricordiamo la Virtual Library o una “metaguide” (guida delle guide) molto utile come la Argus Clearinghouse; i progetti sicuramente più interessanti però sono stati quelli volti alla costruzione di subject gateway, o cataloghi di risorse di rete. Se negli Stati Uniti spicca il progetto cooperativo di catalogazione delle risorse elettroniche nel Cooperative On line Resource Catalog (CORC) di OCLC e Signpost corredato da una utilissima newsletter settimanale, in Europa sono state soprattutto le bilioteche inglesi che nell’ambito del progetto governativo e-lib (cfr. Chris Rusbridge, Towards the hybrid library : developments in UK higher education, 66th IFLA Council and General Conference, Jerusalem, Israel, 13-18 August 2000: http://www.ifla.org/IV/ifla66/papers/030-142e.htm) hanno affrontato il problema dell’informazione di Internet dando vita al progetto ROADS basato sulla costruzione di Quality Controlled Subject Gateways, cataloghi di risorse elettroniche di qualità organizzate per soggetto, che ha condotto alla costruzione del Resource Discovery Network. Fanno parte di questo progetto i seguenti subject gateway, tutti sviluppati in università con il contributo di bibliotecari e professionisti dell’informazione: SOSIG (scienze sociali), EEVL (ingegneria), OMNI (informazione biomedica), Biz/ed (economia e finanza), History e ADAM (Art, Design, Architecture & Media. Altre importanti iniziative sono state sviluppate nei paesi del nord Europa: • in Finlandia il Finnish Virtual Libraries Project, lanciato nel 1995 con finanziamento del Ministero dell’educazione per lo sviluppo su larga scala di gateways per soggetto nazionali • in Svezia il subject gateway EELS (Electronic Engineering Library Sweden) nell’ambito dell’ingegneria. supportato dalle 6 biblioteche tecnologiche svedesi che si avvale del supporto informatico del Laboratorio di informatica dell’Università di Lund. • In Danimarca (in collaborazione con altri paesi nordici) NOVAGate, un gateway per scienze forestali e agrarie e veterinaria alimentato dalle biblioteche nella Università NOVA (con sedi in Danimarca, Finlandia, Islanda, Norvegia e Svezia) • In Olanda DutchESS (Dutch Electronic Subject Service) un gateway a diversi soggetti (detto perciò SBIG, Subject Based Information Gateway) costruito dalla Biblioteca Nazionale Olandese in collaborazione con 7 biblioteche universitarie. 100 In Germania esistono vari subject gateway: Geo-Guide (geologia, mineralogia e geografia), The History Guide e The MathGuide e Anglistik Guide (risorse valutate e descritte con un set di metadata del Dublin Core); di grande interesse per le soluzioni tecniche adottate (v. avanti) è poi GERHARD, German Harvest Automated Retrieval and Directory, una base dati sperimentale in tre lingue per categorizzare automaticamente i siti. L’onere del progetto – salutato come la via per costruire una base dati delle dimensioni di yahoo organizzata per categorie in modo interamente automatico - non deve essere stato indifferente se la base dati non viene aggiornata dal 1998. Si è poi concluso nel 2000 il progetto denominato MACS (Multilingual Access to Subject Headings) di costruzione di un thesauro di parole chiave in inglese tedesco e francese per permettere la ricerca multilinguistica (vedi: http://infolab.kub.nl/prj/macs/). Altro paese molto impegnato nella ricerca e costruzione di subject gateway è l’Australia. Non mi risultano invece esperienze importanti nell’area latina, europea ed extraeuropea. Il servizio bibliotecario dell‘Università di Firenze si sta muovendo con attenzione e determinazione nella direzione di valorizzare le risorse di rete nella consapevolezza che la dimensione richiesta per una politica di organizzazione delle risorse italiane in Internet in grado di collegarsi proficuamente alle esperienze straniere, riguarda la comunità bibliotecaria nazionale. Realisticamente il gruppo di lavoro ad hoc costituito nella primavera del 2000, ha fin‘ora condotto una ricognizione sullo stato dell‘arte pubblicando sul server dello SBA un documento che identifica anche alcune direzioni e prospettive di sviluppo. Dal punto di vista politico si sottolinea il richiamo alla necessità di adeguare l‘organizzazione dell‘informazione di rete in Italia al livello conseguito in Europa soprattutto in seguito ai progetti europei DESIRE e Renardus. Dal punto di vista tecnico biblioteconomico viene offerto un panorama delle iniziative in corso per sottolineare la necessità di un approccio „ibrido“ ossia intellettuale e nel contempo automatico, alla costruzione dei subject gateway. È da notare a questo proposito che lo sforzo di affinare tali strumenti richiede l‘apporto non solo di bibliotecari ma anche di specialisti dell‘informazione elettronica, di linguisti e di infromatici organizzati in dipartimenti universitari e laboratori di ricerca, così come stretta è la collaborazione tra chi opera nel campo dei subject gateway e istituti internazionali per la gestione di Internet, come ad esempio il w3 (il documento è consultabile in appendice). 101 È stato poi stabilito di cominciare ad attuare i criteri di gestione dell‘informazione accennati anche inserendo progressivamente nei file html dello SBA i metatag del Dublin Core e per sensibilizzare e aiutare i colleghi in questa attività abbiamo tradotto e implementato sul nostro server l‘editor automatico di metadati, DCdot, tratto da UKOLN (DC v: 1.1). È nostra intenzione continuare a diffondere sulla stessa pagina web messe a punto e analisi di singoli aspetti relativi all‘attività del gruppo di lavoro. Per conoscere le iniziative in corso in ambito nazionale sulla organizzazione delle risorse di rete di area italiana e per verificare disponibilità e occasioni di collaborazione, il gruppo ha deciso di inviare a indirizzi selezionati e sulla mailing list dei bibliotecari italiani AIB-CUR, gestita dall‘Associazione professionale, un questionario su alcuni temi che riteniamo importanti per la costruzione di subject gateway e di cui daremo notizia dopo aprile del 2001. Contemporaneamente stiamo verificando la possibilità di utilizzare CORC di OCLC per raggiungere i seguenti obiettivi: 1. costruire esperienze di catalogazione delle risorse di rete e approndire le tematiche relative; 2. catalogare risorse italiane di qualità; 3. costruire tramite CORC delle directory (Pathfinder) da offrire agli utenti dello SBA per la ricerca dell‘informazione di rete. 102 ITINEROTECA ULISSE Gianfranco Bettoni28 Abstract Un sito dedicato ai viaggi con le informazioni selezionate dalle riviste specialistiche del settore, trattate e indicizzate con un’apposita terminologia che facilita il recupero dell’informazione. Apposite liste di autorità orientano il lettore tra luoghi geografici e ambienti con indirizzi e informazioni utili per chi vuole documentarsi prima della partenza. Parole chiave Viaggi, Internet, portale A site dedicated to voyages with information selected from specialized periodicals of the sector, handled and indexed with suitable terminology which facilitates information retrieval. Special authority lists guide the reader through geographical places and environments with useful addresses and information for those who wish to read up on the subject before departing. Key words Voyages, Internet, Portal e-viaggiatori è una base dati specializzata che raccoglie, ordina e mette a disposizione dell’utente, in modo immediato ed efficiente, le risorse internet relative a viaggi, arte, musei, ambiente e cultura geografica. E’ uno strumento indispensabile e di facile utilizzo per tutti i viaggiatori che vogliono documentarsi e raccogliere informazioni prima di intraprendere un viaggio, ma anche per coloro che usano la rete come mezzo per viaggiare virtualmente tra i siti. e-viaggiatori offre un elevato numero di siti Internet documentati e con esiti di ricerca precisi e pertinenti. Gli indirizzi presenti nel data base sono reperiti dalle maggiori riviste italiane di viaggio, che dedicano rubriche sulle risorse della rete e non mancano di corredare i loro articoli con l’indicazione di indirizzi web. A questa selezione di siti, associati agli 28 Responsabile di Ulisse S.r.l. - Via Mazzini 26 - 46100 Mantova - tel. fax 0376 399633 e-mail: [email protected] - sito Internet: www.e-viaggiatori.com 103 articoli delle riviste (11.500 accessi al 31 dicembre 2000), si aggiungono gli indirizzi ricavati dalle monografie e repertori a stampa, da siti istituzionali italiani ed esteri nonché da fonti nella rete quali i motori di ricerca e pagine web (ulteriori 7.000 nuovi accessi). L’affidabilità del contenuto dei siti è assicurata, poiché questi vengono regolarmente controllati e valutati da documentatori esperti così da eliminare la dispersione – tipica dei tradizionali motori di ricerca nella rete - causata da siti effimeri o poveri di informazioni. Gli articoli delle riviste vengono organizzati in un indice sul database Itineroteca Ulisse, che da otto anni viene distribuito su richiesta dei lettori delle riviste sotto forma di Cd-rom. e-viaggiatori è una banca dati di siti a carattere turistico-geografico: il primo canale di ricerca sarà il nome di una località, che può essere uno stato, regione, provincia, comune, regione storica o fisica. La ricerca diviene estremamente precisa grazie alla possibilità di associare un argomento ad un luogo, che può essere scelto dall’utente in una tabella di classificazione disponibile on line, oppure digitato in un campo di ricerca libera con thesauro interno di aiuto. Il risultato dell’interrogazione sarà un elenco di siti che trattano di quell’argomento in riferimento alla località desiderata La ricerca può essere effettuata anche prescindendo da un argomento e utilizzando come criterio la sola località. In questo caso si otterrà una lista di siti, che trattano in modo organico e complessivo dell’offerta turistica e culturale del luogo in questione. Ulteriori elementi di ricerca sono le mappe, le webcam, i meteo, le bibliografie. L’utente potrà collegarsi direttamente ai siti evidenziati dalla ricerca attraverso e-viaggiatori. e-viaggiatori utilizza un criterio di visualizzazione intelligente che consente di organizzare gerarchicamente i risultati di una ricerca in base all’effettiva ricchezza dei contenuti documentari, informazioni e links. L’utente può dunque scegliere subito tra le risorse informative più complete ed attendibili. Il risultato di questo lavoro è il data base e-viaggiatori che viene distribuito su Cd-Rom insieme a Itineroteca Ulisse e sarà presto in Internet sul sito e-viaggiatori.com. Archivio riviste Biblioteca comunale di Viadana 0375.782048 (-26 fax) 104 Itineroteca Ulisse Le principali riviste italiane indicizzate sono: Airone, Bell’Italia, Bell’Europa, Dove, Gente Viaggi, Gulliver, In Viaggio, Itinerari e luoghi, Meridiani, National Geographic Italia, Oasis, Plein Air, Panorama Travel, Qui Touring, Tuttoturismo. Le riviste in lingua catalogate dal 1995 sono: Geo (ed. francese), Geo (ed. tedesca), Grands Reportages, Globo, Geo Saison, Holiday, Condè Nast Traveler, National Geographic Traveler, National Geographic (dal 1986) . Dal 1992 a tutto l’anno 2000, grazie alla collaborazione con il Touring Club Italiano, l’Editoriale Giorgio Mondadori, le Edizioni Plein Air, Rusconi Editore, De Agostini Rizzoli Periodici e Fioratti Editore sono stati distribuiti più di 9000 indici digitali in versione Win/Mac. 105 106 APPENDICE I SUBJECT GATEWAY Nicola Benvenuti29 Abstract Questo documento ha il compito di illustrare schematicamente le iniziative in corso di catalogazione delle risorse di rete facendo riferimento in particolare ai Subject Based Information Gateway (SBIG), per permettere agli organi competenti di valutare le modalità più adeguate nel contesto fiorentino alla valorizzazione delle risorse di rete per la didattica e la ricerca. Questo documento ha il compito di illustrare schematicamente le iniziative in corso di catalogazione delle risorse di rete facendo riferimento in particolare ai Subject Based Information Gateway (SBIG), per permettere agli organi competenti di valutare le modalità più adeguate nel contesto fiorentino alla valorizzazione delle risorse di rete per la didattica e la ricerca. Con SBIG (o, al di là di sfumature di significato, anche QCSG quality controlled subject gateway) si intende in primo luogo la costruzione di basi dati di risorse di internet di varie tipologie e formati (in alcuni casi vengono inseriti anche testi a stampa e CD ROM) selezionate in base a criteri di qualità, definiti e dichiarati, su cui condurre ricerche sia per parole chiave che scorrendo liste organizzate per soggetto. In ambito scientifico accademico, soprattutto, sono state sottolineate le carenze di motori di ricerca e directory services generalisti, rilanciando l'approccio biblioteconomico alla ricerca dell'informazione anche in Internet, sia per quanto riguarda il recupero di strumenti di "organizzazione del sapere" (knowledge organisation) definiti e costituiti in ambito bibliotecario, che per quanto riguarda la necessità di contestualizzare l'informazione di qualità con riferimento ad un target accademico scientifico e ad accessi di tipo catalografico. 29 Biblioteca di …… 107 Particolare attenzione è stata rivolta ai progetti europei (DESIRE, Imesh e Renardus) i quali mirano alla costruzione e diffusione di SBIG in Europa secondo i seguenti criteri: 1. prevedere una architettura costituita di basi dati distribuite in modo da garantire collaborazione ed interoperatività per compensare con la cooperazione nazionale e internazionale (europea) l’alto costo di produzione di SBIG e costituire una rete di informazione europea per la didattica e la ricerca; 2. garantire la standardizzazione o almeno compatibilità di formati e comportamenti catalografici; 3. permettere la scalarità dei sistemi, in modo da sostenere i futuri sviluppi 4. affiancare ai tradizionali metodi manuali di catalogazione strumenti di indicizzazione automatica. Questo ultimo obiettivo prefigura un approccio ibrido alla costruzione di SBIG ed è particolarmente importante. Esso, infatti, concretizza un aspetto essenziale dell’adattamento dei criteri di organizzazione dell’informazione di ambito biblioteconomico all’informazione di rete. Permette infatti di: 1. fornire, insieme ai tradizionali accessi catalografici, una ricerca per parole chiave sul testo pieno delle pagine web, indicizzate da apposito robot, utilizzando indicatori di importanza; 2. ricostruire, seguendo i link dei siti selezionati fino a due, tre livelli, di il contesto della “comunità di interessi” relativa a quel determinato soggetto per formare una base dati di appoggio e integrazione al catalogo manuale delle risorse di rete; 3. con la applicazione di sperimentali tecnologie di categorizzazione dei documenti, l'organizzazione semantica delle risorse di rete per selezionare, fino ad ora, nuove risorse disciplinari da esaminare. In sintesi l'indicizzazione automatica permette di fornire un servizio più esteso e specifico e di realizzare significativi risparmi di costi ed è quindi momento essenziale della costruzione di SBIG. Da un punto di vista strettamente funzionale un servizio di diffusione delle informazioni di rete di qualità può articolarsi a diversi livelli: dalla semplice lista annotata, purché con criteri definiti, dichiarati e coerenti, fino alla costruzione di basi dati di articolati formati catalografici. E' comunque indubbio che una volta riconosciuta l'importanza di offrire, agli utenti italiani e stranieri, risorse Internet di qualità, la via 108 della costruzione di una base dati (o catalogo) meglio corrisponde sia alla missione informativa delle biblioteche, che alla gestione dei processi. Essa si presta inoltre a costituire il contenitore specifico delle risorse di rete, conformemente ad esigenze gestionali e di manutenzione peculiari, nell'ambito della biblioteca virtuale. In particolare l’archiviazione in una base dati si presta ad essere assai più maneggevole e funzionale per la gestione del costante incremento delle risorse censite, per l’aggiornamento di liste per soggetto da creare automaticamente in base alla richiesta dell’utente, per l’interoperabilità con altri sistemi. In particolare l'interoperabilità costituisce un’ulteriore irrinunciabile occasione di risparmio sui costi di produzione dello SBIG. Data la scalarità del sistema è comunque possibile anche iniziare con una lavorazione locale, utilizzando eventualmente i diversi tool messi a disposizione dai package open source disponibili gratuitamente, rinviando ad un secondo momento la ricerca di altri partner. L'utilizzo di detti package basati su un’architettura di basi dati distribuite, offre già adesso occasioni di interoperabilità con numerosi SBIG esistenti. Potrebbe anche essere consigliata l’adesione a progetti di catalogazione partecipata come Net First di OCLC che, con un modesto abbonamento annuale, mette a disposizione dei partecipanti una serie di strumenti di editing - da interfacce per la creazione di metadati, analizzatori di documenti, strumenti per la manutenzione della base dati … - e oltre 225.000 record, senza pregiudicare la valorizzazione di un profilo specifico delle istituzioni partecipanti. Il gruppo di lavoro ha previsto la diffusione di un questionario, per conoscere i progetti in corso in Italia e stabilire contatti per future collaborazioni. Tipologie dei Subject Gateway Esistono attualmente alcune tipologie di SBIG che, a partire dal comune denominatore del controllo di qualità, si distinguono per la loro diversa finalità e struttura. Essi possono essere raggruppati: 1. per contenuto, a seconda che coprano un soggetto specifico (EELS, EEVL, OMNI, SOSIG, Biz/ed) o abbiano un carattere universale (CORC, Signpost) 2. per area geografica: i subject gateway inglesi che aderiscono a RDN mirano a valorizzare le risorse in UK; Dutchess si concentra sulle risorse olandesi; NOVAgate per le risorse scandinave … CORC ha invece una copertura internazionale; 109 3. per dimensione: la maggior parte dei subject gatreway non supera i 5000 record (fa eccezione CORC con 225.000 circa) 4. per tipologia di cooperazione. Quest ultimo è un punto di vista assai importante anche perché la moltiplicazione di SBIG può paradossalmente rendere più difficoltosa la ricerca per l'utente finale, che può perdersi nella selva di liste esistenti. Sempre più si avverte la necessità di un servizio integrato, fondato su un modello cooperativo, in grado di consentire all'utente l'accesso a collezioni più ampie di quelle offerte da un singolo strumento, consultabili simultaneamente tramite un'unica interfaccia di ricerca. La cooperazione permette inoltre ai fornitori del servizio di condividere i costi di gestione dei gateway (sviluppo del software, scambio di dati, divisione dei compiti, etc.) E' questo lo questo scopo dei seguenti progetti a carattere europeo finalizzati a favorire la cooperazione: • DESIRE: è un progetto europeo sorto nel 1998 da una collaborazione fra partners di 4 paesi europei (Olanda, Norvegia, Svezia e Inghilterra) col compito di stabilire strumenti e metodi per lo sviluppo di SBIG su larga scala anche attraverso la definizione di standards. Ha edito un utile manuale per la costruzione di SBIG30. • IMesh deriva dalla Second European Conference on Research and Advanced Technology for Digital Library tenuta a Creta nel 1998 per sviluppare l’interoperabilità tra sistemi anche tramite un software per SG distribuiti 31. • RENARDUS: progetto europeo del 1999 che mira a stimolare la costruzione di servizi europei di informazione in rete e fa riferimento alle varie Biblioteche Nazionali per costruire una rete europea di Information Gateway nazionali di risorse internet di qualità. E' prevista in un secondo momento l'istituzione di un servizio integrato di accesso a tali risorse tramite un'unica interfaccia di ricerca32. Si possono delineare varie forme di collaborazione a seconda del contenuto e dell'approccio prescelti. 30 http://www.desire.org/handbook/ http://www.imesh.org/ 32 http://www.renardus.org/ 31 110 Per contenuto: • cooperazione per coprire un’area disciplinare (soggetto)(AgNIC, NOVAGate, EdNA, GEM, MetaChem, EELS) • cooperazione in ambito nazionale tra SBIG di diverse aree disciplinari (RDN in UK, Finnish Virtual Library, SSBIG-FI in Germania, Australia) • cooperazione per un servizio nazionale integrato e coerente (DutchEss) • cooperazione tra SBIG e biblioteche nazionali o regionali (DEF subject portals in Danimarca) Per tipologia della collaborazione: • cooperazione per servizi comuni, consorzi e organizzazioni (DuthEss, NOVAGate, EELS, CORC). La tipologia prevede tra l’altro che i bibliotecari, da qualsiasi località, purché abbiano accesso ad un PC e alla rete, collaborino ad alimentare un’unica basedati, invece di dover sviluppare ognuno il proprio servizio; • scambio di record, traduzione di record e altri sforzi coordinati (previsti tra CORC e RDN, SOSIG e Signpost, EEVL e AVEL; cooperazione tra gateway di agricoltura) • integrazione virtuale tramite ricerche incrociate sia su liste (SOSIG e Biz/ed) che su indici in base alla condivisione di standard (p.e. tra servizi che utilizzano ROADS)33 • mirroring di servizi remoti (SOSIG e Signpost) Politica editoriale Una delle prime operazioni nel progettare uno SBIG è quello di stabilire la politica editoriale da seguire, tenendo fermo che l'oggetto di SBIG sono risorse di rete, con solo parziale somiglianza alle tradizionali fonti a stampa. La tipologia sopra ricordata degli SBIG esistenti dimostra che le possibilità sono molteplici ai vari livelli, ma la scelta non può prescindere dal quadro europeo, 33 Si vedano i prototipi interrogabili presso il sito di EEVL: http://wwwdb.lub.lu.se/cgibin/egwcgi/egwirtcl/screen.tcl/name=find&lang=eng&service=eels2 e http://wwwdb.lub.lu.se/cgibin/egwcgi/egwirtcl/screen.tcl/name=find&lang=eng&service=aeels2 111 rapidamente delineato e deve tener conto della situazione degli strumenti di informazione sulle risorse di rete esistenti in Italia. Un ulteriore aspetto della politica editoriale è dato dalla definizione di criteri di qualità dichiarati. In proposito non esiste uno standard definito (né per la verità lo potrebbe, trattandosi appunto di scelte politiche), bensì una ricca bibliografia e i modelli adottati dai principali e più affidabili provider di informazioni di rete. Sulla scorta dei progetti europei34 possiamo identificare quattro aspetti da considerare per la valutazione delle risorse di rete: 1. criteri relativi alla valutazione del server. Il nome simbolico dell'indirizzo del server offre spesso informazioni essenziali sulla natura dell'ente che promuove il servizio e spesso è un elemento selettivo di primaria importanza (ad esempio per l’indicizzazione automatica delle pagine di siti istituzionali - es. università e istituti di ricerca: uno strumento che, a quanto risulta a chi scrive, non esiste in Italia) 2. criteri di contenuto, p. es.: validità, autorità e reputazione della fonte, accuratezza, esaustività, unicità, composizione e organizzazione, aggiornamento 3. criteri di forma, p. es.: facilità di navigazione, presenza di aiuto per l’utente, uso di standard riconosciuti, uso adeguato della tecnologia, estetica 4. criteri di processo, p. es.: integrità dell’informazione (competenza del provider), integrità del sito (competenza del webmaster), integrità del sistema (competenza dell’amministratore di sistema) Altri criteri tecnici vanno poi considerati e stabiliti, in particolare la granularità della catalogazione. Quanti record dovrebbero essere creati per ogni risorsa web ? Il quadro offerto dai partners di Renardus è il seguente: Nome Granularità Dutch "entità informative", cioè il sito web di ESS un'organizzazione, un documento (articolo, Note libro), una fonte di informazione secondaria (bibliografia, information gateway) 34 Si veda per tutti: Selection criteria for Quality Controlled Information Gateways. Work package 3 of Telematics for Research project DESIRE (RE 1004). Http://www.ukoln.ac.uk/metadata/desire/quality/report1.html 112 NOV siti web AGate EELS soprattutto server/servizi/top pages anche documenti individuali se importanti per il soggetto DEF – fagpor tal DAIN pagine web et FVL pagine web anche documenti individuali se importanti per il soggetto Les pagine web o servizi (= parti di un sito che Signet sono intellettualmente autosufficienti) s RDN pagine web (servizi/collezioni) some item level description SSG- "siti tematici" (collezione di documenti con è prevista FI un tema scientifico o accademico comune, l'integrazione cioè anche server di società di istruzione, materiale a stampa e riviste elettroniche CD ROM di La regola del Dublin Core, detta dell'1:1, rinvia alla indicazione di una descrizione per ogni risorsa autonoma e conclusa considerata significativa dal punto di vista informativo. Questo principio è stato messo in discussione. Molti information gateway indicizzano i siti web, senza approfondire eccessivamente l'analisi 113 conseguendo minor precisione ma col vantaggio di una maggiore stabilità delle informazioni riportate. La soluzione del problema può derivare dal fatto che, rispetto al catalogo tradizionale di testi a stampa, un catalogo di risorse Internet può far riferimento al testo pieno delle risorse web: anche qui un approccio ibrido che faccia coesistere una descrizione a livello di sito fatta da catalogatori esperti con indici automatici del testo della risorsa e l'adozione di criteri di rilevanza nella presentazione dei risultati (per l'indicizzazione automatica, v. avanti) può sdrammatizzare problemi connessi alla coerenza del catalogo, come quello della granularità della catalogazione o altri segnalati dalla letteratura35. La catalogazione delle risorse web Quando si parla di catalogazione delle risorse di rete all'interno di biblioteche, due sono gli approcci principali relativi al contenitore più idoneo per la loro fruizione: • l'nserimento nel catalogo elettronico • la creazione di apposito gateway L'una o l'altra influenzano la scelta del formato (metadata) della catalogazione: • negli OPAC il formato MARC integrato è nella maggior parte dei casi la descrizione più diffusa; • nei gateway, diversi sono gli schemi di metadata utilizzati: fra di essi il Dublin Core (DC) rappresenta lo standard (almeno de facto). Molti altri sono comunque gli schemi di metadata usati per la descrizioni di risorse elettroniche36 spesso "mappati" con il Dublin Core. Fra le iniziative di catalogazione delle risorse di rete in OPAC la più prestigiosa è senz'altro il progetto CORC di OCLC, che ha varato un catalogazione cooperativa che ha portato all'aggiunta di 1200 record durante la sperimentazione. Sono confluiti nell'archivio di 175,341 record da OCLC NetFirst e OCLC InterCat database sul quale il progetto è stato varato nel gennaio del 1999. 35 In particolare la questione di "surrogati" del creator formale: si veda Introduction to metadata. Pathways to digital information a cura di Murtha Baca , 2000, http://www.getty.edu/gri/standard/intrometadata/1_introduction/index.htm 36 A review of metadata: a survey of current resource description formats. Work Package 3 of Telematics for Research project DESIRE (RE 1004). http://www.ukoln.ac.uk/metadata/desire/overview/rev_01.htm 114 In Italia la biblioteca Angelo Monteverdi de La Sapienza ha inserito 1.500 descrizioni di risorse di rete (monografie ma anche siti) nel proprio OPAC adottando un record estensibile MARC mappato in DC37. Per la descrizione delle risorse elettroniche il formato MARC inserisce il tag 856 Electronic Location and Access secondo le regole alla pagina http://lcweb.loc.gov/marc/856guide.html Le problematiche fra le due scelte vengono ben spiegate da Stuard Weibel di OCLC. Un obiettivo dei metadata del Dublin Core è costituire una alternativa semplificata e a basso costo alla catalogazione tradizionale in MARC e ci sono molti progetti che traggono vantaggio da questo approccio. E' chiaro che le biblioteche hanno bisogno di una presenza sul web per servire in modo adeguato i propri referenti. Per molte se non la maggior parte delle risorse web, la catalogazione in MARC è eccessivamente costosa e il Dublin Core rappresenta una gradita alternativa. DUBLIN CORE Nato per descrivere pagine web secondo il criterio: schema di riferimento, elemento e valore - come definito nel Resource Description Framework (RDF) - è oggi uno dei formati più diffusi. Caratteristiche fondamentali del DC sono • Ogni elemento è opzionale • Ogni elemento è ripetibile • Sintassi indipendente • Estendibile (la descrizione si può arricchire) • Interdisciplinare (Interoperabilità semantica) • Internazionale (10 lingue in aumento) Il Dublin Core si propone con un set di 15 elementi e qualificatori. Contenuto Proprietà Istanza Titolo Creatore Data Soggetto Altro responsabile Tipo di risorsa Descrizione Editore Formato Fonte Diritti Identificatore Lingua 37 Il catalogo si può interrogare all'indirizzo http://bam.let.uniroma1.it 115 Relazione Copertura Per esprimere sfumature di significato, o circoscrivere l'ambito semantico degli elementi, è in corso di sviluppo il tentativo di specificare gli elementi del DC (Qualified Dublin Core). Il DC-Usage Committee riconosce due categorie fondamentali di qualificatori: 1. schemi di codifica o di lingua, la cui funzione è di aiutare l'interpretazione del valore dei vari elementi, compresi vocabolari controllati e notazioni formali: sono introdotti dal tag scheme= o lang= ; scheme=contesto per interpretazione di un valore basato su standard esterni p. es. per indicare la classificazione DDC: scheme=DDC lang = lingua secondo la codifica ISO 639/1 p. es. per indicare la lingua spagnola: lang="es" 2. specificazioni degli elementi che ne circoscrivono l'applicazione senza estenderne il significato.38 Per la specifica degli elementi è in corso di definizione una codifica secondo il modello: <meta name = "prefisso(.)nome dell'elemento(.)nome del sub elemento…">p.es.: <meta name = "DC.Creator.Director" content = "Sturges, Preston"> <meta name = "DC.Creator.Writer" content = "Hecht, Ben"> L'estensibilità di uno schema dipende dalle caratteristiche/tipologia delle risorse che si devono descrivere/catalogare. Mappatura tra i diversi schemi di metadata La mappatura fra i diversi formati è requisito fondamentale per l' interoperabilità ossia la comunicazione e lo scambio fra i diversi ambienti (fondamentale per le biblioteche l'interoperabilità con i metadata del catalogo, ad es col MARC)39. 38 Per il DC la lista - non ancora a livello di "raccomandazione del DCMI" - di qualificatori rispondenti ai criteri di interoperabilità, si trova a: http://www.mailbase.ac.uk/lists/dc-general/2000-04/0010.html Vedi anche: http://www.agcrc.csiro.au/projects/3018CO/metadata/dc-guide/ Per qualificatori usati in altri sistemi, si veda: http://www.mailbase.ac.uk/lists/dc-agents/files/qualifier-table.html 116 Tale mappature avviene sulla base di registri di metadati (secondo lo standard ISO/IEC 11179), cioè sistemi formali che di regola definiscono la semantica dei metadati, danno informazione su ogni estensione locale in uso e provvedono a mapparli con quelli di altri schemi.40 Il progetto ROAD, che è stato una pietra miliare nell'identificazione, valutazione e descrizione alle risorse Internet per settori disciplinari nell'ambito del progetto e-lib (quality-controlled subject gateways), adottava (1998) dei modelli di metadata (templates) per descrivere le diverse categorie di risorse secondo lo schema IAFA (Internet Anonimous FTP Archives) che comunque è mappato con il DC e può dunque operare con sistemi basati su tale schema alternativo di metadata. Il citato progetto Renardus, ha realizzato una mappatura dei metadata utilizzati dai diversi partner per definire quello che sarà il modelli di dati (data model) comune. Esso fornisce una utile sintesi dei livelli di catalogazione che si posso avere a seconda degli oggetti e degli ambienti nei quali si opera. Nel confronto viene individuato un set minimo (8 elementi) quale base per l'interoperabilità tra i diversi gateway: M =mandatory R =recommended O=optional Elemento Qualificatore Obbligazione Title Alternative M Creator Surname,name R Description TOC, abstract M Subject DDC etc.... R Identifier URL, URN, DOI M Language ISO639/1 R Country (no DC) 3166/1 R Type DCMI O 39 Un' ottima collezione di mappature fra i diversi schemi di metadata è fornito dal progetto ROADS all'indirizzo http://www.ukoln.ac.uk/metadata/interoperability 40 Esempi di registri sono citati in: http://www.desire.org/html/research/deliverables/D3.5/d35.html 117 Principali strumenti di accesso semantico alle risorse di rete L'accesso semantico alle risorse di rete avviene di norma tramite • scorrimento di uno schema di classificazione; • ricerca puntuale per parole-chiave. A tali servizi si aggiungono spesso: • tesauro in linea; • ricerca per area geografica; • ricerca per tipologia di risorsa; • ricerca per tipologia di destinazione d'uso della risorsa. Nella maggior parte dei casi all'utente vengono offerti almeno entrambi gli strumenti principali. Tra le classificazioni si distinguono41: tipologia caratteristiche esempi Schemi universali copertura di tutte le DDC (Dewey) discipline, UDC (Universal) destinazione d'uso generale Schemi specifici per copertura dettagliata di NLM soggetto una singola disciplina Library of Medicine) Schemi personalizzati uso previsto nell'abito Yahoo! di uno (National specifico servizio I principali vantaggi e svantaggi nell'uso di un (qualsiasi) sistema di classificazione sono i seguenti: Vantaggi Svantaggi - facilità di ricerca (soprattutto quando è - partizione talvolta forzata delle discipline e messa a disposizione dell'utente la voce in degli chiaro della notazione piuttosto che la allontanamento di documenti logicamente notazione stessa) correlati (vi si può ovviare attraverso 41 argomenti, con conseguente Non si prendono qui in considerazione i cosiddetti "schemi nazionali generali". 118 - continua contestualizzazione dei termini l'assegnazione di più classi allo stesso di documento) ricerca attraverso la contiguità dell'ambito di significato disciplinare - lentezza nella copertura di nuove aree di - possibilità di allargare o restringere ricerca e nella gestione di nuove terminologie agevolmente il campo della ricerca (vi si può ovviare con modifiche personalizzate ella notazione) Principali vantaggi e svantaggi nell'adozione di ciascuna delle principali tipologie di schemi di classificazione: Schema universale (DDC)42: Vantaggi Svantaggi - facilità d'uso da parte dei bibliotecari - - garanzia di stabilità e aggiornamento dello precendente gli stessi elencati alla voce schema - alta interoperabilità - indipendenza linguistica della notazione numerica - disponibilità dello schema in formato elettronico Schemi specifici per soggetto: Vantaggi Svantaggi - estrema precisione della notazione - complessità di gestione in caso di - familiarità dell'utenza con lo schema gateway multidisciplinare della propria disciplina - mancanza di un sistema accreditato per molte discipline (es.: musica, arti performative, scienze religiose) Schemi personalizzati: Vantaggi Svantaggi - flessibilità - considerevole dispendio di tempo - possibilità di rispondere con maggiore - necessità di approfondita conoscenza 42 Si prende in considerazione esclusivamente la Classificazione decimale Dewey in quanto in uso nel catalogo del Sistema bibliotecario di Ateneo. 119 efficacia ai bisogni dell'utenza delle discipline - rischi di incoerenza - scarsa interoperabilità 2. Parole-chiave. La ricerca per parole chiave può essere resa disponibile tramite: • l'utilizzo di un vocabolario controllato • la ricerca a testo libero nell'intero documento o nelle sue parti significative. Vocabolario non controllato: Vantaggi Svantaggi - risparmio di tempo per l’operatore - necessità per l’utente finale di - possibilità di uso di neologismi tenere conto di varianti grafiche, nell’ indicizzazione e nella ricerca omonimie - possibilità documenti non di richiamo pertinenti e di di perdita di documenti pertinenti Vocabolario controllato: Vantaggi Svantaggi - coerenza dell’indicizzazione - - precisione del risultato della ricerca l’indicizzatore dispendio di tempo per - necessità per l’utente finale di conoscere il vocabolario usato per l’indicizzazione Al momento di decidere sia quale politica di indicizzazione adottare, sia quali strumenti di ricerca offrire agli utenti, è necessario considerare preliminarmente: - estensione disciplinare del gateway in costruzione; - strumenti di indicizzazione già in uso in biblioteca; - strumenti accreditati di indicizzazione disponibili per le discipline coperte; - lingua da adottare per la ricerca e il recupero delle informazioni; 120 - risorse umane, tecniche e finanziarie disponibili; - caratteristiche dei gateways già esistenti nell'area/e disciplinare/i in oggetto43 Il problema lingua Un ambito particolarmente delicato della collaborazione tra SBIG a livello internazionale è costituito dalle barriere linguistiche. Rispetto al multilinguismo sono due gli aspetti da considerare: 1. l’archiviazione, manipolazione e presentazione dell’informazione in diversi linguaggi 2. la ricerca su dati di lingue diverse Sotto ambedue questi aspetti le soluzioni adottate dai vari SBIG non sono univoche. Per il primo aspetto un panorama è offerto dalla seguente tabella relativa ai 43 Esempio di gateway multidisciplinare: BUBL <http://bubl.ac.uk/link/> ricorre alla DDC e a voci di soggetto (controllate) per l’indicizzazione; all’utente finale offre le seguenti possibilità di ricerca: innanzitutto una griglia di relazioni tra le discipline e i loro argomenti del tutto indipendente dallo schema Dewey (es. agriculture sub life sciences), al cui interno sono elencate alfabeticamente delle voci di soggetto da cui si accede alle risorse; quindi una maschera di ricerca semplice e avanzata per autore, voci di soggetto, parole del titolo e dell’abstract. E’ offerta anche la possibilità di scorrere le classi, di cui viene visualizzata sia la notazione numerica che la vedette (browse by Dewey class); quella di scorrere un menu contenente le principali etichette di discipline (main subject menus); di interrogare l’elenco alfabetico completo delle voci di soggetto (A-Z); di accedere alle risorse per tipologia (types); di visualizzare le sole new entries (updates). Esempio di gateway a soggetto specifico: OMNI <http://omni.ac.uk> indicizza utilizzando le Medical subject headings. Offre le seguenti possibilità di ricerca: ricerca semplice e avanzata sui campi titolo, descrizione e parole-chiave; scorrimento del tesauro MeSH 2000 e delle voci di soggetto della National library of medicine. Fonti utilizzate: DESIRE information gateways handbook. 2.5: Subject classification, browsing and searching, [by] P. Cross, M. Day, T. Koch, M. Peereboom, A.-S. Zettergren [online]. <http://www.desire.org/handbook/2-5.html> [aggiornato al 26.4.2000] Kirriemuir, J.-Welsh, S.-Knight, J., Cross-searching subject gateways: the query routing and forward knowledge approach, “D-lib magazine”, January 1998 [online]. <http://www.dlib.org/january98/01kirriemuir/html> [visitato il 7.9.2000] Koch, T., Controlled vocabularies, thesauri and classification systems available in the WWW. DC subject [online]. <http://www.lub.lu.se/metadata/subject-help.html> [creato il 10.12.1996, aggiornato al 28.7.2000] The role of classification schemes in Internet resource description and discovery, Work package 3 of Telematics for research project DESIRE (RE 1004), [by] UKOLN metadata group [online]. <http://www.ukoln.ac.uk/metadata/desire/classification/class_tc.htm> [aggiornato al 14.5.1997] 121 partner del progetto RENARDUS44 in cui, come si nota, l’inglese utilizzato nei campi a testo libero funge da lingua "franca": Nome Copertura Lingua prevista (descrizione, campi di dell’interfaccia testo libero) utente e inglese inglese, olandese inglese DutchE nazionale ss internazionale NOVA area scandinava Gate dei metadata e Lingua lingua inglese inglese (titolo in lingua inglese originale EELS nazionale DEF e internazionale originale) nazionale Danese e inglese (?) nazionale tedesco danese/inglese fragport al DAINet (presto in tedesco (presto in inglese) inglese) FVL nazionale Finnico e inglese finnico e inglese Les nazionale francese francese e inglese inglese e inglese (titolo in lingua inglese signets RDN nazionale internazionale SSBIG- nazionale FI internazionale originale) Per quanto riguarda la ricerca e lo scorrimento di liste per soggetto tra Information Gateways, le tecniche di CLIR (Cross language information retrieval) - che hanno al CNR di Pisa un importante riferimento - in corso di sperimentazione sono soprattutto: 1. traduzione automatica di testo (soprattutto traduzione della query nella lingua del documento; traduzione del documento nella lingua richiesta, tipo Altavista) 44 Becker, H. J., … (et al.), Evaluation report of partner subject gateway, (26.04.2000) file MS-Word 97, scaricabile da: Errore. L'origine riferimento non è stata trovata. 122 2. tecniche di analisi del testo e confronto con knowledge bases; queste possono essere: thesauri multilinguistici come quello che viene creato dal progetto EuroWordNet (in corso da giugno 1999) 3. schemi di classificazione disponibili in più di una lingua (es. DutchEss che offre una struttura classificatoria basata sulla Nederlandse Basisclassificatie disponibile in olandese e inglese; è in corso la traduzione in tedesco) 4. parole chiave, da aggiungere alla descrizione della risorsa: tra le varie possibilità vi è quella di aggiungere parole chiave in inglese come “lingua franca” di internet. Il software Qualsiasi programma di gestione di basi dati è ovviamente proponibile specialmente in un primo momento. Anche per quanto riguarda il software la situazione degli SBIG è abbastanza differenziata e prevalgono soluzioni fatte "in casa".45 Una certa diffusione ha conosciuto il software ROADS (Resource Organisation And Discovery in Subject-based services) sviluppato nell'ambito del progetto e-lib. Si tratta di un software scritto in perl che implementa il formato dei dati IAFA, per altro mappato col Dublin Core, e utilizza per la ricerca il protocollo wohis++ . E' in corso la preparazione di un'interfaccia per Z39,50. Il progetto IMesh si ripropone tra l'altro di rilasciare una nuova versione di ROADS che risponda alle esigenze di altri progetti di gateway in corso. Utilizzano questo software i seguenti Gateway: 1. ADAM - Art, Design, Architecture & Media Information Gateway 2. ALEX - un catalogo di testi elettronici mantenuto a Berkeley 3. BeCal - dedicato all'insegnamento di credenze e culture 4. Biz/ed - dedicato all'economia per il mondo accademico e dell'educazione 5. EELS - Engineering Electronic Library Sweden 6. The Finnish Virtual Library Project 7. HISTORY 8. JIME - The Journal of Interactive Media in Education 9. LeedsLASER- accesso a risorse selezionate di elettronica 123 10. NADIR - un e-zine e centro di informazione di area tedesca per le attività sociali e politiche 11. NOVAGate - forestazione, veterinaria, agricoltura, cibo e scienze ambientali; servizio di biblioteche di università Scandinave 12. OMNI - Organising Medical Networked Information 13. Port - risorse selezionate relative alle attività marittime 14. ROUTES - Resources for Open University Teachers and Students 15. SOSIG - The Social Science Information Gatewway 16. Waste - biblioteca virtuale dell'ingegneria dell'acqua46 I servizi da prevedere per la scelta di package potrebbero essere: Servizi per l'editing dei record: 1. editor Dublin Core o comunque di formato. Per la creazione di metadata esistono sia software commerciali (TagGen - Dublin Core Edition della Hisoftware47) che compie automaticamente una serie di operazioni di editing di metadata come di analisi del testo, sia strumenti gratuiti. Il sito ufficiale del Dublin Core, mantiene la lista dei vari software disponibili in rete per: • creare metadata (Nordic metadata creator, Reggie, DC-dot, etc.) • creare e scambiare modelli (Reggie, Mantis..) • convertire tra formati (Nordic metadata project e DC-dot • estrarre e raccogliere automaticamente i metadata da file html o in MS Office • produrre automaticamente i metadata di pagine html in base all'analisi del testo • altre funzioni 48. 2. strumenti per la creazione automatica di liste di siti di un soggetto o classe (combineharvester, Scorpion v. avanti, Klarity) 3. interfaccia per suggerimenti: si tratta di form attraverso cui l'utente o il corrispondente autorizzato può segnalare una risorsa all'attenzione del catalogatore o 45 Un quadro della situazione dei principali SBIG con l'analisi di 18 broker secondo MODELS Information Architecture (MIA)di MODELS (MOving to Distributed Environments for Library Services) è offerta da: Evaluation report of existing broker models in related projects, Project deliverables di Renardus 46 http://www.ilrt.bris.ac.uk/roads/who/ 47 http://www.hisoftware.com/trialware.htm 48 La lista degli strumenti per la creazione automatica dei metadata del DC è mantenuta a: http://purl.org./dc/tools/index.htm 124 inserire direttamente i dati (nel primo caso si ha semplice segnalazione di un sito interessante, nel secondo catalogazione partecipata) 4. spelling cheacker: un correttore ortografico Servizi per il mantenimento della collezione 5. link cheacker. Poiché i siti rimangono mediamente stabili solo per 50 giorni sono necessari strumenti per controllare periodicamente i link riportando gli errori segnalati dai server. 6. software per registrare variazioni nei siti monitorati 7. messaggistica per avvertire che un sito è stato inserito nel catalogo, che un link non funziona, che una catalogazione o segnalazione è stata accettata, etc… Altri strumenti: 8. per l'indicizzazione e la ricerca (whois++, Z39.50) 9. interfaccia utente (Europagate) 9. robot per l’indicizzazione automatica in base a filtri (combine) Da segnalare anche il software Mantis creato da OCLC e integrato con numerosi servizi. Indicizzazione L'indicizzazione automatica di risorse disciplinari sembra dover svolgere un ruolo sempre più importante nella costruzione di SBIG. Dall'attività del progetto DESIRE emerge infatti che l'utente preferisce poter scorrere una quantità di risorse più ampia del numero relativamente piccolo di risorse di qualità catalogate nei SBIG, senza per questo incorrere nell'eccesso di risultati restituiti da servizi di ricerca globali49. Si tende così a combinare la collezione di risorse www selezionate, catalogate e di attestata qualità, con un indice a soggetto molto più ampio purché affidabile. Il concetto che sottende questa pratica è quello di "comunità di interessi" che si costituisce perché ogni servizio mira a soddisfare le esigenze della propria utenza anche segnalando risorse esterne di analogo argomento e supposta qualità. 49 Anders Ardö, Traugott Koch, Automatic classification applied to the full-text Internet documents in a robotgenerated subject index, manuscript of a forthcoming publication in: Proceedings of the Online Information 99 Conference, London. : http://www.renardus.org/deliverables/ 125 Dal punto di vista pratico tali indici per argomento vengono costruiti 50: • indicizzando le risorse elencate in varie liste cooperanti nella selezione di risorse di un soggetto applicando qualche criterio di qualità (p.e.: Argos51, un indice generato da un robot che indicizza le pagine dei siti elencati in liste mantenute da specialisti della materia); • indicizzando tutte le pagine di siti organizzativi di una area particolare (ad esempio i siti accademici selezionati manualmente per GERHARD); • indicizzando tutte le risorse elencate in selezionati servizi di qualità, includendo anche i siti a cui puntano i link suggeriti fino a tre livelli di citazione (All engineering); • le pagine indicizzate con simili criteri possono essere confrontate con un vocabolario rilevante per il soggetto in questione per identificare i siti che meglio corrispondono al focus del soggetto (rilevanza). Di tali pagine vengono seguiti i link e la procedura si ripete. Esempi di indicizzazioni automatiche nell'ambito di SBIG Netlab dell'Università di Lund (Svezia) utilizza e mantiene Combine harvester52 (falciatrice) per costruire All Engineering un indice di 250.000 risorse di ingegneria generato automaticamente e associato ai siti selezionati manualmente di EELS. Il robot segue i link delle risorse contenute in EELS fino a 3 livelli. Il robot utilizza lo Engineering tehsaurus (ed. 1995) di 17458 termini per assegnare automaticamente la classificazione. Nell’ambito di OCLC il progetto Scorpion utilizza la DDC per la classificazione automatica dei documenti. Il risultato del confronto tra parole delle pagine web e "banca del sapere" (knowledge base) - costituita dal vocabolario, le notazioni, i descrittori, la struttura e le relazioni del sistema di classificazione - produce una serie di numeri della DDC (che possono essere confrontati con le classificazioni assegnate manualmente: infatti i documenti analizzati sono tratti dal catalogo manuale di NetFirst). 50 The construction of a robot-generated subject index, DESIRE II D3.6a, Working Paper 1, Anders Ardö, Traugott Koch, Lars Noodén, NetLab, Lund Univ. Library Development Dept. March 1, 1999. http://www.lub.lu.se/desire/DESIRE36a-WP1.html. 51 http://argos.evansville.edu/about.htm 52 http://www.lub.lu.se/combine/ 126 Il progetto GERHARD (German Harvest Automated retrieval and Directory)53 è stato concepito come una base dati interamente automatica. Esso utilizza Harvest, un programma di indicizzazione automatica, per costruire un indice web del full text (in html) delle risorse accademiche tedesche. G. utilizza metodi statistici e di linguistica computazionale svilupati dallo Institut fuer Semantische Informationsverarbeitung (ISIV) dell’Università di Osnabrueck per stabilire concordanze tra il testo in lingua naturale dei documenti e la classificazione prescelta Per l'analisi semantica dei documenti GERHARD si avvale del vocabolario in più lingue (tedesco, inglese e francese) disponibile in formato elettronico della UDC dello ETH di Zurigo, composta da oltre 70.000 voci. Le pagine indicizzate erano 950.000 nel 1998. 53 Bearb. von Wätjen, Hans-Joachim, Diekmann, Bernd, Moller, Gerhard, Carstensen Kai-Uwe, Bericht zum DFG-Projekt: Gerhard, file Word 97 scaricabile da: http://www.gerhard.de/info/index_de.html 127