appunti integrativi

Transcript

appunti integrativi
INTERNET COME RISORSA INFORMATIVA – APPUNTI Internet e il Web rappresentano una risorsa informativa immensa, una delle più ricche ed eterogenee che siano mai state rese disponibili a un pubblico così vasto, eterogeneo e disperso quali gli utenti Internet attuali. Tuttavia la natura e le caratteristiche di Internet sollevano problematiche rilevanti con riferimento alle modalità di ricerca e reperimento dell’informazione in rete. Può essere utile introdurre un semplice schema degli elementi fondamentali in gioco quando si parla di Internet come sistema per la pubblicazione e il reperimento di informazioni. Da un lato vi sono le fonti di informazione, qui intese come l’insieme dei soggetti (singoli individui, imprese, enti, istituzioni, ecc.) che mettono a disposizione contenuti informativi in rete. Tali fonti di informazione pubblicano dei contenuti informativi ossia rendono disponibili al pubblico delle risorse informative. Nel nostro caso, le risorse informative vengono rese disponibili attraverso la rete Internet, ossia l’insieme dei calcolatori e delle applicazioni Internet (i server, i siti e le pagine web, i database, ecc.). Infine vi sono gli utenti delle risorse informative, ossia i soggetti (privati, ricercatori, professionisti, o quant’altro) che effettuano ricerche in rete al fine di reperire il contenuto di cui hanno bisogno. Con riferimento allo schema introdotto, esaminiamo brevemente le caratteristiche fondamentali di ciascuno degli elementi descritti, allo scopo di evidenziare quali proprietà del “sistema Internet” lo rendono unico rispetto ad altre risorse informative (biblioteche, archivi pubblici e privati, mass media, editori, ecc). Per quanto riguarda innanzitutto la rete Internet in quanto tale, essa rappresenta come è noto la prima rete di comunicazione globale che permettere a un’utenza potenzialmente vastissima di trasmettere, ricevere, comunicare, rendere disponibili contenuti informativi ricchi, articolati,
1 multimediali, a costi modesti e senza limitazioni geografiche. La dimensione della rete, già oggi considerevole, è in continua espansione. Non è facile definire né misurare la “dimensione” di Internet e del Web. Tuttavia tutte le stime disponibili dei principali indicatori tipicamente utilizzati (dal numero di nodi principali o “host computer”, al numero di pagine web, al numero di utenti, ecc.) indicano chiaramente che si tratta di un fenomeno di dimensioni enormi e tuttora in crescita sostenuta. Un dato importante riguarda il numero di utenti che accedono alla rete (saltuariamente o frequentemente), e che secondo le stime più prudenti sarebbero ormai varie centinaia di milioni in tutto il mondo. Una caratteristica importante della rete, che deriva dalla sua stessa struttura tecnica, è la sua organizzazione sostanzialmente non gerarchica (di tipo “peer­to­peer”), nella quale i nodi o utenti collegati risultano a un livello sostanzialmente paritario per quanto riguarda accessi e comunicazione in rete. Inoltre se consideriamo il World Wide Web (che, va ricordato, è solo da considerarsi “un sottoinsieme” di Internet, essendone in pratica un’applicazione specifica), anche l’organizzazione delle diverse pagine Web non ha una struttura preordinata: i collegamenti ipertestuali fanno sì che da un nodo della rete sia possibile raggiungerne qualsiasi altro senza che vi siano percorsi obbligatori secondo livelli gerarchici predefiniti. Data la facilità con cui è possibile aggiungere un nuovo nodo o far accedere un nuovo utente, la rete risulta un ambiente altamente dinamico la cui struttura si modifica continuamente. Risulta inoltre molto semplice per una qualsiasi singola fonte informativa modificare i contenuti e i documenti pubblicati in rete, il che accresce ulteriormente il carattere dinamico del Web. Il supporto applicativo multimediale, sempre più articolato come formati (audio, video, dati, testi, immagini, spesso integrati tra loro e spesso con la possibilità di consultazioni interattive ­ basta pensare alle “visite virtuali” ad un museo), consente inoltre di veicolare attraverso lo stesso unico “medium” una considerevole ricchezza di contenuto: lo stesso concetto di Web 2.0 recentemente introdotto riassume questa natura “sociale” dei processi di generazione dei contenuti in Internet.
2 Rispetto agli altri mezzi di comunicazione, Internet è inoltre in grado di consentire attraverso la stessa infrastruttura un’estrema varietà di modalità di comunicazione, essendo possibile agli utenti scegliere ad esempio modalità monodirezionali o bidirezionali, oppure one­to­one, one­to­many, o many­to­many, e così via. Come “risorsa” dal punto di vista informativo, le statistiche mostrano come Internet supera ormai abbondantemente qualsiasi altro sistema esistente al mondo e mai creato dall’uomo, comprese le più grandi biblioteche o banche dati. La dimensione di Internet come risorsa informativa, già immensa se si considera ciò che è disponibile nelle semplici pagine Web, è addirittura ancora più grande (e tale da risultare pressoché non misurabile) se si tiene conto anche del cosiddetto “deep web” (v. più avanti) ossia l’immenso patrimonio di dati nelle forme più disparate disponibile all’interno dei singoli computer, e accessibile attraverso la rete anche se di solito con modalità particolari. Per quanto riguarda le fonti e le risorse informative, come detto Internet è un contenitore a cui si può avere accesso in modo estremamente facile, specialmente in confronto a tutti gli altri media esistenti; la facilità di inserimento e di aggiornamento consentono praticamente a chiunque di inserire in rete i propri contenuti in tempi rapidi e a costi quasi nulli. Inoltre gli aggiornamenti possono essere effettuati in tempi altrettanto rapidi e senza la necessità di procedure complesse. Tutto ciò ha contribuito a determinare l’estrema eterogeneità sia delle fonti di informazione su Internet (che possono andare dal singolo individuo, alla grande multinazionale, all’istituzione nazionale o internazionale), sia dei tipi di contenuti in rete o del loro formato. I materiali disponibili sono talmente tanti e vari che si parla ormai di “information overload”, intendendo con questo termine il rischio di sovraccarico a cui è soggetto chi cerchi del materiale in rete. Il meccanismo dei link ipertestuali favorisce la costruzione di connessioni tra contenuti diversi, il che aumenta ulteriormente la ricchezza informativa del mezzo, apre anche nuove opportunità di comunicazione, ma può anche rendere più complessa la navigazione. Inoltre all’interno della stessa piattaforma Internet ciascuna fonte informativa può privilegiare le modalità di fornitura delle informazioni che preferisce ­ dall’accesso libero a quello protetto,
3 dall’informazione gratuita a quella a pagamento. Un’altra caratteristica dell’Internet attuale è la sostanziale assenza o difficoltà di porre controlli e censure sui contenuti e sulle fonti; ciò ha espanso la libertà di informazione e comunicazione, talvolta al punto di sollevare problemi di decenza o di legalità. Un cenno speciale va fatto al cosiddetto “deep Web”. Nel considerare Internet come risorsa di informazione spesso ci si limita agli aspetti più “superficiali” ossia più direttamente accessibili e conteggiabili: vale a dire ad esempio le pagine Web ­ o meglio ancora, le pagine Web dei primi livelli che sono più facilmente accessibili a un navigatore in Internet. Tuttavia, all’interno dei milioni di computer connessi in rete è disponibile in realtà infinitamente di più: i dati interni dei database, le banche dati, i file residenti in molti computer e che sono in molti casi accessibili da Internet e perfino dal Web. Poniamo il caso di una banca dati (ad es. bibliografica) che viene consultata attraverso il Web. Raggiunto il sito della banca dati, e utilizzando una parola chiave adeguata, i dati richiesti (ad es. il testo di un articolo scientifico) possono essere reperiti all’interno del calcolatore che ospita la banca dati e vengono resi disponibili su Internet all’utente: ad esempio viene generata “dinamicamente” una pagina web che riporta le informazioni richieste, reperite all’interno della banca dati stessa. Questo contenuto appartiene al deep web, nel senso che non è accessibile direttamente come pagina web in quanto tale, ma deve essere raggiunto utilizzando un’applicazione di ricerca interna di quello specifico archivio online. Se consideriamo tutti i dati accessibili in questo o simili modi, possiamo dunque parlare di “deep Web”: intendendo cioè tutto l’insieme delle informazioni potenzialmente disponibili su Internet e che sono reperibili effettuando ricerche o esplorazioni all’interno dei singoli database o dei singoli computer. Si tratta di un bacino di informazioni la cui dimensione è pressoché impossibile da misurare, ma che secondo molti è presumibilmente molto più grande di ciò che è accessibile direttamente esaminando le pagine Web “statiche” direttamente consultabili con una navigazione. Considerando infine gli utenti delle informazioni su Internet (ossia coloro che “cercano contenuti”), anche qui vi sono alcuni aspetti importanti da sottolineare. Innanzitutto si tratta ormai di un
4 pubblico estremamente eterogeneo, che esprime i fabbisogni informativi più disparati. Inoltre lo stesso utente generalmente ricerca in rete informazioni di tipo assai diverso tra loro. Le modalità di accesso possono essere estremamente differenziate, in relazione alle disponibilità di tempo o denaro. Si può andare dall’utente specialista in grado magari di effettuare ricerche lunghe e onerose da postazioni di enti di ricerca, ai navigatori occasionali “da casa” che hanno necessità di effettuare ricerche rapide a basso costo, ecc. Oggi si assiste comunque alla progressiva modificazione delle tipologie di utenti che accedono alla rete. Dalle élite di specialisti che caratterizzavano i primi usi (ad es. ricercatori, e specialmente nel campo della Computer Science), con l’apertura al grande pubblico sta crescendo rapidamente la percentuale di utenti “non specialisti”, magari caratterizzati da livelli di istruzione non elevati, o con competenze non sofisticate soprattutto nell’uso del mezzo Internet stesso. Si tratta dunque di un contesto caratterizzato da una sostanziale non omogeneità degli utenti per quanto riguarda interessi, fabbisogni informativi, competenze, cultura, disponibilità di risorse, ecc.; inoltre con un gran numero di utenti non particolarmente abili nell’uso degli strumenti di ricerca messi a disposizione dalla rete. Tutto questo rende molto varie e articolate le modalità e le strategie di ricerca delle informazioni in rete che ciascun utente adotta. Gli aspetti prima indicati hanno implicazioni dirette in termini di problemi che si pongono nella ricerca delle informazioni in Internet. Al crescere della dimensione della rete e dell’eterogeneità dei formati aumenta evidentemente la difficoltà di reperimento di una data informazione in rete. Il reperimento è inoltre più difficile data l’assenza di catalogazione dei contenuti, oltre al fatto che questi possono trovarsi a livelli diversi nella rete (ad es. entro pagine interne di un sito, o nel deep web). Anche nel caso in cui sia possibile reperire facilmente l’informazione, sorgono problemi relativamente alla qualità del contenuto trovato, sia per l’incertezza sul grado di aggiornamento di tale contenuto, sia per quanto riguarda le garanzie di affidabilità e reputazione di chi ha pubblicato tale contenuto. Infine gli utenti stessi possono trovare difficile l’esplicitazione del proprio fabbisogno di informazione, così come la sua traduzione nell’appropriata strategia o procedura di
5 ricerca in rete anche per evitare di cadere nella trappola dell’information overload; non esistono del resto modalità o procedure standard o ottimali che possano essere apprese e usate: in questo caso conta anche molto l’esperienza (e il tempo a disposizione). Occupiamoci ora più specificatamente del problema di reperire informazioni su Internet. Quali sono gli strumenti a disposizione? Come si effettua una ricerca? Si tratta di un problema che interessa sia gli utenti stessi – ossia coloro che cercano contenuti – ma anche le fonti, ossia coloro che desiderano che altri reperiscano contenuti: si pensi ad esempio l’importanza che ha, per un’azienda, la visibilità in rete, ossia la possibilità che un proprio sito sia facilmente reperibile. Va detto innanzitutto che sono ormai moltissimi gli utenti che cercano informazione in rete, e che quasi sempre lo fanno in un modo “intuitivo”, e altrettanto spesso usando un motore di ricerca (o più specificatamente il più noto tra questi: Google). Questa modalità di ricerca, peraltro, non è sempre sufficientemente valida, anzi per alcuni tipi di ricerche si dimostra inadeguata. Perché? Per rispondere alla domanda dobbiamo innanzitutto dire qualcosa di più su come funziona la ricerca di informazioni attraverso un motore. Va detto subito che le modalità di funzionamento (i cosiddetti “algoritmi” di ricerca) dei motori non sono di solito rese note, e sono addirittura spesso oggetto di ipotesi e speculazioni. Tuttavia il modello iniziale o quantomeno quello che ha ispirato i primo motori di ricerca, ha origine in quel campo di studi che ha il nome di Information Retrieval. Con questo termine intendiamo i principali modelli di riferimento per la ricerca di informazione nei grandi database elettronici di tipo documentale, ossia contenenti testi e documentazione per lo più scritta. Un sistema di ricerca in tali archivi è essenzialmente basato su una procedura di “indicizzazione”, ossia la costruzione in anticipo di “indici” (ovvero “sintesi”) dei contenuti dei diversi documenti, che vengono cioè preclassificati sulla base di parole chiave. Un modo tipico di indicizzare un testo è sulla base del conteggio delle “ricorrenze” ossia del numero di volte in cui ciascuna parola compare nel testo stesso ­ anche se sono possibili approcci anche diversi e ben più complessi. Tali indici sono poi usati per facilitare il reperimento del documento da parte dell’utente
6 attraverso le parole chiave: in pratica, quando l’utente digita una parola, un sistema basato su tali modalità restituirebbe un elenco dei testi che contengono il maggior numero di volte quella parola. Riassumendo, secondo uno schema tipico del meccanismo dell’information retrieval, si ha innanzitutto un software che analizza i testi e li “classifica” (indicizza) sulla base di criteri quali la frequenza o ricorrenza con cui compaiono le parole. Viene quindi creato un database (in pratica, ua serie di tabelle) che memorizza questi indici. L’utente che sta cercando un determinato documento lancia una ricerca (“query”) inserendo le parole chiave da ricercare. Il software ricerca nel database indice (ossia nelle tabelle) il/i documento/i a cui corrisponde l’indice più elevato (quindi ad esempio come frequenza di comparsa delle parole chiave) e restituisce infine la risposta all’utente sotto forma di una lista di documenti in ordine di rilevanza. Come dicevamo, almeno nella loro forma originaria o “ideale”, i motori di ricerca sono stati concepiti sulla base dei classici approcci dell’information retrieval. Tuttavia tale approccio, se applicato “brutalmente” al contesto di Internet, presenta varie limitazioni, che ora approfondiremo. I motori di ricerca dispongono innanzitutto di un “generatore di indirizzi Web” che, con determinate cadenze, produce una lista di indirizzi entro i quali il motore ricercherà le pagine da esaminare. A intervalli predefiniti, un programma (denominato “spider”, oppure anche “robot” o “crawler”) effettua la visita (automatica) di tali siti e ne costruisce un’immagine “indicizzata” basata ad esempio sul calcolo delle ricorrenze delle parole presenti, o su altre modalità (che possono essere molto varie e, come si diceva, spesso non note del tutto, oltre che con differenze tra motore e motore). Alla richiesta dell’utente il motore effettua una ricerca non sul web direttamente (operazione che sarebbe ovviamente troppo lunga) ma sul proprio database indicizzato, ossia sulle tabelle di indici delle pagine che il programma spider ha censito in precedenza. Ad esempio, se le pagine sono indicizzate sulla base della frequenza delle parole, il motore restituirebbe all’utente (nell’ordine di frequenza) l’elenco delle pagine web in cui la parola chiave dell’utente compariva più frequentemente quando il programma spider ha visitato tali siti (e, naturalmente, solo per le
7 pagine effettivamente visitate che, come vedremo, non possono essere la totalità di Internet né del Web). Questo meccanismo di information retrieval applicato al Web ha alcuni limiti fondamentali. Innanzitutto, le tecniche dell’information retrieval quali quelle che abbiamo prima illustrato sono perfettamente adatte a un contesto informativo caratterizzato da documenti tra loro omogenei come formato (ad esempio solo testi), e come contenuto (ossia, le parole chiave hanno tipicamente significati o usi analoghi tra un documento e l’altro). Inoltre, il loro funzionamento efficiente richiede generalmente che il database documentale sia ordinato e controllato ­ ossia l’immissione di un nuovo documento sia regolamentata secondo procedure standard, il che consente una catalogazione ordinata e un’indicizzazione di tutti i testi introdotti. Inoltre, l’indicizzazione dei testi tramite la semplice analisi delle ricorrenze appare un modo non sempre efficace per l’analisi dei siti, considerata la dimensione della rete, l’elevato dinamismo, l’eterogeneità delle risorse informative, e la mancanza di una catalogazione. L’applicazione dell’indicizzazione basata sulle ricorrenze risulta molto meno affidabile in un contesto come Internet, dove i contenuti hanno formato o contenuto ben poco omogeneo: una stessa parola chiave può fornire, come è noto, i risultati più disparati quando la parola stessa ha significati radicalmente diversi in contesti differenti. Il conteggio delle ricorrenze, infatti, non fornisce necessariamente un buon parametro per misurare la “rilevanza” di un sito rispetto a un altro con riferimento a un dato argomento o parola. Vi sono inoltre tuttora problemi di vario tipo nella gestione delle diverse lingue. Va detto che sono stati introdotti anche meccanismi assai più sofisticati del solo conteggio delle ricorrenze, e tuttavia per nessuna di queste tecniche si è riusciti a dimostrare la “validità” in assoluto (ossia l’efficacia rispetto alle esigenze di ricerca di tutti i possibili utenti). In secondo luogo, nessun motore di ricerca ha (né, presumibilmemte, potrebbe avere) una copertura totale di tutte le informazioni presenti nella rete, e neppure del Web. Secondo alcuni studi anche qualche anno fa, quando la dimensione di Internet era assai inferiore a quella attuale, i migliori motori non riuscivano a coprire oltre il 40% delle pagine Web stimate; oggi alcune stime indicano
8 addirittura percentuali più piccole. Il che significa che in ogni caso gran parte del Web non risultava coperto. Per non parlare poi del “deep Web”, ossia ad esempio di tutti i documenti contenuti all’interno di database e banche dati e che non sono direttamente indicizzabili dai motori (si pensi per es. alle pagine dinamiche generate dall’interrogazione ad un elenco telefonico ondine, sicuramente non censite dai motori). Per molti motori risulta poi difficoltosa la gestione dei “link alle sottopagine”: sono pochi i motori che analizzano non solo una data pagina ma anche tutte le pagine a cui essa è collegata ai livelli inferiori, il che riduce ulteriormente la porzione di Web esplorabile. Infine vanno ricordate le difficoltà dell’utente ­ sia quello inesperto, ma talvolta anche lo specialista. L’utente non sempre è in grado di tradurre adeguatamente le proprie interrogazioni o fabbisogni di ricerca in parole chiave adeguate, e spesso le ricerche risultano infruttuose o complicate per questa ragione. Fra l’altro, come dicevamo, il motore inoltre non è in grado di evidenziare le differenze semantiche di omonimie (parole che si scrivono allo stesso modo ma hanno significati diversi) o valutare la differenza precisa di termini che in parte, o in specifici contesti, usati come sinonimi, quindi l’onere dell’analisi ricade interamente sull’utente. Né è detto che sia sufficiente inserire nel campo di ricerca più termini per risolvere tali problemi, e la combinazione di più parole chiave a volte finisce per portare la ricerca fuori strada anziché facilitarla. Ancora, la “fotografia” del Web (ossia l’indicizzazione) di cui un motore di ricerca dispone in un certo istante non è detto che sia la più aggiornata in assoluto. Un fenomeno di esperienza comune è che, durante la ricerca con una certa parola, il motore restituisca l’indirizzo di pagine che, quando si tenta di visitarle, risultano non più accessibili o di contenuto radicalmente modificato rispetto a quello indicizzato dal motore stesso. Ciò significa che quelle date pagine non erano state più censite dal motore, che ne memorizza dunque un indice non più aggiornato e dunque non affidabile. Da ultimo, va ricordato che le tendenze dei motori di ricerca sembrano (almeno in alcuni casi evidenti) quelle di fornire posizioni privilegiate alle pagine “sponsorizzate”, il che evidentemente rende meno trasparente il processo di retrieval. Oltretutto, dato che i motori di ricerca non danno
9 assolutamente alcuna indicazione circa l’autorevolezza o affidabilità di una fonte (valutazione che è totalmente di responsabilità di chi sta effettuando la ricerca), la presenza di possibili sponsorizzazioni (non sempre evidenti all’utente) può ulteriormente confondere le idee. Questi dunque i limiti attuali dei motori di ricerca. Allo stato, nonostante gli immensi sforzi in tale campo, non sono ancora state messe a punto tecnologie davvero efficaci per espandere le funzionalità degli strumenti di ricerca in Internet. Le principali direzioni di ricerca riguardano: ­gli strumenti per analizzare il linguaggio naturale, in modo da superare i limiti delle classiche ricerche con parole chiave, e interpretare invece richieste informative anche complesse e articolate dell’utente lanciando ricerche in rete più efficaci. ­gli agenti di ricerca intelligenti, che aiutano l’utente nel reperimento e nella gestione delle risorse informative in Internet, automatizzando compiti routinari (svolti anche senza l’intervento diretto dell’utente – ad es. la verifica dell’aggiornamento di una data pagina web), oppure apprendendo e poi riproducendo alcuni “modelli comportamentali” tipici del profilo di un dato utente (ad es. tenendo traccia dei suoi “argomenti di ricerca” preferiti) ­la ristrutturazione del Web in modo che il contenuto di ogni pagina non sia semplicemente un testo, ma un testo arricchito di indicazioni sulla sua struttura e sul contenuto di ogni parte (v. il progetto del “semantic Web”); questo dovrebbe facilitare la definizione di motori di ricerca molto più efficaci. Al momento tuttavia queste soluzioni “tecnologiche” al problema della ricerca in rete non sembrano però risolutive. L’unica strada che al momento sembra essere stata intrapresa dalle società che gestiscono i motori di ricerca è quella di estendere il proprio campo di applicazione. Ad esempio, Google ha inserito sezioni tematiche (ad esempio ricerca in mappe, immagini, news o altro) che possono facilitare l’utente nel caso di ricerche specifiche. Si tratta certamente di strumenti utilissimi, che tuttavia richiamano altri problemi come ad es. la classificazione dei contenuti o l’integrazione tra fonti diverse.
10 In definitiva, l’ambiente di Internet se pure informativamente ricchissimo risulta particolarmente difficile da trattare, né esistono metodi o strumenti “ideali” per la ricerca di informazione. I motori di ricerca restano lo strumento principale per la ricerca in rete e indubbiamente costituiscono un ottimo strumento, ma non sono l’unico né necessariamente il più efficace per reperire i contenuti informativi. Oltretutto non esiste un solo motore né sono tutti uguali. Ciò lascia quindi spazio a una pluralità di strumenti e di operatori che possono offrire “servizi di intermediazione informativa”, ossia offrire un qualche tipo di “assistenza” nel facilitare il reperimento delle informazioni da parte degli utenti, o migliorare la visibilità delle fonti e delle risorse. Il ruolo di tali “intermediari informativi” è quello di facilitare l’interazione e l’incontro tra la domanda e l’offerta di informazione in Internet, da un lato facilitando il reperimento da parte degli utenti, dall’altro rendendo maggiormente visibili le fonti e le risorse informative disponibili in rete. Dato che l’operazione di reperimento di informazione in Internet può avere meccanismi e gradi di efficienza diversi a seconda della situazione (ossia in relazione al tipo di utenti, ai loro fabbisogni informativi, alle fonti e risorse informative, al mezzo utilizzato), e non esistendo una soluzione unica “massimamente efficiente” per ogni specifico problema informativo, gli intermediari informativi possono anche rappresentare operatori in competizione tra loro e in grado di offrire soluzioni più o meno valide o efficienti a seconda della situazione e del contesto di applicazione. Diventa possibile la nascita di un “business” dei servizi di ricerca in rete. Si assiste in effetti a un proliferare di servizi di ricerca e di intermediazione informativa assai differenti tra loro, in relazione ad esempio al target di utenza, alla copertura della rete, alle prestazioni (in termini ad es. di velocità, piuttosto che di precisione, di affidabilità, ecc.), al costo di tale intermediazione informativa e alle modalità di pagamento di tale servizio (dall’erogazione gratuita o “sponsorizzata” ­ come del caso
11 dei motori, ai servizi in abbonamento, ecc.). Si assiste anche a fenomeni di alleanza e “concatenamento” tra tali intermediari, ossia a vere e proprie catene del valore nell’intermediazione informativa nelle quali ciascun operatore svolge particolari porzioni o funzioni del servizio complessivo fornito agli utenti. Si possono fornire vari esempi di operatori e servizi informativi di natura molto differente tra loro, ciascuno specializzato nella fornitura di informazioni specifiche via Internet, nella gestione di risorse/fonti specifiche, nell’utilizzo di tecnologie o metodi di ricerca diversi, ecc. Questi strumenti hanno evidentemente prestazioni diverse relativamente a vari possibili aspetti, nonché utilizzi preferenziali o viceversa limiti. Ciò è importante nel momento in cui si imposta una ricerca in rete. In effetti un “buon” procedimento di ricerca in rete, quantomeno su argomenti complessi e non di facile specificazione, potrebbe richiede una riflessione preliminare su alcuni elementi chiave: ­ cosa si sta cercando veramente e perché (il “fabbisogno” di ricerca e la sua formulazione) ­ quali strumenti appaiono più idonei per la ricerca ­ quali parole chiave sono appropriate (anche in relazione allo strumento usato, ad es. motori piuttosto che pagine gialle o banche dati) ­ quali metodi si devono utilizzare per valutare la qualità della risposta (ossia se risponde efficacemente al fabbisogno) e l’affidabilità della fonte e della risposta stessa In generale in relazione allo specifico fabbisogno informativo – ma anche alle capacità dell’utente e ad altri vincoli ad es. temporali o di risorse – gli utenti Internet hanno diversi vari comportamenti tipici nella ricerca di informazione. Un approccio di tipo “intuitivo” è il più diffuso, e prevede in sostanza una modesta riflessione sull’impostazione della ricerca e viceversa un accesso immediato agli strumenti in rete (tipicamente un motore). Questa tecnica può dare ottimi risultati specialmente quando si conosce già a sufficienza il proprio obiettivo di ricerca e, a grandi linee, anche dove e come trovare la risposta. All’opposto, una ricerca analitica ed accurata appare una strada maggiormente appropriata quando la ricerca si basa su elementi potrebbe prevedere innanzitutto una fase preliminare di impostazione anche molto accurata (con l’identificazione e la formulazione degli
12 obiettivi di ricerca, la scelta dei vari possibili strumenti e database, la scelta delle parole chiave alternative, ecc.) e solo successivamente l’uso degli strumenti Internet veri e propri. Questa seconda tecnica appare appropriata specialmente nel caso di ricerche complesse, articolate, o basate su interrogativi predefiniti, ma richiede anche competenze e tempo. Per una rapida panoramica esemplificativa su vari tipi di strumenti di ricerca e il loro uso e utilità per l’utente si rinvia ai lucidi.
13