Una Storia dell`Ipertesto

Transcript

Una Storia dell`Ipertesto
Una Storia dell’Ipertesto
Andrea D’Alessandro
“Sino ad allora avevo pensato che ogni libro parlasse
delle cose, umane o divine, che stanno fuori dai libri.
Ora mi avvedevo che non di rado i libri parlano di libri,
ovvero è come se si parlassero fra loro.”
Umberto Eco – Il Nome della Rosa
Hans Hartung, T. 1935 - 1, 1935
1
Introduzione
Il World Wide Web ha cambiato per sempre il modo di memorizzare, organizzare e ricercare le
informazioni: esso è basato sul concetto di ipertesto, una struttura elastica e multiforme di
collegamento fra informazioni. Un ipertesto consiste essenzialmente in un testo non lineare e
non sequenziale, formato da documenti a loro volta composti da una collezione di nodi
(frammenti di testo o altri media) connessi da collegamenti.
Ma l’ipertesto non è nato con il web. Come vedremo, il modello nacque molti anni prima, e vi
furono moltissimi approcci all’implementazione, che ebbero quale più, quale meno successo.
Inoltre, le sue radici sono molto più antiche, fondate sui tentativi connaturati all’uomo di
collezionare informazioni, categorizzarle, organizzarle in complesse strutture fisiche e mentali,
ed infine indicizzarle per rendervi più facile l’accesso.
La maggior parte delle storie e cronologie del web fanno risalire il concetto di ipertesto a
Vannevar Bush, noto scienziato, tecnologo e “futurologo” che nel 1945 descrisse l’idea del
memex, un dispositivo del futuro destinato alla memorizzazione, organizzazione e recupero
della conoscenza, che avrebbe permesso di collegare i vari segmenti di informazione tramite
libere associazioni in modo analogo a quanto accade dentro alla mente umana.
Vedremo che Bush in realtà non inventò nulla; i concetti e le tecnologie su cui si basava l’idea
del memex erano all’epoca già esistenti e ben affermate. Egli ebbe però il merito di fonderli in
un'unica visione del futuro della conoscenza umana, e di descriverla in modo così naturale da
convincere i suoi attenti lettori della possibilità (se non addirittura della facilità) della sua
realizzazione.
La strada dell’ipertesto - dal memex di Vannevar Bush al World Wide Web di Tim Berners-Lee fu poi lunga e tortuosa. Vedremo come i concetti, le tecnologie e gli idiomi semantici su cui oggi
è fondato il web - e che diamo ormai per scontati – si sono lentamente formati e cristallizzati
negli anni grazie agli sforzi di innumerevoli ricercatori.
1
Prima dell’ipertesto
Libri sacri
La Bibbia è forse il testo più anticamente e profondamente studiato tra quelli che fanno parte
della cultura indo-europea. Fin dall’inizio i dotti, prima quelli ebraici con Vecchio e poi quelli
cristiani con il Nuovo Testamento, hanno dissezionato il Libro commentandolo, analizzandolo e
indicizzandone parole e situazioni, in modo da carpirne anche il significato più segreto. Anche
Talmud e Corano, altri testi sacri con origini simili, sono stati soggetti ad esegesi simili, e tali
intricati sistemi di riferimenti incrociati rendono evidente il fatto che la complessità
intertestuale e ipertestuale è connaturata al modo di pensare della mente umana.
Arte della memoria e Teatri della Sapienza
Con la nascita della retorica, iniziò anche lo studio dell’arte dell’incremento artificiale della
memoria; i retori greci e romani per aiutarsi nei discorsi escogitarono molte tecniche ed artifici
per aiutare la mente umana a estendere la propria - limitata - capacità mnemonica (il più antico
testo a noi giunto ove sono descritte tecniche mnemoniche è il libro terzo della Rhetorica Ad
Herennium, a lungo attribuito a Cicerone); i predicatori medievali mantennero poi viva la
tradizione utilizzando ampiamente tali tecniche (vedi la Rhetorica Divina di Guillelmus Alvernus
del 1240).
Fu però il Rinascimento - stranamente proprio quando, con l’arrivo della stampa, avrebbero
teoricamente dovuto perdere d’importanza - che le arti mnemoniche ebbero la massima
fioritura; i maggiori letterati dell’epoca, da Giovanni Pico della Mirandola a Marsilio Ficino fino a
Giordano Bruno, scrissero diversi trattati sull’arte della memoria per aiutare oratori, politici e
predicatori a memorizzare senza grande sforzo, tramite vari meccanismi mentali (vedi anche
[Yates 1966]).
Dove non erano sufficienti gli esercizi di associazione di idee e
di allenamento mentale, alcuni poi escogitarono strumenti i
quali – secondo gli autori – potevano meccanizzare la
memorizzazione di grandi quantità di informazioni, e il
richiamo dalla memoria di frammenti di esse quando
necessario. Ad esempio, nel 1550 Giulio Camillo Delminio 1
descrisse ne L’idea del Theatro il suo Teatro della Memoria2
[Camillo 1550], e Matteo Ricci 3 nel 1596 insegnò ai cinesi la
costruzione di Palazzi della Memoria.
Il teatro di Camillo era una struttura costruita secondo il
modello vitruviano del teatro, suddiviso quindi in ordini e gradi
in cui erano sistemati i vari luoghi del sapere. Anche se non
Matteo Ricci
venne mai realizzato nella sua interezza, ne venne costruito un
modello in legno – oggi diremmo un prototipo - in scala ridotta
ma grande a sufficienza da poterci entrare, costellato di figure dipinte e pieno di scatole
contenenti oggetti che richiamavano alla memoria luoghi, situazioni ed idee.
Il palazzo della memoria di Matteo Ricci era simile in tecnologia, ma venne adattato alla cultura
cinese, la quale, a causa degli ideogrammi usati nella scrittura, già era permeata dell’equazione
immagine = idea [Spence 1983].
1
Giulio Camillo Delminio, letterato e filosofo, nacque a Portogruaro attorno al 1484 e, dopo una vita errabonda che
attraversò alcune fra le maggiori corti europee (come quella di Francesco I re di Francia, e quella di Alfonso d’Avalos,
governatore di Milano), morì a Milano nel 1544.
2
Una più estesa e precedente versione dell’ Idea è il Theatro della sapientia, mai pubblicata ed esistente solo in
manoscritto, che completa e dettaglia il teatro di Camillo.
3
Il gesuita Matteo Ricci, nato a Macerata nel 1552, nel 1583 andò missionario in Cina dove fondò la missione cattolica,
dove acquisì grande prestigio grazie alla sua profonda cultura, alla sua grande capacità di assimilare quella cinese
(compresa la sua difficile lingua e scrittura), ed infine all’abilità nel presentare il sapere occidentale secondo il modo
di pensare cinese. Forse più famoso in Cina (dove è conosciuto come Li Madou) che in Italia, scrisse in cinese il Jifa
(Trattato dell’arte mnemonica) in cui descrisse il suo Palazzo; morì a Pechino nel 1610.
2
Questi strumenti cercavano di meccanizzare le libere
associazioni d’idee che naturalmente la mente umana
crea fra concetti e frammenti di informazione. I
collegamenti potevano essere creati e percorsi
fisicamente tramite una efficace navigazione attraverso
tutto lo scibile umano.
In quell’epoca feconda furono escogitati anche sistemi
che automatizzavano la ricerca e la comparazione delle
informazioni presenti nei libri. Curioso è il “leggio a ruota
per più libri” di Agostino Ramelli 4, che ne pubblica un
disegno nella sua opera sui dispositivi meccanici [Ramelli
1588]; permetteva la disposizione di più libri, mantenuti
sempre orizzontali da rotismi, e il passaggio dall’uno
all’altro tramite la pressione di un pedale.
John Wilkins – XVII secolo
John Wilkins5, vescovo e letterato inglese del seicento,
costruì un complesso e completo sistema per una lingua
filosofica universale [Wilkins 1668].
Per la generazione di questa lingua, egli procedette ad
Agostino Ramelli
una colossale recensione di tutto il sapere 6, organizzando
Leggio
a ruota per più libri
le idee in 40 generi maggiori, suddivisi poi in 251
differenze e quindi in 2030 specie, tutti organizzati nella
sua opera in complesse tavole gerarchiche.
Egli procedette poi a creare una grammatica e una scrittura simbolica che univa le suddette idee
in strutture regolari ed ortogonali, che avrebbero dovuto aiutare la memorizzazione della sua
lingua.
Senza entrare in ulteriori dettagli, Wilkins prevedeva come un concetto potesse fare parte di
diversi contesti, e che essi fossero tutti collegati tramite le tabelle e la grammatica peculiari del
suo sistema. Egli fu perciò un pioniere della classificazione flessibile e multipla del sapere, un
antesignano dell’ipertesto [Eco 1993].
Strutture ipertestuali analogiche
Paul Otlet – Anni ‘20-‘30
Lo storico W. Boyd Rayward ha studiato a fondo la vita e le opere di Paul Otlet 7 - uno dei
fondatori dell’International Federation for Information and Documentation (FID) - e in diversi
4
Agostino Ramelli, nato nel 1531, era un ingegnere militare, che durante la carriera servì GianGiacomo de Medici e il
re di Francia Enrico III. Il suo libro Le diverse et artificiose machine del capitano Agostino Ramelli [Ramelli 1588],
ricco di 195 superbe incisioni che illustravano le macchine che egli aveva immaginato e inventato, fu un classico
dell’ingegneria rinascimentale ed ebbe una significativa influenza sullo sviluppo della meccanica nei decenni
successivi. Ramelli inoltre teneva in gran conto la matematica, e nella prefazione al suo libro lodò l’eccellenza della
matematica come necessaria anche a coloro che si dedicavano alle arti liberali.
5
Nato nel 1614 a Fawsley, Northamptonshire, John Wilkins crebbe a Oxford dove poi conseguì il Bachelor of Arts.
Dopo aver preso gli ordini religiosi, oltre alla carriera ecclesiastica Wilkins curò anche quella accademica (fu Warden
del Wadham College di Oxford e poi Master del Trinity College a Cambridge). Grande oppositore della monarchia, si
legò alla dittatura cromwelliana; dopo la restaurazione di Carlo II, Wilkins si dedicò agli studi scientifici, filosofici e
linguistici (fu uno dei principali fondatori e il primo segretario della Royal Society), e alla carriera ecclesiastica,
arrivando ad essere consacrato vescovo di Chester. Morì a Londra nel 1672.
6
Ovviamente, quello di un cittadino inglese del XVII secolo.
7
Paul Otlet (Bruxelles 1868-1944) fu uno dei maggiori esperti moderni di bibliografia. Nel 1895 fondò, insieme a Henri
La Fontaine, l’ International Institute of Bibliography (ora noto come International Federation for Information and
Documentation) e nel 1910, la Union of International Associations. Egli fu anche un attivista del movimento della pace
che portò, alla fine della I guerra mondiale, alla nascita della Lega delle Nazioni (e della Organizzazione per la
Cooperazione Intellettuale, che diventò poi l’Unesco).
3
articoli ha reso noto al grande pubblico i contributi pionieristici che Otlet ha apportato a quella
che oggi chiamiamo “Information Science” (nella sua vera, originale accezione di scienza della
gestione dell’informazione) [Rayward 1991].
Fra le molte realizzazioni di Otlet, dobbiamo ricordare il gigantesco database bibliografico
denominato Repertoire Bibliographique Universel (RBU)8, creato all’interno della FID, e la
Universal Decimal Classification (UDC, in uso ancora oggi), messa a punto per facilitare la
classificazione dei testi entro al RBU.
Nel 1910, in occasione dell’Esposizione mondiale di Bruxelles, Paul Otlet e Henri La Fontaine
crearono un’installazione chiamata “Mundaneum”, che avrebbe dovuto rappresentare una
cittadella dell’intelletto, il centro pulsante di una città utopica che ospitasse la società delle
nazioni mondiali 9. Nel 1919, Otlet convinse il Re Alberto del Belgio a fornire una nuova sede al
Mundaneum, in 150 stanze del Palais du Cinquantenaire, all’interno della quale riunì il suo vasto
“edificio documentario”, con più di 12 milioni di schede e documenti.
Oltre al problema dell’organizzazione del database, risolto brillantemente con l’UDC, Otlet però
era preoccupato dal problema della fruibilità del database stesso. Versò la fine degli anni ’30,
egli cominciò a pensare ai vari modi in cui le nuove tecnologie dell’epoca (radio, cinema,
microfilm e televisione) potessero essere combinate per fornire innovative funzioni di ricerca e
analisi dell’informazione.
Innanzi tutto, pensò alla possibilità di costruire, con meccanismi analogici, dei sistemi che oggi
chiameremmo ipertestuali: ideò una stazione di
lavoro costituita da una scrivania che poteva
accedere ad un archivio mobile, montato su ruote,
all’interno del quale un sistema elettro-meccanico
permetteva all’utente la ricerca, lettura e scrittura
all’interno del database 10. L’utente non solo poteva
recuperare documenti, ma anche annotare le loro
relazioni, “le connessioni che ciascuno ha con tutti
gli altri, formando quello che potrebbe essere
chiamato il Libro Universale”.
L’altro problema molto sentito era quello della
decentralizzazione del database, che permettesse
una pubblicazione o un accesso remoto alle
biblioteche e centri culturali in tutto il mondo;
Paul Otlet
pensò quindi che gli utenti remoti avrebbero potuto
accedere al database tramite un sistema (che Otlet
chiamava di “teletautografia” o “telefotografia”), connesso tramite una linea telefonica, che
avrebbe recuperato una immagine facsimile da proiettare su uno schermo della stazione di
lavoro.
Infine, Otlet era convinto che il libro fosse solo un mezzo per trasmettere informazione, e che
nuove tecnologie – audio e video su pellicole e dischi fonografici, trasmissioni broadcast di libri e
documenti, ecc. – potessero diffondere le informazioni in modo anche più efficiente e
completo 11.
Nonostante il lavoro di Paul Otlet sia stato completamente dimenticato fino alla sua riscoperta
degli anni ’90, possiamo senza dubbio dire che – nonostante le limitazioni tecnologiche dei suoi
tempi – egli aveva già chiaramente in mente l’universo ipermediale oggi costituito dal web
[Rayward 1994].
8
Che raggiunse 11 milioni di voci all’inizio della guerra nel 1914, e 15 milioni verso la fine degli anni ’30.
In un suo libro Otlet scrisse: “La Cité Mondial séra un livre colossal dont les edifices et leurs dispositions – et non
seulement leur contenu – se liront a la manière dont les pierres des cathédrales se ‘lisaient’” [Otlet 1935]. Una frase
che riporta alla mente l’utopica “Città del Sole” di Tommaso Campanella.
10
Il database RBU era memorizzato su milioni di schede da 3x5” (quella classica usata dalle biblioteche per indicizzare
i libri), ma Otlet aveva pensato anche di utilizzare microfilm e microfiche.
11
Come Vannevar Bush dopo di lui (vedi oltre) anche Otlet pensò anche a tante altre innovazioni che rendessero la
gestione dell’informazione più semplice ed efficiente: dalla copia rapida e multipla (con meccanismi fotografici e/o a
raggi-x), la copiatrice personale e portatile (una specie di scanner), riconoscitori vocali che convertissero il parlato in
testo, generatori vocali che convertissero il testo in parlato, ecc. [Rayward 1994].
9
4
Macchina Statistica - 1931
Nell’agosto del 1931, durante l’8° Congresso Internazionale
di Fotografia in Dresda, Emanuel Goldberg (uno dei più
importanti scienziati nel campo fotografico e primo direttore
della Zeiss Ikon AG12), presentò un prototipo di selezionatore
di microfilm che utilizzava una cellula fotoelettrica, su cui
lavorava fin dal 1927 [Goldberg 1931].
Nel sistema usato da Goldberg, sul film fotografico, per
ciascun’immagine, era impresso anche un codice formato da
punti opachi alla luce. Il meccanismo elettromeccanico,
basato su una cellula fotoelettrica, poteva rapidamente
ritrovare l’immagine all’interno della pellicola tramite una
scheda di ricerca, dove un insieme di fori riportava lo stesso
codice impresso sulla pellicola [Buckland 1995].
Nel dicembre 1931 l’ufficio brevetti tedesco concesse alla
Zeiss un brevetto sul meccanismo, che venne chiamato
“Macchina Statistica”; successivamente la IBM acquisì una
licenza di utilizzo del brevetto. Purtroppo la Zeiss non
Il meccanismo di selezione nella Macchina Statistica
Emmanuel Goldberg
continuò
la
ricerca
sul
dispositivo che non divenne mai
un prodotto commerciale.
Parallelamente, nel periodo
1938-40, Vannevar Bush (vedi
oltre) sviluppava al MIT, con il
supporto della Kodak e della
NCR, un dispositivo simile (il
“Microfilm Rapid Selector”).
Sembra che Bush non fosse a
conoscenza del prototipo di
Goldberg, e quando richiese un
brevetto sul suo lavoro, la
richiesta venne respinta a causa
della registrazione del dispositivo precedente [Buckland 1992].
Memex - 1945
Uno dei decisivi passi nella formulazione del concetto di ipertesto è costituito dalle proposte
contenute in quell’articolo fondamentale - “As We May Think” – di Vannevar Bush 13, che tanto
influenzò i ricercatori tecnologici da quel momento in avanti.
Parlando dei dati organizzati in ordine alfabetico o comunque strutturati in modo rigido, Bush
scrisse: “La mente umana non lavora in questo modo. Essa opera in modo associativo. Avendo
afferrato un concetto, essa salta istantaneamente al prossimo che viene suggerito
dall’associazione di idee, in accordo con qualche intricata ragnatela di percorsi tracciata dalle
cellule del cervello [Bush 1945]”.
E per emulare in modo meccanico questo tipo di funzionamento, o almeno per supportarlo, Bush
concepì e propose il memex 14, un dispositivo personale a forma di scrivania sul cui piano vi sono
schermi su cui possono essere proiettati i microfilm; una tastiera, un insieme di leve e bottoni 15.
12
Emanuel Goldberg nacque a Mosca nel 1881. Dopo aver compiuto gli studi in Germania, ottenne significativi risultati
nei campi della fotochimica, fotografia, stampa a colori e televisione. Nel 1917 cominciò a lavorare come consulente
per la Zeiss a Jena, dove divenne direttore della ricerca; nel 1926 divenne il direttore generale della Zeiss Ikon.
Quando i nazisti andarono al potere nel 1933, Goldberg, di origine ebraica, fuggì prima a Parigi, e poi emigrò in
Palestina. Morì a Tel-Aviv nel 1970.
13
Vannevar Bush fu il consigliere scientifico del presidente degli Stati Uniti F.D. Roosevelt durante la seconda guerra
mondiale, che lo nominò direttore dell’Office of Scientific Research and Development. Durante la guerra quest’ufficio
coordinò le attività di più di 6000 scienziati americani impegnati in tutte le applicazioni militari della scienza.
5
All’interno della scrivania vi è un sistema elettromeccanico
che può gestire in modo automatico una libreria che
memorizza milioni di pagine d’informazioni sotto forma di
microfilm. Le informazioni possono essere rapidamente
richiamate tramite chiavi di ricerca, che operano sul sistema
meccanico di libreria per proiettare sullo schermo le
immagini contenenti le informazioni volute (il meccanismo di
ricerca funziona in modo simile a quello della macchina
statistica di Emanuel Goldberg, illustrata in precedenza).
Ma se pur innovativo nelle capacità, uno strumento che si
limiti a memorizzare e ricercare informazioni è ancora
convenzionale dal punto di vista filosofico; dove invece il
memex diventa rivoluzionario sta nel fatto che permette
all’utente di costruirsi un percorso personalizzato di
consultazione, mediante associazioni che possono essere
stabilite fra le informazioni.
Nel suo articolo, Bush illustrò ed esemplificò esattamente il
Vannevar Bush
modello – che oggi noi, grazie al web, riconosciamo come
estremamente familiare - di ipertesto, con pagine che
l’utente può navigare spostandosi dall’una all’altra seguendo collegamenti che associano punti
di una pagina a punti su altre pagine “semplicemente premendo un bottone sotto il codice
corrispondente”, nelle parole originali di Bush.
Per gestire questa massa d’informazioni, Bush non riusciva ancora a pensare ad un computer.
L’ENIAC, il primo elaboratore elettronico, veniva completato in quegli anni 16, ma all’epoca non
era ancora lontanamente pensabile che un dispositivo di quel genere potesse diventare
sufficientemente piccolo, affidabile e soprattutto poco costoso tanto da diventare uno
strumento personale.
Ma, qualunque fosse la tecnologia utilizzata per implementarlo, in “As We May Think”, Bush
prefigurava comunque un mondo in cui esisteva uno strumento a disposizione dell’uomo,
utilizzato per archiviare informazioni, connetterle fra loro in strutture metatestuali e
ipertestuali, ed estrarne analisi e
sintesi che costituiscano risposte alle
domande che l’uomo si pone.
Concludendo, possiamo notare che le
idee di Vannevar Bush erano non
dissimili da quelle – viste in
precedenza – di Paul Otlet (del lavoro
del quale forse molto probabilmente
non era a conoscenza). La differenza
principale consisteva nel fatto che
mentre Otlet era più interessato a
permettere all’utente l’accesso a
sterminati database di informazioni
remoti, e mondialmente centralizzati,
Bush invece si concentrava di più sulle
Il modello di memex come apparve su “Life”
funzioni a supporto del lavoro
intellettuale del singolo.
14
Forse una contrazione di memory extender, o forse memory index.
L’articolo non è solo dedicato al memex, ma immagina anche tanti altri dispositivi innovativi di produttività
individuale, che hanno poi visto la luce nei decenni seguenti: la thinking machine (il calcolatore personale), la
telecamera personale, lo scanner, la fotografia “a secco” (la fotocopiatrice e la stampante laser), il voder (un
dispositivo in grado di riconoscere le parole e tradurle in testo).
16
L’articolo, pubblicato nella sua forma definitiva nel 1945, in effetti venne preparato diversi anni prima; una
versione preliminare (“Mechanization and the Record”) venne pubblicata nel 1939 sulla rivista Fortune.
15
6
La nascita del modello di ipertesto
Il modello di ipertesto propriamente detto nacque all’inizio degli anni ’60 con le ricerche di Ted
Nelson, che però, come vedremo, non portarono alla nascita di nessuna implementazione reale.
Nella seconda metà degli anni ’60 cominciarono ad apparire alcuni sistemi ipertestuali, alcuni
che utilizzavano come spunto le idee di Nelson, mentre altre nacquero in modo completamente
indipendente.
In ogni caso, durante quel periodo tutta la ricerca sull’argomento venne condotta nei laboratori
di università e centri di ricerca (spesso sovvenzionati da enti governativi), mentre l’industria non
mostrò - se non in modo assolutamente sporadico – alcun interesse nei confronti dei sistemi
ipertestuali.
Xanadu - 1960
La lettura di “As We May Think” fulminò diversi ricercatori che
da quel momento cambiarono direzione ai propri studi, ed in
modo indipendente dedicarono il resto della propria attività di
ricerca al tentativo di dare vita alla visione di Bush.
Il primo di questi è stato Theodore Holm Nelson, che possiamo
considerare il più grande “evangelista” del concetto di ipertesto.
Egli fondò all’inizio degli anni ’60 e per decenni sviluppò il
progetto Xanadu, che avrebbe dovuto portare allo sviluppo di un
sistema per organizzare su scala mondiale informazioni in una
struttura ipertestuale e ipermediale. Egli concepì Xanadu come
un nuovo mondo di media interattivi, una fusione di letteratura e
films, basata su costrutti arbitrari, interconnessioni e
corrispondenze.
Fu proprio Nelson l’inventore nel 1965 [Nelson 1965] del
vocabolo “ipertesto”, a cui dava il significato di sistema di
Ted Nelson
organizzazione di informazioni - testuali e non - in una struttura
non lineare, elastica e non rigida. Una struttura che non poteva
essere mostrata in modo convenzionale su una pagina stampata, ma che richiedeva le capacità
di un computer per mostrarla in modo dinamico e navigarla opportunamente [Nelson 1967].
Nel suo intervento alla 20a conferenza dell’ACM, egli dichiarava la sua totale adesione alla
visione del memex di Bush, e descriveva un sistema di strutturazione dei files dati – chiamato
ELF, Evolutionary List File - che rifletteva proprio l’organizzazione ipertestuale.
Nello schema di Xanadu, un database di documenti universale (docuverse) avrebbe permesso
l’indirizzamento di qualsiasi frammento di qualsiasi documento; in più Xanadu avrebbe
mantenuto ogni versione di ogni documento (impedendo quindi i problemi di collegamenti
interrotti – tipici del web - che oggi ben conosciamo).
Negli anni Nelson maturò una particolare attenzione ai problemi di proprietà intellettuale che
inevitabilmente sorgono, quando dei documenti originali vengono messi on-line. Xanadu avrebbe
dovuto implementare un meccanismo automatico di pagamento di diritti su tutti i documenti
presenti nel docuverse; inoltre avrebbe dovuto esistere un meccanismo, che Nelson chiamò di
“transclusione” che permettesse la citazione di un frammento di documento senza dover pagare
diritti.
Purtroppo, come molti visionari, Nelson è un perfezionista che non riesce mai ad accontentarsi
di una buona soluzione, ma ha sempre cercato l’ottimale, che implementi in modo integrale
(oggi diremmo, integralista) i suoi concetti, senza mezze misure. Oggi, dell’implementazione
dell’ipertesto che anima il web, pensa tutto il male possibile [Nelson 1999]. Egli ritiene, fra
l’altro, che i collegamenti fra i vari punti del web debbano essere obbligatoriamente
bidirezionali, e che non debbano essere “incorporati” dentro il testo stesso 17, ma debbano
essere conservati in una struttura parallela come in un file system [Nelson 2004].
17
Infatti nell’HTML i collegamenti (hyperlink) sono memorizzati come tags – ossia quelle informazioni metatestuali
che non vengono visualizzate dal browser, ma utilizzate per formattare il testo stesso e fornire appunto le funzioni
ipertestuali.
7
A causa della ricerca da parte di Nelson della soluzione ottimale, nei quarant’anni della sua vita
Xanadu ha subito molte vicissitudini, è stata sovvenzionata dagli enti più vari e perfino dalla
AutoDesk 18, ma non è mai riuscita a partorire alcun sistema realmente usabile. Ancora oggi il sito
del progetto Xanadu continua a diffondere un credo purista dell’ipertesto assoluto, e propone in
download un sistema inutilizzabile 19.
In effetti, più che come tecnologo, Ted Nelson ha avuto successo come “evangelizzatore” del
modello ipertestuale; egli ha scritto due libri (Dream Machines/Computer Lib [Nelson 1974], e
Literary Machines [Nelson 1981]), in cui ha descritto dettagliatamente il concetto ipermediale, e
che ebbero una grande diffusione. In questo modo, ha spinto diverse aziende e altri enti a
produrre applicazioni reali, le quali hanno ereditato da Xanadu moltissime idee.
In Literary Machines, ad esempio, egli descrive un gigantesco sistema ipertestuale di
pubblicazione elettronica – qualcosa che poi verrà in qualche modo incarnato dal Web - con
queste parole: “…immaginate se tutti i libri di informatica, di ingegneria elettronica o di
matematica, tutte le riviste, i rapporti tecnici, gli atti delle conferenze, siano un unico
ipertesto, distribuito su scala mondiale, e accessibile da qualche rete collegata via satellite.
Ogni riferimento potrebbe essere trovato immediatamente, i commenti dei lettori letti da tutti,
e le correzioni apportate facilmente, ma sempre mantenendo un facile accesso alle precedenti
versioni.”
PROMIS - 1966
PROMIS (Problem-Oriented Medical Information System) nacque verso la fine del 1966 come
progetto all’Università del Vermont, a cui partecipavano medici e informatici, sotto la direzione
di Jan Shultz e del dott. Larry Weed. Esso era finalizzato a sviluppare un sistema per la
memorizzazione delle informazioni relative al trattamento sanitario dei pazienti [Shultz 1986].
Tali informazioni dovevano essere rapidamente e facilmente ricercabili ed analizzabili, al fine di
permettere:
• un’anamnesi completa di un paziente in cura
• lo sviluppo di ricerche epidemiologiche
• la verifica degli standard medici di trattamento
• la verifica finanziaria del sistema sanitario
Al fine di facilitare il più possibile l’utilizzo del sistema da parte del personale medico e
paramedico, a quell’epoca non avvezzo all’uso di strumenti informatici, i ricercatori esplorarono
le soluzioni più opportune per l’interfaccia utente del sistema. Siccome il sistema venne
implementato su mainframe Control Data, si decise di utilizzare terminali alfanumerici ma dotati
di touch-screen.
Il sistema subì molte evoluzioni durante gli anni di sviluppo, ed i ricercatori andarono sempre più
nella direzione di presentare le informazioni in forma ipertestuale. Esse erano presentate sul
terminale come schermate dette “frames”, e ci si poteva muovere da un frame all’altro tramite
la pressione sullo schermo di aree sensibili dette “selezioni”.
PROMIS fu per molti anni uno dei sistemi per l’informatica medica più avanzati, e rimase in uso a
lungo, fino agli anni ’90, grazie alla sua facilità d’uso e all’estensione delle informazioni
contenute.
Per quanto riguarda gli aspetti ipertestuali del sistema, influenzò molti sistemi che lo seguirono,
in particolare perché dimostrò che l’ipertesto poteva essere molto utile in applicazioni nel
mondo reale, e non solo in laboratorio.
18
Corporation del software famosa per il suo prodotto AutoCAD. Nel 1988 la AutoDesk comprò l’80% delle azioni
della Xanadu Operating Company, e Ted Nelson andò a lavorare in AutoDesk come “distinguished fellow”.
Nonostante l’aiuto economico e tecnologico di AutoDesk, nessun prototipo funzionante venne alla luce, e nel
1992 AutoDesk abbandonò Xanadu al suo destino. Vedi [Walker 1994], pagina 416 e segg.
19
Tanto per dire, è fornito in codice sorgente, e richiede la compilazione con un compilatore SmallTalk
modificato dagli sviluppatori. Vedi http://udanax.com/gold/download/index.html
8
NLS – 1965-68
Un altro ricercatore che fu profondamente influenzato dalle
visioni di Vannevar Bush è Douglas Carl Engelbart, il quale, allo
Stanford Research Institute (SRI) di Menlo Park in California,
costituì un laboratorio di ricerca sulle interfacce utente dei
computer, denominato “Augmentation Research Center” (ARC).
Egli voleva appunto aumentare o incrementare l’intelletto
umano, mediante strumenti basati su computer che
migliorassero la conoscenza dal punto percettivo e motorio, per
meglio gestire i problemi connessi alla complessità
dell’informazione e all’urgenza di una sua ricerca.
Durante la sua ricerca, egli mise a punto moltissime innovazioni,
che oggi fanno parte integrante dello standard dei computer
moderni: le interfacce utente multifinestra, il mouse, la posta
elettronica, la teleconferenza, e appunto l’ipermedia.
Il programma di ricerca di Engelbart culminò verso il 1968 nella
creazione di NLS (che stava per “oNLine System”), un sistema di
costruzione e navigazione di strutture ipertestuali di documenti.
Per facilitare l’uso di NLS Engelbart utilizzò molte idee per le
Doug Engelbart
quali oggi viene ricordato, come l’interfaccia video multifinestra
durante la demo alla FJCC
e il mouse.
Secondo la sua visione, NLS era un portale che permetteva ad un individuo l’accesso al
laboratorio personale di conoscenza accresciuta (“Augmented Knowledge Workshop”), ossia il
luogo virtuale ove egli conserva tutti i propri dati e strumenti intellettuali e culturali, e ove egli
collabora con altri individui dotati di analogo equipaggiamento [Engelbart 1968].
L’8 dicembre 1968, durante la FJCC (Fall Joint Computer Conference) Engelbart diede una
spettacolare dimostrazione di NLS20 che fece scalpore, in quanto mostrò il sistema utilizzando
tutte le innovazioni che aveva messo a punto, in un epoca in cui la maggior parte delle
interazioni degli utenti con i computer erano tramite telescrivente.
NLS era sviluppato per il computer time-sharing SDS 94021, e supportava fino a sedici stazioni di
lavoro, ciascuna composta di un monitor di grandi dimensioni, un mouse a tre bottoni e un
dispositivo chiamato tastierino ad “accordi”.
Il
progetto
ARC
era
sovvenzionato
dall’Advanced Research Project Agency (ARPA)
del dipartimento della Difesa statunitense; sia
Engelbart che Robert Taylor, direttore
dell’Information Processing Techniques Office
(IPTO) dell’ARPA credevano fortemente nella
feconda integrazione che avrebbe potuto
esistere tra il sistema NLS e la rete di
computers di cui l’ARPA stava sovvenzionando
la creazione (ARPAnet).
E così, lo SRI fu inserito fra i primi nodi che
avrebbero costituito la neonata rete, e fin dal
Engelbart e colleghi all’ARC
1967 venne deciso che l’ARC avrebbe avuto la
20
Andries Van Dam (vedi oltre) chiama quella di Engelbart al FJCC 1968 “la madre di tutte le demo”. Nelle parole di
un altro commentatore, fu come “...un UFO che atterra sul prato della Casa Bianca”. Testo, grafica, e audio-video
“live” di Engelbart in San Francisco, e di altri colleghi a Menlo Park (a circa 20km) vennero sovrapposti in diverse
finestre di un display proiettato, ed essi lavorarono insieme mentre spiegavano che cosa stavano facendo. Vennero
illustrati i protocolli usati per sincronizzare il lavoro di diversi utenti connessi al sistema [Meyrowitz 1981]. Questa
dimostrazione mostrò come NLS fosse un precursore delle attuali videoconferenze e dei sistemi di lavoro di gruppo.
21
Questo computer, su cui girava NLS, era prodotto dalla Scientific Data Systems (che poi venne acquistata dalla
Xerox), ed era dotato di 65k parole di memoria a 24 bit, un tamburo per il sistema operativo da 4,5 megabyte e un
disco per la memorizzazione dei dati da 96 megabyte.
9
funzione di Network Information Center (NIC), ossia avrebbe dovuto costituire la “biblioteca” di
ARPAnet, dove tutti i documenti relativi avrebbero dovuto risiedere, e funzionare da centro di
distribuzione della documentazione.
Al momento della nascita di ARPAnet, nel 1969, il SDS 940 22 dell’ARC fu il secondo computer
connesso alla rete, subito dopo la Università della California di Los Angeles (UCLA) - dove era
situato il Network Measurement Center - ma prima della Università della California di Santa
Barbara (UCSB) e della Università dello Utah.
Tutti i documenti relativi allo sviluppo della rete vennero memorizzati in NLS, ed erano
ovviamente consultabili via ARPAnet. Fino verso la metà degli anni ’70, l’ARC funzionò
effettivamente come Network Information Center di ARPAnet.
Attorno a quegli anni il laboratorio ARC subì una grave crisi 23; già a partire dal 1971 gran parte
dei ricercatori aveva cominciato a lasciarlo e gli sponsor a smettere di sovvenzionarlo. L’ARPA
cessò il suo supporto nel 1974, e nel 1977 lo SRI vendette l’intero progetto alla Tymshare, una
società di servizi di telecomunicazione.
Tymshare, interessata a NLS per l’automazione d’ufficio, ribattezzò il sistema “Augment” e ne
tentò la commercializzazione integrandolo alla propria rete TYMNET24, ma non ebbe un
significativo successo commerciale. Nel 1980 “Augment” venne nuovamente venduto alla
McDonnell Douglas, ma nel corso degli anni ’80 il sistema scivolò lentamente nell’oblio.
Il maggior problema di NLS stava nel fatto che era stato progettato per essere potente, ma non
particolarmente semplice da imparare.
Utilizzava una struttura di testo
rigorosamente gerarchica (“outline”),
utile nel corso dei primi sviluppi di un
nuovo testo, ma poi troppo rigida per il
successivo sviluppo.
Inoltre, nonostante l’utilizzo del
mouse, non aveva un’interfaccia utente
molto amichevole, e richiedeva l’uso di
codici mnemonici molto criptici. Ad
esempio, l’utente che voleva utilizzare
il tastierino ad accordi doveva imparare
un codice binario a 5 bit per inviare i
comandi.
Inoltre, proprio l’aver fatto parte della
NLS
rete ARPAnet fin dall’inizio, aveva
messo in luce uno dei problemi
filosofici dell’intero progetto ARC, ossia quello di insistere sul time-sharing su mainframe in un
momento in cui ci si muoveva verso macchine in rete fra loro, inizialmente minicomputer, che
però venivano velocemente sostituiti da microcomputer e workstations.
Ciononostante, l’eredità dell’ARC continuò a vivere: molti dei ricercatori che si erano fatti le
ossa all’ARC si ritrovarono poi allo Xerox PARC 25, trasferendo nel progetto che porterà alla
creazione dello Xerox Alto gran parte delle idee sviluppate dal progetto di Engelbart.
22
Esso venne poi sostituito con un DEC PDP-10 con sistema operativo TENEX, per uniformarsi con la situazione della
maggior parte degli altri nodi di ARPAnet, e NLS venne trasportato su questo sistema.
23
Questa crisi ebbe origine da vari motivi, non tanto legati al successo del progetto di ricerca, ma alle strane e
intense interazioni tra la forte creatività tecnologica presente al laboratorio e gli sviluppo dei movimenti controculturali tipici della California fine anni ’60 (i movimenti anti Vietnam, per i diritti civili, di liberazione delle donne,
ecc.). Gli effetti creativi e distruttivi di tali interazioni sono raccontati in [Bardini 2002].
24
Rete parecchio avanzata per l’epoca, che utilizzava satelliti per il collegamento fra i diversi continenti.
25
Il Palo Alto Research Center (PARC) della Xerox fu per tutti gli anni ’70 il maggiore centro di irradiazione di
innovazione del campo informatico. Il personal computer Xerox Alto implementò in pratica molte delle idee concepite
all’ARC, e lasciò in eredità ai suoi successori (specialmente l’Apple Macintosh) la formalizzazione di tutte
caratteristiche principali dei computer odierni (le interfacce grafiche multifinestra, le icone, l’uso del mouse, la rete
Ethernet, ecc.)
10
HES -1967
Verso la metà degli anni ’60 Ted Nelson collaborò con un suo
vecchio compagno di college, Andries Van Dam, allora impegnato
come ricercatore in un progetto alla Brown University, che avrebbe
portato nel 1967 alla creazione di HES (Hypertext Editing System),
un sistema di creazione di strutture ipertestuali per il mainframe
IBM S/360.
Le idee di Nelson stimolarono il lavoro iniziale di Van Dam sul
progetto, che però poi si concentrò maggiormente sulle
caratteristiche di editing e formattazione; in pratica, HES fu uno dei
prototipi dei sistemi di word processing moderni.
Nel sistema furono implementate le funzioni di collegamento
ipertestuale – monodirezionale - tra una parte e un’altra di un
documento (non però fra documenti diversi), e, nonostante i limiti,
grazie a ciò HES può essere considerato come il primo sistema
Andries Van Dam
ipertestuale funzionante.
Nonostante la sua inefficienza, dovuta alla sua concezione
prototipale, al momento della sua maggiore diffusione era in uso in più di 2250 installazioni
[VanDam 1971], per la preparazione di articoli, tesi, manuali, ecc. Una delle più significative
installazioni era il Manned Spacecraft Center della NASA a Houston, dove HES venne utilizzato
per la gestione della documentazione del programma spaziale Apollo.
FRESS - 1969
Nel 1969 Andries Van Dam passò una settimana in visita presso l’ARC di Engelbart, dove osservò
con attenzione NLS. Fondendo le migliori caratteristiche di HES e di NLS26, Van Dam creò il nuovo
sistema FRESS27 (File Retrieval and Editing System).
Varie furono le innovazioni introdotte da FRESS rispetto a HES, le più importanti delle quali
furono:
• l’introduzione della possibilità di aggiungere, alle normali informazioni di tipo testuale,
anche informazioni di tipo grafico (che potevano essere visualizzate grazie a speciali
terminali grafici come l’Imlac PDS);
• la possibilità di usare caratteri non occidentali (greco, cirillico, ebraico, ecc.) e simbolici,
come conseguenza della gestione di informazioni grafiche;
• i collegamenti ipertestuali bidirezionali (mentre in HES erano unidirezionali);
• le performance rimanevano le stesse indipendentemente dalla dimensione dei documenti
editati;
• venne implementata una funzione di “undo”.
Gli ipertesti potevano essere creati mediante un editor interattivo, che permetteva
l’inserimento nel testo di speciali marcatori, i quali diventavano la sorgente di un collegamento
che portava a punti di destinazione, all’interno dello stesso testo, o di altri testi. Questi
collegamenti potevano essere di due tipi: etichette, collegamenti monodirezionali verso un
elemento singolo come un’annotazione, una definizione o una nota a piè pagina, o salti,
collegamenti bidirezionali che potevano essere seguiti nelle due direzioni. Ai collegamenti
potevano essere associate delle parole chiave che diventavano utili al momento della ricerca
delle informazioni.
Grazie alla possibilità di mischiare liberamente testo ed immagini, FRESS divenne quindi il primo
sistema ipermediale.
26
Van Dam stesso lo riconosce: “Ho avuto il privilegio di stare per una settimana nel laboratorio di Engelbart, e ho
rubato molte grandi idee di NLS per FRESS”.
27
“fress” è una parola di origine tedesco-yiddish che significa mangiare con molto entusiasmo.
11
Sviluppato in assembler su un sistema IBM S/360 sotto sistema operativo time-sharing28 VM/CMS,
FRESS fu usato alla Brown University per più di vent’anni per la preparazione di documenti, sia
on-line che per la stampa.
ZOG - 1972
Nel 1972, alcuni ricercatori della Carnegie Mellon University svilupparono, come esperimento di
scienze cognitive, il sistema ZOG 29, un’interfaccia utente a menu per un database multiutente di
informazioni memorizzate su un mainframe IBM [Akscyn 1987]. La ricerca venne però
accantonata a causa dell’inadeguatezza della tecnologia usata (telescriventi a 30 caratteri al
secondo).
Il lavoro su ZOG fu ripreso nel 1975, dopo che la comparsa di PROMIS ne aveva stimolato la
ripresa; dal 1975 al 1980 esso venne sviluppato per il PDP-10, il VAX e il C.mmp 30. ZOG forniva
un ambiente ipertestuale che permetteva la gestione semplificata della conoscenza. Essa era
organizzata in una rete di nodi chiamati frames, i quali a loro volta consistevano in un titolo,
una descrizione, una linea di comandi ZOG, e un insieme di voci di menu (chiamate selezioni) le
quali conducevano ad altri frames; le informazioni memorizzate erano solamente testuali.
La ricerca su ZOG era sponsorizzata dall’Office for Naval Research statunitense, e nel 1980
questo portò ad un test del sistema “sul campo” a bordo della portaerei nucleare USS Carl
Vinson. Una rete di 28 workstation PERQ forniva all’equipaggio una serie di manuali di
manutenzione on-line, un sistema di gestione progetti e l’interfaccia ad un sistema esperto
(AirPlan, anch’esso sviluppato alla CMU).
Aspen Movie Map - 1978
Nel
1978,
Andrew
Lippman
dell’Architecture Machine Group del
MIT, fu a capo di un team di
ricercatori che svilupparono un
rivoluzionario sistema ipermediale
che aveva molti punti in comune con
la realtà virtuale. Esso, chiamato
Aspen Movie Map, permetteva agli
utenti una passeggiata virtuale ed
interattiva attraverso la città di
Aspen, Colorado. Il sistema fu
descritto a fondo nella tesi di
dottorato di Bob Mohl [Mohl 1981],
ricercatore del gruppo.
Tramite quattro telecamere, montate
su un furgone e puntate in differenti
Aspen Movie Map – Schermata che mostra
direzioni, erano state effettuate
i comandi di navigazione sovrapposti
riprese per tutta la città di Aspen. A
alle immagini della città
queste riprese montate e “ricucite”,
erano state aggiunte migliaia d’immagini fisse, frammenti audio e una grande mole di dati sui
diversi punti salienti di Aspen, e il tutto era stato inciso su dischi ottici di tipo laserdisc.
Il sistema consisteva in un computer con due grandi schermi touch-screen 31 a cui erano stati
collegati diversi laserdisc; il primo monitor mostrava le immagini delle riprese, mentre sul
secondo era mostrata una mappa delle strade di Aspen, indicando la posizione corrente.
L’utente poteva scegliere, tramite la pressione del dito sui vari bottoni che apparivano
sovraimposti alle immagini sullo schermo, diversi percorsi predefiniti, e di spostarsi dall’uno
28
Time-sharing: come venivano chiamati i sistemi operativi multiutente negli anni ’60. Permettevano l’utilizzo di un
costoso computer di tipo “mainframe” da parte di molti utenti, tramite terminali collegati al computer stesso.
29
ZOG non era un acronimo, ma un nome che non significava nulla di particolare.
30
Una macchina sperimentale multiprocessore, costruita a partire da un certo numero di Digital PDP-11.
31
Schermo sensibile al contatto, che permette di sostituire il tocco di un dito ad altri mezzi di input come il mouse.
12
all’altro tramite collegamenti. I
bottoni
permettevano
di
scegliere di muoversi in avanti,
indietro, a destra o a sinistra.
Inoltre, premendo un punto
della
mappa,
si
era
istantaneamente trasportati nel
punto corrispondente. In certi
punti salienti, come di fronte
ad alcuni edifici principali di
Aspen, l’utente poteva volendo
entrare e navigare all’interno.
L’Aspen Movie Map non era una
vera applicazione, nel senso
che non aveva uno scopo ben
predefinito; era piuttosto una
Bob Mohl dimostra Movie Map
dimostrazione
avanzata
di
quello che era possibile fare
con la tecnologia del momento. Il sistema era nato da un’idea di uno studente del MIT, Peter
Clay, che aveva filmato i corridoi interni dell’istituto.
Il progetto aveva avuto l’appoggio di Nicholas Negroponte - direttore dell’Architecture Machine
Group, e che aveva fornito i fondi tramite il Cybernetics Technology Office dell’agenzia DARPA –
che chiamò Movie Map “uno dei primi esempi di multimedia interattivo”.
EDS - 1979
Nei tardi anni ’70, Andries Van Dam continuò l’evoluzione dei suoi sistemi ipermediali,
sviluppando EDS (Electronic Document System), che permetteva collegamenti ipermediali anche
tra immagini grafiche. Un’altra innovazione rilevante era l’uso d’immagini “thumbnail”, che
avevano fondamentalmente due funzioni:
• mostrare una cronologia di spostamenti fra collegamenti (in modo da informare l’utente sulla
sua attuale posizione nella cronologia);
• mostrare graficamente i collegamenti in forma di albero gerarchico.
EDS conteneva tre sottosistemi: Picture Layout System, Document Layout System, e Document
Presentation system.
Gli anni ’80: l’ipertesto diventa commerciale
Con l’inizio degli anni ’80, la ricerca sui sistemi ipertestuali ed ipermediali cominciò ad uscire
dai laboratori delle università e dei centri di ricerca, per approdare in quelli delle aziende
commerciali, le quali finalmente iniziarono a guardare con interesse alle potenzialità fornite da
insiemi destrutturati ma organizzati di informazioni.
Parallelamente, cominciarono ad essere disponibili computers personali (microcomputer e
workstation) dotati d’interfaccia grafica, sulla quale era possibile implementare,
efficientemente ed a costo relativamente basso, sistemi ipermediali particolarmente evoluti e
piacevoli da usare.
Questi due fattori portarono quindi alla creazione di moltissimi sistemi ipertestuali, e quasi tutti
divennero dei prodotti commerciali; indicheremo quelli più significativi, ma è da notare che
però solo HyperCard della Apple Computers raggiunse un sensibile successo commerciale.
KMS -1981
Nel 1981, due fra i principali sviluppatori di ZOG, Donald McCracken e Robert Akscyn, fondarono
la Knowledge Systems, Inc., e nel 1983 rilasciarono una versione commerciale di ZOG che prese
il nome KMS (Knowledge Management System). Questa versione, per le workstation UNIX Sun e
13
HP-Apollo, sfruttava le caratteristiche avanzate delle interfacce utente grafiche di questi
sistemi.
In KMS le informazioni (testo, grafica e immagini) erano contenute, come in ZOG, in un insieme
di frames, ossia spazi di lavoro della dimensione di una schermata. In KMS non vi erano finestre
sovrapposte: durante la navigazione, un frame sostituiva completamente il precedente. Inoltre,
non essendo possibile lo scorrimento all’interno del frame, quando la crescita delle informazioni
all’interno di un frame raggiungeva il limite dimensionale dello schermo, non rimaneva altra
soluzione che dividerlo in due o più frames collegati.
Qualsiasi parola in un frame poteva costituire un collegamento ad un altro frame, oppure
eseguire degli script (scritti in un linguaggio chiamato KMS Action Language) o dei programmi
esterni attivati tramite il sistema operativo. Questi collegamenti non erano inseriti all’interno
del testo, ma mantenuti separatamente in un database.
Anche se era incoraggiata una struttura gerarchica, specialmente al fine di non disorientare
l’utente, era possibile creare anche interconnessioni libere e molto complesse. L’utente poteva
navigare fra i frames cliccando con il mouse sui collegamenti o sui tasti di menu riportati alla
base di ogni frame.
KMS permetteva in qualsiasi momento la modifica delle informazioni contenute nei frame o dei
collegamenti (non esisteva perciò un editor separato); anche la creazione di collegamenti era
facilissima: bastava cliccare su una parola e subito il sistema creava un nuovo frame vuoto e
collegato alla parola stessa.
Per questo motivo KMS era particolarmente adatto ad applicazioni di collaborazione on-line: le
variazioni apportate da un utente erano immediatamente visibili agli altri. Esisteva però un
meccanismo di protezione per proteggere le informazioni contenute in un frame, sia dalla
modifica, che eventualmente anche dalla lettura da parte di utenti non autorizzati.
Una delle caratteristiche più interessanti di KMS era che le informazioni erano distribuite, ossia
potevano risiedere su più macchine accessibili tramite rete locale. I collegamenti potevano
perciò in modo trasparente portare la navigazione dell’utente anche su altre macchine. Le
informazioni sulla reale collocazione di ciascun frame erano contenute in un database master,
che veniva replicato su ciascuna macchina che conteneva una porzione del sistema.
Guide - 1982
Guide nacque nel 1982 all’Università di Canterbury nel Kent, come progetto di ricerca guidato
da Peter Brown [Brown 1987]. La ricerca di Brown si concentrò non tanto sulla sofisticazione del
sistema, quanto sulla facilità d’uso anche per i principianti. L’utente non doveva imparare che
pochissime manovre, tutte da compiere con il mouse, per riuscire a navigare e a modificare il
documento ipertestuale.
A differenza della maggior parte degli altri sistemi ipertestuali, Guide funzionava in base al
modello della espansione di una determinata parola (“bottone”, nel gergo di Guide) in un testo
associato, che sostituiva a video la parola originale; eventualmente l’utente poteva
ricomprimere il testo espanso nel bottone originale.
La maggiore limitazione di Guide stava proprio in questo modello, il quale, come NLS,
enfatizzava la struttura gerarchica di un documento; i collegamenti liberi tra le varie parti del
testo, e tra testi diversi, erano permessi ma non funzionavano come “salti” da un punto
all’altro, ma come casi speciali di sostituzione del testo.
Questi speciali collegamenti, detti “collegamenti di definizione”, potevano collegare una parola
(origine del collegamento) ad un frammento di testo nello stesso documento o in un altro
(destinazione del collegamento); per fare un esempio, alla frase “vedi teorema 15” poteva
essere collegato il frammento di testo che costituiva la definizione del teorema 15.
Cliccando sulla parola origine, essa veniva sostituita in linea dalla definizione associata. L’utente
poteva essere quindi informato senza che il suo punto di lettura corrente fosse spostato ad un
altro punto del testo.
Questo modello facilitava l’uso ai principianti, che non si “perdevano” all’interno del labirinto
ipertestuale, e facilitava altresì la manutenzione dei collegamenti; per contro, veniva persa la
flessibilità delle libere associazioni date dai collegamenti senza limitazioni.
14
Inizialmente Guide fu sviluppato per la workstation grafica ICL Perq sotto UNIX, ma nel 1984
venne convertito in un prodotto commerciale per il Macintosh dalla Office Workstation Ltd.
(OWL); nel 1987 venne realizzata una versione per Microsoft Windows, diventando il primo
sistema ipertestuale multipiattaforma. Grazie a questa caratteristica, e alla già citata facilità
d’uso, ebbe un buon successo e una discreta diffusione; nel 1989 la OWL venne acquistata dalla
Matshushita e divenne Panasonic OWL, e lentamente spostò la sua attività principale dai sistemi
ipertestuali allo sviluppo di software per dispositivi elettronici consumer.
HyperTIES – 1983
Nel 1982 lo Human-Computer Interaction Lab
(HCIL) dell’Università del Maryland iniziò la
ricerca su un modello di enciclopedia elettronica
per l’IBM PC, che venne chiamato The
Interactive
Encyclopedia
System
(TIES)
[Schneiderman 1987].
Il sistema fu poi evoluto in un prodotto
commerciale chiamato HyperTIES, pubblicato
dalla Cognetics Corporation. Le prime versioni
erano solamente testuali e utilizzavano i tasti
freccia per la navigazione; in seguito fu aggiunto
il supporto per la grafica SVGA del PC, le
funzioni video digitali DVI (Digital Video
HyperTIES in bianco e nero
Interactive) e la navigazione tramite mouse.
Venne anche creata una versione per workstation Sun sotto UNIX SUNOS e l’ambiente grafico
NeWS.
In HyperTIES le informazioni erano contenute in “articoli”, costituiti da un titolo, una
definizione (una breve descrizione del contenuto) e il testo vero e proprio, che poteva essere
lungo anche più di una schermata (l’interfaccia utente permetteva lo scrolling).
Gli articoli erano collegati tra loro da links. Uno dei principali ricercatori dell’HCIL, Ben
Schneiderman, ebbe l’idea di utilizzare il testo stesso come marcatore della sorgente di un
collegamento, un concetto che egli chiamò “embedded menus” o “illuminated links”: le parole
sorgenti dei links erano evidenziate con un colore diverso; inoltre, passando con il cursore su un
link la parola si “illuminav a” (la luminosità dei caratteri che la componevano aumentava) [Koved
1986].
Quando
un
collegamento
veniva
selezionato, l’articolo destinazione
veniva mostrato in una finestra
separata; la conferma della selezione
causava la sostituzione dell’articolo
sorgente con quello destinazione nella
finestra principale. HyperTIES teneva
conto del percorso effettuato e quindi
permetteva all’utente di tornare
indietro; inoltre, incorporava anche un
sistema di indicizzazione e di ricerca
booleana.
Il formato utilizzato internamente da
HyperTIES era ASCII puro, e che quindi
tutto il layout della pagina (il
posizionamento dei bottoni, della
grafica,
e
la
destinazione
i
“illuminated links” in HyperTIES
collegamenti) erano specificati tramite
15
l’inserimento all’interno del testo ASCII come “markup codes”. Questo è particolarmente da
notare in quanto è analogo al sistema utilizzato attualmente dall’HTML32.
Il numero di luglio 1988 delle Communication dell’ACM conteneva otto articoli dalla prima
conferenza sull’ipertesto; di esso, vennero create tre versioni elettroniche, “Hypertext On
Hypertext”, e HyperTIES venne scelto per l’implementazione IBM PC 33.
Nel 1989 Schneiderman e Greg Kearsley realizzarono il primo libro contemporaneamente
pubblicato su carta e in formato elettronico, “Hypertext Hands-On !” [Schneiderman 1989].
Infine, la Hewlett-Packard usò HyperTIES per distribuire in 15 lingue la documentazione della sua
stampante LaserJet 4, forse la prima distribuzione mondiale di un ipertesto prima del web
[Schneiderman 1998].
Intermedia - 1985
Nel 1985 Andries Van Dam creò la quarta
generazione della sua lunga genealogia di
sistemi ipermediali. Questo sistema, chiamato
Intermedia, venne sviluppato da Van Dam con la
collaborazione di Norman Meyrowitz, prima suo
studente, e poi assistente.
Per lo sviluppo di tale sistema, nel 1985 venne
fondato all’interno della Brown University
l’Institute for Research in Information and
Scholarship (IRIS) sotto la direzione di Norman
Meyrowitz. L’intenzione di IRIS era di creare un
modello in cui la funzionalità ipermediale
venisse gestita a livello del sistema operativo
stesso, in modo che gli ipercollegamenti
potessero
essere
stabiliti
tra
qualsiasi
applicazione gestita dal sistema operativo.
Intermedia
Norman Meyrowitz
Intermedia venne presentato
fra il 1985 e il 1987, ed era un
sistema ipertestuale per il
Macintosh che – sfruttando in
pieno le funzioni grafiche di
questa
piattaforma
permetteva
all’utente
la
modifica on-line di tutte le
componenti informative che
venivano
presentate
dal
sistema:
testo,
grafica,
collegamenti, ecc.
In realtà, gli sviluppatori non
implementarono un nuovo
sistema
operativo,
ma
crearono
un
ambiente
installato al di sopra del
sistema operativo Macintosh
A/UX 34
1.1.
L’ambiente
Intermedia consisteva in un
gruppo
di
applicazioni
32
Curiosamente, anche questo linguaggio di codifica venne chiamato HTML (HyperTIES Markup Language).
Mentre l’implementazione per Macintosh venne fatta con HyperCard e quella per UNIX (su workstation Sun e Apollo)
in KMS.
34
A/UX fu la versione Apple di UNIX per il Macintosh, che al noto sistema operativo aggiungeva l’interfaccia grafica
tipica del Mac. Questo sistema operativo non ebbe molto successo; è da notare però che alla fine degli anni ’90 Apple
avrebbe poi utilizzato nuovamente UNIX come base per il suo nuovo sistema operativo Mac OS X.
33
16
integrate, con una interfaccia utente comune:
• un editor di testo (InterText)
• un editor grafico (InterDraw)
• un visualizzatore d’immagini (InterPix)
• un editor di timeline (InterVal)
• un visualizzatore di modelli tridimensionali (InterSpect)
• un editor di animazioni (InterPlay)
• un editor di video (InterVideo)
Il sistema supportava la creazione (mediante il mouse ed in modo molto semplice) di
collegamenti bidirezionali fra qualsiasi tipo di documento gestito dal sistema. A ciascun
collegamento l’utente poteva aggiungere attributi, sotto forma di parole chiave, che
esplicassero la relazione simboleggiata dal collegamento; tali parole chiave potevano essere
utilizzate per filtrare eventuali ricerche. I collegamenti non erano incorporati nei documenti, ma
memorizzati in un database, separatamente dal contenuto informativo. Siccome il sistema
poteva gestire diversi insiemi di collegamenti, ogni utente poteva costruirsi la propria
“ragnatela” di collegamenti.
Inizialmente Intermedia fu utilizzato internamente alla Brown University, con un uso intensivo in
tutte le facoltà, sia scientifiche che umanistiche; ma nell’aprile del 1989, la versione 3.0 venne
rilasciata come prodotto commerciale per il Macintosh.
Purtroppo, dopo la versione 4.0, la mancanza di fondi per ulteriori sviluppi, e l’incompatibilità
con il nuovo sistema operativo Macintosh rilasciato da Apple, IRIS dovette cessare lo sviluppo di
Intermedia. Meyrowitz lasciò quindi IRIS per fondare Macromedia, dove sviluppò Shockwave 35.
Xerox NoteCards - 1985
NoteCards - sviluppato in linguaggio
LISP allo Xerox PARC per una serie di
macchine per intelligenza artificiale 36
- era un sistema ipermediale di uso
generale,
che
venne
integrato
all’interno del sistema di sviluppo in
uso sulle macchine [Halasz 1987].
NoteCards, rilasciato nel 1985,
utilizzava
due
costrutti:
le
“notecards” (schede) e i “links”
(collegamenti). Per gestire grandi
quantità di schede, esistevano inoltre
due tipi speciali di scheda, “browser”
(navigatore) e “filebox” (archivio)
Xerox NoteCards
che fungevano da contenitore per le
schede.
Le schede potevano accogliere testo e grafica rappresentavano una collezione di idee e altre
informazioni che potevano essere messe in collegamento tra loro, funzionando da struttura per
memorizzare e reperire le informazioni.
Tutti gli oggetti erano visualizzati come finestre sullo schermo grafico ad alta risoluzione - tipico
delle macchine Xerox dell’epoca - ed erano manipolabili e modificabili con il mouse e la
tastiera. Ogni scheda, una volta chiusa, appariva come una icona, ed erano disponibili tipi
diversi di icone per indicare il diverso contenuto della scheda.
I collegamenti tra schede apparivano come una etichetta che specificava la relazione tra la
scheda di origine e quella destinazione. Cliccando con il mouse un collegamento, veniva aperta
la scheda destinazione.
35
Notissimo sistema di sviluppo per creare sistemi multimediali ed ipermediali, con testo, grafica, animazioni, ecc. sia
per siti Internet che “stand-alone”.
36
La famosa “serie D” (Dolphin, Dandelion, Dandetiger, Dorado), derivate dallo Xerox Alto, che fornivano un ambiente
di sviluppo per I.A. chiamato InterLISP.
17
Le schede “browser” apparivano come un diagramma strutturale dell’albero delle schede e dei
collegamenti che le organizzavano. Le linee che rappresentavano i collegamenti potevano essere
facilmente modificate dall’utente con il mouse per variare l’organizzazione dei nodi 37.
Le schede “filebox” funzionavano da contenitori per le schede, e siccome un filebox poteva
contenere altri filebox, questa struttura poteva essere gerarchica.
NoteCards venne usato estensivamente in Xerox e in altri enti sia per l’organizzazione informale
delle informazioni; una versione dedicata, l’Instructional Design Enviroment (IDE) venne messa a
punto per essere utilizzata per costruire il sistema sistemi di insegnamento on-line 38.
Symbolics Document Examiner - 1985
Nel 1985
Janet
Walker
della
Symbolics, Inc. 39 creò il Document
Examiner, un sistema ipertestuale
dedicato alla navigazione della guida
in linea delle workstation prodotte
dall’azienda [Walker 1987].
Le ottomila e più pagine dei dodici
volumi della versione cartacea dei
manuali d’uso vennero convertiti in
un ipertesto con più di 10000 nodi
d’accesso e 23000 collegamenti.
Il Document Examiner permetteva la
sola lettura dei documenti, in quanto
per prepararli era necessario l’editor
Concordia. Ambedue i programmi –
come d’altronde tutto il software di
sistema delle macchine Symbolics –
Symbolics Document Examiner
erano scritti in linguaggio LISP.
Oltre
alle
normali
funzioni
ipertestuali, comuni anche ad altri sistemi, il sistema permetteva una ricerca rapida di una
sottostringa del testo; la più interessante innovazione era la possibilità di impostare dei
“segnalibri” per segnalare punti di accesso preferiti all’insieme dei documenti 40.
Writing Environment
Writing Environment (WE) [Smith 1986] venne creato alla Università del North Carolina con lo
scopo di costituire uno strumento per la creazione di nuovi documenti. Esso si basava su un
modello cognitivo del processo di comunicazione dell’informazione, in base al quale un insieme
di idee e nozioni, fra loro collegate in una rete di deboli associazioni, veniva trasformato in una
struttura gerarchica temporanea che facilitava l’organizzazione e la redazione di un documento,
e infine in una struttura lineare destinata sia alla consultazione online che alla stampa su carta.
WE mostrava le informazione contemporaneamente nelle sue diverse forme (reticolare,
gerarchica, lineare) in diverse finestre dello schermo.
La struttura ipertestuale permetteva di raccogliere le idee e le informazioni esterne nella
struttura reticolare e di convertirla progressivamente in una struttura gerarchica. Le struttura
37
Un po’ come si fa oggi in certi strumenti per la creazione dei siti web come Microsoft FrontPage. Pare strano però
che per il web ci siano voluti diversi anni prima che comparissero tali strumenti, che in altri ambienti ipertestuali
esistevano già almeno dieci anni prima.
38
Ciò che oggi – con orribile neologismo – viene chiamato “courseware”.
39
Symbolics, Inc. era uno dei più famosi costruttori di “LISP-machines”, ossia workstation dedicate allo sviluppo per
intelligenza artificiale. Nata nel 1980 come costola del famoso Laboratorio di Intelligenza Artificiale (AI-Lab) del MIT,
ebbe grande successo nel campo delle workstation dedicate, ma con lo spegnersi dell’interesse verso l’I.A. verso la
fine degli anni ’80, anche Symbolics morì.
40
Le immagini mostrano il Symbolics Document Examiner in funzione su una scheda MacIvory III, una scheda di
espansione per il Macintosh costruita da Symbolics, che portava su una piattaforma più economica come il Mac le
potenzialità delle LISP-workstation di fascia alta della Symbolics.
18
gerarchica aiutava nello sviluppo e riorganizzazione del documento. Infine, la struttura lineare
era il risultato del processo, pronto per la stampa o la consultazione on-line.
Neptune - 1986
Neptune venne sviluppato alla Tektronix con l’intenzione di costituire un modello di database in
cui potessero essere memorizzati i dati utilizzati in ambienti CAD elettronici o CASE41 (come ad
esempio circuiti elettrici, layout di circuiti integrati, descrizioni logiche nel primo caso, o codice
sorgente e definizioni funzionali nel secondo), con tutte le connesse problematiche di
mantenere traccia dell’evoluzione di un insieme di documenti, con tutte le versioni
progressivamente sviluppate.
Neptune venne implementato per workstation UNIX, e con una struttura a strati che definiva una
forte separazione tra l’interfaccia utente, il funzionamento ipertestuale e la memorizzazione dei
dati. Quest’ultima era fornita da un server software chiamato Hypertext Abstract Machine
(HAM). La HAM permetteva accesso multiutente anche distribuito in rete e una efficiente
protezione contro i crash di sistema mediante un approccio transazionale.
Sopra la HAM venivano costruiti uno o più strati applicativi, che trasformavano le informazioni
memorizzate in formati percepibili e manipolabili dall’utente (ad esempio, compilatori, editor
grafici per CAD, ecc.). Infine, sopra tutto vi era uno strato di interfaccia utente che permetteva
all’utente di interagire con gli strumenti applicativi.
I ricercatori della Tektronix crearono la HAM in modo che essa potesse memorizzare nei propri
nodi qualsiasi tipo di informazione (che in realtà veniva salvata come dati binari, senza alcun
tipo di interpretazione), e un complesso sistema di connessione fra i nodi (l’ipergrafo), completo
di tutte le versioni successive, nei vari stadi di sviluppo. I collegamenti potevano originarsi o
terminare in qualsiasi parte del contenuto del nodo, fosse esso testuale o grafico.
In questo modo, non vi poteva mai essere il problema (oggi assai noto nel Web) di collegamenti
che puntano a documenti non più esistenti o fortemente variati. Ciascun collegamento può
puntare alla versione più recente del nodo destinazione, oppure a qualsiasi versione precedente
del nodo stesso.
Per avere una efficiente memorizzazione, evitando le copie ridondanti della stessa
informazione, le versioni successive di un nodo venivano conservate all’interno della HAM come
“delta” o differenze dalla versione precedente.
L’interfaccia utente di Neptune venne sviluppata interamente in Smalltalk-80, forse il sistema di
sviluppo a quei tempi più adatto alle specifiche necessità. Essa era costituita da tre browsers: un
graph browser, che mostrava in modo pittorico l’insieme di collegamenti fra i nodi; un document
browser che supportava la navigazione di una struttura di nodi e di collegamenti, ed infine un
node browser, che mostrava un singolo nodo con tutti i suoi contenuti ed attributi.
Questi browser potevano essere specializzati per specifiche applicazioni, ed integrati da altri
browser che mostrassero le informazioni in modo più specifico (attribute, version, difference,
demon browser, ecc.).
La caratteristica forse più significativa di Neptune fu quella di implementare nella realtà il sogno
che Ted Nelson aveva fatto per Xanadu, ossia di un sistema ipertestuale che mantenesse tutte le
versioni successive dei documenti al suo interno. Oggi, la principale critica che Nelson muove al
Web è proprio il fatto che un documento, quando viene variato, perde per sempre le sue versioni
precedenti.
Apple HyperCard - 1987
HyperCard venne creato da Bill Atkinson 42 nel 1987. Atkinson cedette il suo prodotto alla Apple a
condizione che esso venisse fornito gratuitamente agli utenti. Questo accordo venne poi a
scadere quando nel 1989 apparve la versione 2.0, completamente rinnovata e migliorata da
Kevin Calhoun, e da quel momento, HyperCard divenne un prodotto a pagamento.
41
CAD: Computer Aided Design; CASE: Computer Aided Software Engineering.
Atkinson fu il principale sviluppatore del toolkit grafico QuickDraw per l’Apple Lisa, su cui era fondata tutta
l’interfaccia utente del Lisa prima, e del Macintosh poi. Inoltre, aveva scritto MacPaint, la prima e più accattivante
applicazione grafica per il Macintosh.
42
19
HyperCard, come NoteCards della Xerox, utilizzava la metafora della scheda (card), ciascuna
delle quali era contenuta in una singola schermata del video da 9” del Macintosh originale.
Le schede venivano raccolte in stack (mazzi) che l’utente poteva scorrere. I collegamenti tra
schede venivano creati molto semplicemente, inserendo nella scheda sorgente un’icona o
bottone che fungeva da ancora, e cliccando col mouse sulla scheda destinazione.
Era possibile anche creare un collegamento verso una scheda di un altro stack, ma ciò non era
altrettanto semplice; inoltre non era proprio previsto che il collegamento portasse verso uno
stack risiedente su un’altra macchina raggiungibile in rete 43.
Nel 1987 a HyperCard venne aggiunto un
linguaggio
di
programmazione,
HyperTalk, scritto da Dan Winkler,
potente
e
facile
da
usare.
Originariamente
concepito
per
incrementare
l’interattività
delle
funzioni ipertestuali, permetteva la
manipolazione
sia
dei
dati
che
dell’interfaccia utente, e per merito
della sua potenza venne utilizzato per
sviluppare sistemi anche più complessi di
un semplice ipertesto. Per questo
motivo, HyperCard era talvolta visto più
come sistema di sviluppo di programmi
che di ipertesti.
Apple HyperCard
HyperCard è stato compatibile con i
sistemi operativi Macintosh a partire dalla versione 6 fino alla versione 9; ma con l’apparire della
versione 10 44, non è stato più compatibile ed è stato tolto dal catalogo Apple nel marzo del
2004, dopo che non era più stato aggiornato da molti anni.
La Apple fece molti errori di marketing nella gestione del prodotto HyperCard, che ne
rallentarono la diffusione, ma il concetto di stack ebbe un grande successo, prova ne fu che
nacquero molti cloni (sia per Macintosh, come SuperCard, Plus, Revolution, che per Windows,
come ToolBook45). Molti affermano che – prima dell’arrivo del web - HyperCard sia il sistema che
più ha contribuito alla popolarizzazione del modello di ipertesto.
Gli anni ’90: la nascita del Web
WorldWideWeb - 1990
Uno dei tanti ricercatori che pensavano che le strutture ipertestuali fossero quelle ideali per
memorizzare informazioni non strutturate e molto parcellizzate era Tim Berners-Lee, che
lavorava al CERN di Ginevra come consulente e programmatore; durante i suoi anni in Svizzera,
egli si era concentrato sulle tecniche di memorizzazione delle informazioni prodotte – non solo
al CERN, ma in tutto il mondo – in modo che fosse possibile ritrovarle e rivederle secondo
modalità non lineari e non predefinite.
Tra giugno e dicembre del 1980, Berners-Lee scrisse un programma per gestire le annotazioni,
chiamato “Enquire Within Upon Everything 46”, che girava su un computer Norsk Data sotto
sistema operativo SINTRAN-III.
43
Bill Atkinson oggi afferma che questo fu una gravissima mancanza di lungimiranza da parte sua, causata certamente
dal fatto che egli crebbe professionalmente alla Apple dove imperava una cultura “box-centrica” (al contrario di altre
aziende, come la Sun o la Digital, “network-centriche”). Egli aggiunge che, probabilmente, se in HyperCard fosse
stato possibile collegare via rete stacks residenti su macchine diverse, esso avrebbe anticipato il Web.
44
La versione 10 del sistema operativo del Macintosh (detta anche Mac OS-X) è stata totalmente rifatta rispetto alle
precedenti e basata su un kernel UNIX.
45
ToolBook venne creato da Asymetrix, un’azienda fondata da Paul Allen, socio fondatore con Bill Gates di Microsoft.
46
Ossia “Informati qui su qualsiasi cosa”, era il titolo di un famoso manuale domestico di grande successo
nell’Inghilterra di epoca vittoriana, il cui compilatore prometteva: “Che Voi Desideriate Modellare in Cera un Fiore;
20
Enquire permetteva di impostare dei collegamenti tra nodi arbitrari
all’interno delle pagine di annotazione; ciascun nodo aveva un
titolo, una tipologia, e una lista di collegamenti bidirezionali
associati. Esso venne usato da vari gruppi di ricerca, ma non ebbe
una diffusione significativa al di fuori del CERN.
Nel 1989 Berners-Lee scrisse un memorandum [Berners-Lee 1989] che è ormai diventato parte della storia di Internet – in cui
proponeva un modello di interconnessione delle informazioni in una
struttura a ragnatela, che permettesse di navigarle in modo non
lineare tramite hyper-links (ipercollegamenti).
La proposta suscitò un discreto interesse e Berners-Lee, insieme a
Robert Caillau, si misero al lavoro per espandere la specifica e
definire tutti i meccanismi e i protocolli [Berners-Lee 1990].
La ragnatela di ipercollegamenti doveva travalicare i limiti del
singolo sito, e interconnettere tutti i siti al mondo che
Tim Berners -Lee
memorizzassero informazioni; si pensò pertanto a server di
informazioni, a cui si potesse accedere tramite un client (detto browser). Le pagine di
informazioni venivano richieste dal browser al server, e il server le forniva in un formato
standardizzato chiamato HTML (Hyper-Text Markup Language) e tramite un protocollo di
trasferimento chiamato HTTP (Hyper-Text Transfer Protocol).
Ogni pagina ed ogni altra risorsa (immagini, files, ecc.) poteva essere raggiunta tramite uno
specifico indirizzo, denominato URL (Uniform Resource Locator) che indicava il protocollo da
usare per raggiungerlo, il server su cui risiedeva, il percorso all’interno del server, il nome e il
tipo della risorsa in questione.
Il capo di Berners-Lee,
Mike Sendall, approvò il
progetto per lo sviluppo
di un browser con editor
integrato per un sistema
ipertestuale, da scrivere
su un NeXT Cube 47, e
Tim si mise al lavoro.
Dato che la ragnatela di
collegamenti era da
estendere a tutto il
mondo,
Berners-Lee
chiamò il suo sistema
WorldWideWeb, presto
abbreviato
in
WWW
[Berners-Lee 1993].
Nel novembre del 1990,
diventava disponibile la
prima pagina48 sul primo
server
HTTP
della
storia. Il giorno di
Il browser WorldWideWeb del CERN
Natale
dello
stesso
anno, Berners-Lee finiva
Studiare le Regole dell’Etichetta; Servire una Salsa per Colazione o Cena; Pianificare un Pranzo per un Grande Numero
di Persone o Uno Piccolo; Curare un Mal di Testa; Scrivere un Testamento; Sposarvi; Seppellire un Parente; Qualsiasi
Cosa Desideriate Fare, Costruire o Averne Diletto, Purché il Vostro Desiderio abbia Relazione alle Necessità della Vita
Domestica, io Spero che non Falliate in ‘Informarvi Qui’” (insomma, tutte quelle informazioni che, nel caso di
necessità, oggi cerchiamo su Internet).
47
La macchina progettata e costruita da Steve Jobs quando venne “buttato fuori” da Apple Computers.
48
All’indirizzo http://nxoc01.cern.ch/hypertext/WWW/TheProject.html
21
anche il browser WorldWideWeb, che veniva poi rilasciato internamente al CERN nel marzo
1991 49.
In pochi mesi diversi nuovi servers si aggiunsero, dapprima in Europa (specialmente fra gli istituti
di ricerca collegati al CERN) e poi negli Stati Uniti e nel resto del mondo. Nel gennaio del 1993
esistevano circa 50 HTTP servers nel mondo, nell’ottobre erano già 200, e nel giugno del 1994
erano diventati 1500.
Rapidamente il World Wide Web soppiantò i più primitivi Gopher e Archie50, e altrettanto
rapidamente cominciarono a diffondersi anche al di fuori del mondo informatico gli acronimi
WWW, HTTP, HTML e URL.
Erwise, ViolaWWW, Cello – 1992-93
Dopo il primo browser del CERN, apparvero rapidamente altri software che lo miglioravano in
vari punti, come:
• Erwise: rilasciato nell’aprile del 1992. Esso venne scritto da un gruppo di studenti
dell’università di Helsinki (il loro dipartimento aveva sigla OTH, per cui il nome “erwise” era
un gioco di parole con “otherwise”), ma poi gli autori del programma persero interesse e non
venne sviluppato ulteriormente.
• ViolaWWW: rilasciato nel maggio
1992, funzionava sotto UNIX. Esso
venne scritto da Pei Wei, studente
dell’UCB (University of California at
Berkeley), utilizzando il potente
interprete grafico chiamato Viola.
Comprendeva
la
possibilità
di
scaricare “applets”.
• Cello: rilasciato nel giugno del 1993,
venne scritto da Thomas R. Bruce del
Legal Information Institute alla
Cornell Law School. Fu il primo
browser
ad
essere
concepito
specificatamente per Windows; a
parte questo, non aveva altre
particolarità degne di nota.
Questi
primi
browser
non
erano
Cello (in funzione su Windows XP !)
particolarmente
“amichevoli”.
Ad
esempio, sia Erwise che Cello non avevano la possibilità di inserire una URL, ma la navigazione
era pertanto effettuabile solo visitando i collegamenti: essi
caricavano all’inizio una pagina HTML di default, su cui l’utente
doveva inserire i collegamenti alle URL di suo interesse (i
“preferiti”).
Mosaic per X-Windows - 1993
Finalmente, nel febbraio 1993 apparve il browser che avrebbe
rivoluzionato per sempre il web. Il NCSA (National Center for
Supercomputing Applications), centro di ricerca associato alla
Università dell’Illinois a Urbana-Champaign, pubblicò un browser
chiamato Mosaic, scritto da Marc Andreessen e Eric Bina,
laureandi dell’Università dell’Illinois [Andreessen 1993].
Mosaic era liberamente scaricabile dal web stesso e altrettanto
liberamente distribuibile. Oltre ad essere molto facile da
Marc Andreessen
49
La storia dei primi passi del web è molto ben descritta in due libri dei due maggiori responsabili di essa, Weaving
the Web di Tim Berners-Lee [Berners-Lee 1999], e How the Web Was Born di Robert Caillau [Gillies 2000].
50
Due primitivi sistemi di organizzazione gerarchica dell’informazione su Internet, con alcune funzioni simili
all’ipertesto, ma decisamente inferiori a quelle del WWW.
22
installare,
Mosaic
era
disponibile per le principali
piattaforme
del
momento:
UNIX/X-Windows, MS-Windows e
Macintosh, e pertanto fu il
primo
browser
ad
essere
multipiattaforma.
Rispetto
ai
browser
concorrenti, Mosaic in più
supportava suono, video, i
bookmarks, e i forms per l’invio
di informazioni, oltre ad essere
il primo ad avere le immagini
“inline”, ossia miste al testo.
Mosaic spodestò tutti gli altri
browser in uso all’epoca,
compreso
quello
originale
sviluppato al CERN, grazie alla
sua potenza e naturalezza
Mosaic su UNIX
d’uso. Nel 1994 aveva una base
di utenza di parecchi milioni, praticamente la totalità di utenti di Internet all’epoca.
Nell’agosto del 1994 il NCSA assegnò i diritti commerciali alla Spyglass, Inc., che
conseguentemente diede in licenza la tecnologia a più di cento società (compresa la Microsoft
per il proprio Internet Explorer 51); lo sviluppo di Mosaic venne terminato nel gennaio 1997.
Oltre al client Mosaic, al NCSA venne sviluppato anche un server HTTP, chiamato httpd, che poi
venne commercializzato come Apache. Apache oggi contende all’omologo prodotto Microsoft la
palma di software più usato sui server web di Internet 52.
Netscape
Nel febbraio 1994 Jim Clark, che aveva appena dato le dimissioni da presidente di Silicon
Graphics Inc. - che aveva fondato nel 1982 - contattò Andreessen e gli chiese se era interessato a
sfruttare commercialmente la sua creazione; quest’ultimo lasciò il NCSA ed insieme fondarono
Netscape 53.
Al fine di raggiungere la maggiore diffusione possibile,
Andreeessen riscrisse il browser con lo scopo di renderlo più
veloce, in modo da poterlo utilizzare anche con collegamenti a
bassa velocità, tipo modem. L’originale Mosaic soffriva infatti
del fatto che la velocità di trasmissione delle pagine non era
stata per nulla ottimizzata, in quanto era stato creato in un
ambiente, il NCSA, in cui le connessioni ad Internet erano ad alta
velocità.
Nell’ottobre del 1994, Netscape rilasciò la versione beta del suo
browser, chiamato Mozilla 0.96b; il primo rilascio commerciale,
denominato Netscape Navigator 1.0, uscì invece il 15 dicembre.
Seguendo la tradizione Mosaic, il browser Netscape Navigator
venne distribuito gratuitamente; l’intenzione era di farsi
rapidamente un nome, stabilire quindi Navigator come standard
Jim Clark
51
Ancora oggi, richiedendo le “Informazioni su…” in Internet Explorer 6.0, è chiaramente scritto: “Basato su NCSA
Mosaic. NCSA Mosaic® è stato sviluppato dal National Center for Supercomputing Applications presso l'università
dell'Illinois a Urbana-Champaign ed è distribuito in base ad un contratto di licenza della Spyglass, Inc.”.
52
Apache è installato su circa due terzi dei server web Internet, rispetto a circa un terzo che usa invece il software
Microsoft (Internet Information Server).
53
Il primo nome della neonata azienda era stato Mosaic Communication Corporation, ma era stato cambiato in
Netscape in seguito alle lamentele di Spyglass Inc. (vedi nota precedente) che deteneva i diritti commerciali sul
marchio Mosaic.
23
de facto, e poi cominciare a guadagnare vendendo software di tipo server, sia per web, che per
posta e groupware.
La strategia ebbe pienamente successo: Navigator divenne il browser preferito dalla maggior
parte degli utenti di Internet, e verso la fine del 1995 Netscape deteneva l’85% del mercato, sia
del software client che di quello server. A sottolineare questa crescita fulminea dell’azienda vi
fu anche la prima offerta pubblica di vendita di azioni (IPO 54), che fu quella di più grande
successo della storia di Wall Street, con un valore assegnato a Netscape di circa due miliardi di
dollari 55.
La “browser war”
Ma d’improvviso, nell’estate del 1995, la Microsoft entrò di prepotenza nel mercato dei browser:
nel nuovo sistema operativo a 32bit di Microsoft, Windows 95 56, c’era “di serie” il browser
Internet Explorer, sviluppato sulla base del codice Mosaic ottenuto su licenza da Spyglass.
Tra Internet Explorer e Netscape Communicator scoppiò quella che è ricordata come la “browser
war”, e Netscape ebbe la peggio, in quanto Microsoft utilizzò sia la sua enorme potenzialità di
sviluppo 57, che il fatto di incorporare il browser all’interno dei propri sistemi operativi per
stabilire Explorer come standard.
Quest’ultimo fatto venne denunciato da Netscape all’Antitrust come comportamento
monopolistico. Iniziò una causa, ma già nell’autunno del 1996 Internet Explorer aveva
conquistato un terzo delle quote di mercato, e nel corso del 1999 divenne il browser più
utilizzato in assoluto. Anni dopo, Microsoft perse la causa e il giudice la condannò a separare il
browser dal sistema operativo, ma ormai Microsoft aveva vinto la guerra del mercato e regnava
incontrastata (su quello che, tra parentesi non era proprio un vero mercato, visto che tutti i
prodotti in competizione erano pressoché gratuiti).
Il 31 marzo del 1998, la Netscape Corporation, nel tentativo di salvare il salvabile, rilasciò in
pubblico dominio il codice sorgente di Communicator (il nuovo nome di Navigator). Mentre
l’azienda continuava lo sviluppo, nacque una organizzazione indipendente no-profit, Mozilla.org,
che prese in mano il sorgente di Communicator e si dedicò allo sviluppo di un browser open
source, di libero uso e con sorgenti di libero utilizzo.
Nel novembre del 1998 Netscape venne poi acquistata dal gigante dei media e delle
telecomunicazioni Time Warner-America On Line, e cessò di esistere come azienda
indipendente, continuando però lo sviluppo e la distribuzione di browsers e altro software
connesso a Internet. Alla fine del 2002, però, ogni sviluppo venne fermato e i programmatori
spostati su altri progetti nel gruppo AOL-TimeWarner.
Ma proprio in questi mesi la “browser-war”, che pareva finita, si sta riaccendendo. Mozilla.org
ha rilasciato un nuovo browser, Firefox, riscritto da zero rispetto agli antichi sorgenti Netscape,
diretti discendenti dell’originale lavoro di Andreessen. Per molti, Firefox è decisamente
superiore a Internet Explorer di Microsoft, ed è disponibile con analoghe caratteristiche su molte
piattaforme, e pian piano sta erodendo la posizione di assoluto predominio di Explorer.
54
Initial Public Offering, chiamasi così la prima offerta di vendita di azioni sul mercato di una “startup company” (una
azienda da poco creata), che di norma caratterizza il valore azionario della nuova società.
55
Tipico esempio dell’artificiale gonfiatura della bolla “dot-com” di fine anni ’90. Valeva Netscape tutti quei soldi ?
Da un punto di vista della finanza tradizionale, sicuramente no; ma in quegli anni migliaia di investitori correvano
come mosche al miele su qualsiasi azienda che promettesse hi-tech. Nel 2001, sgonfiatasi la bolla, tutte quelle
aziende (comprese Netscape) erano sparite, e quegli investitori si leccavano le ferite.
56
In seguito vennero offerte versioni di Internet Explorer anche per Windows 3.x, per il Macintosh, e persino per UNIX.
57
Basta dire che mentre il team che aveva sviluppato la prima versione di Internet Explorer team era composto da soli
sei programmatori, per la versione 3.0, rilasciata nel 1996, il numero delle persone impegnate era cresciuto a 100, e
nel 1999, per la versione 4.0, era arrivato a più di 1000.
24
Altavista e la ricerca sul Web
Il principale problema sorto fin dall’inizio della formazione del World Wide Web era che
esistevano delle oggettive
difficoltà
a
trovare
le
informazioni in mezzo alla
mole
disponibile.
Anche
sapendo che le informazioni
erano presenti da qualche
parte, se non si aveva
l’indirizzo giusto, era difficile
trovare un punto di inizio per
navigare la ragnatela di
collegamenti fino al punto
desiderato. Vennero create
delle “directory” (una delle
prime e più famose fu
Yahoo!58) che organizzavano in
strutture
gerarchiche
i
principali indirizzi della rete.
Questa però non era una
soluzione funzionale; un po’
perché le informazioni, per
loro
natura,
cambiavano
continuamente,
e
continuamente
se
ne
aggiungevano;
e
inoltre,
perché
una
struttura
gerarchica mal si adattava alla
struttura non lineare e un po’
caotica della ragnatela.
Infine, una soluzione arrivò da
un progetto sviluppato alla
La prima pagina di Altavista
Digital Equipment Corp.
Il DEC Research Lab di Palo Alto aveva messo a punto un nuovo sistema – l’Alpha 8400 TurboLaser
– che era in grado di eseguire funzioni di database in modo radicalmente più veloce degli altri
sistemi. Per dimostrare la potenza del sistema, venne concepito un progetto di indicizzazione di
tutte le pagine del web dell’epoca.
Il sistema messo a punto funzionava così: un computer dotato di un software denominato
“Scooter”, scritto da un team di ricercatori del DEC Western Research Lab - guidato da Louis
Monier - si aggirava senza sosta per il web, seguendo in modo metodico tutti i links contenuti
nelle pagine web già visitate, e raccogliendo le pagine visitate.
Il contenuto delle pagine raccolte veniva analizzato e indicizzato da un altro software, creato
invece dal Research Center di Palo Alto, e archiviato, insieme con la URL di riferimento, in un
database installato su Alpha 8400 TurboLaser (con sistema operativo OpenVMS).
La prima scansione dell’intero web, eseguita nell’agosto del 1995, riportò circa 10 milioni di
pagine visitabili, e, dopo qualche tempo per il test interno, il motore di ricerca Altavista aprì al
pubblico il 15 dicembre 1995; il successo fu immediato, con 300.000 ricerche il primo giorno e 19
milioni di ricerche al giorno alla fine del 1996.
Quando qualcuno necessitava di trovare le pagine che riportavano una o più parole specifiche,
bastava raggiungere la pagina http://altavista.digital.com e digitare le parole in questione. Il
58
Yahoo dovrebbe essere un acronimo di Yet Another Hierarchical Officious Oracle (Ancora un Altro Oracolo
Gerarchico Ufficioso)
25
server di Altavista effettuava la ricerca all’interno dell’archivio e ritornava le URL delle pagine
trovate.
Altavista dopo breve tempo venne affiancato da diversi altri motori di ricerca, talvolta più
efficienti o con database più esteso, ma sempre basati sul concetto primigenio. La disponibilità
e l’uso dei motori di ricerca rivoluzionò il modo di cercare le informazioni all’interno del World
Wide Web.
Al giorno d’oggi alcuni affermano che le informazioni del Web – cresciute in modo veramente
esponenziale - sono diventate così tante che anche i motori di ricerca non riescono più ad
aiutare in modo effettivo: cercare una semplice parola può rimandare a milioni di pagine, il che
è come non averne nessuna. E’ stato coniato un modo di dire: “è come cercare di bere da un
idrante”. Questo è senz’altro vero; una ricerca efficace richiede abilità ed esperienza e talvolta
una dose di fortuna. Ma è anche vero che, in ogni caso, cercare sul Web tramite un motore di
ricerca è oggi il modo più efficiente per cercare qualunque tipo di informazione, e il primo passo
per effettuare qualsiasi altra ricerca più approfondita.
L’Ipertesto nell’era del Web
Abbiamo visto come il modello ipertestuale originale si sia pian piano modificato ed affinato,
abbia acquisito idiomi e meccanismi per poi essere implementato in quel modello di enorme,
incredibile successo, che è il web dell’era di internet. Ma il web è veramente tutto ?
Altri sistemi ipertestuali
A quasi dieci anni dalla nascita del Web, che spazio rimane per le ricerche nel campo
dell’ipertesto ? La maggior parte delle persone – con comprensibili ragioni, d’altronde – pensa
che il modello del web sia l’unico o il vero modello ipertestuale ed ipermediale.
Lo spazio, sia di ricerca che commerciale, per lo sviluppo di strumenti per la creazione di
costruzioni ipertestuali si è fortemente ridotto, in quanto il web sembra soddisfare tutte le
richieste in materia.
Alcuni sistemi, nati indipendentemente dal web (verso la fine degli anni ’80 – inizio dei ’90),
vengono ancora attivamente sviluppati, anche se oggi spesso i sofisticati ipertesti costruiti con
essi vengono poi esportati in modelli web.
Tra i più significativi, vogliamo ricordarne alcuni:
• Microcosm – Esso è stato sviluppato a partire dal 1989 da parte di un gruppo di ricercatori
dell’Università di Southampton nel Regno Unito, con l’iniziale intenzione di fungere da
strumento per sperimentare alcune idee nel campo multimediale. A differenza di altri
strumenti ipertestuali, che utilizzavano formati proprietari per la memorizzazione delle
informazioni, Microcosm è stato un pioniere nel campo dell’utilizzo di formati “aperti” e
standardizzati.
In Microcosm non esistono markups e i collegamenti tra i documenti sono memorizzati in un
database separato dall’informazione; i documenti possono essere creati con qualsiasi
strumento supportato dal sistema operativo, e possono essere distribuiti in rete.
• StorySpace – Esso è stato creato da Mark Bernstein, che poi ha fondato la Eastgate Systems
per commercializzarlo. StorySpace deriva da precedenti lavori di Bernstein, quali HyperGate
(un sistema di creazione di ipertesti per il Macintosh, antecedente a HyperCard) e Link
Apprentice (uno strumento di ricerca per la creazione di ipertesti fra documenti
preesistenti). StorySpace, di cui esiste sia la versione Macintosh che quella Windows, è
utilizzato sia per creare ipertesti autonomi che per esportarli su we b.
StorySpace è basato su un editor a outline (albero gerarchico), anche se in realtà i paragrafi
vengono visualizzati in riquadri che possono essere liberamente disposti e collegati
graficamente.
• Hyper-G – Sviluppato fin dall’inizio degli anni ’90 all’Institut für Informationsverarbeitung
und Computerunterstützte Neue Medien (IICM) al Politecnico di Graz in Austria.
Hyper-G è talvolta visto come un possibile futuro rivale del web, in quanto è dotato in modo
nativo di funzioni che nel web sono disponibili solo tramite strumenti e protocolli esterni:
26
permette la ricerca full-text, l’inserimento di collegamenti all’interno di immagini e filmati,
ha una visualizzazione tridimensionale, ed infine supporta automaticamente interfacce
utente multilingua.
La critica di Ted Nelson
Per gran parte delle persone, il WorldWideWeb è oggi una fedele implementazione della visione
del memex ipertestuale di Vannevar Bush. Per molti, ma non per tutti: Ted Nelson, come
abbiamo già visto, non si accontenta e denuncia:
“L’HTML è proprio quello che volevo evitare con Xanadu: collegamenti sempre interrotti,
collegamenti unidirezionali, citazioni di cui non puoi seguire l’origine, nessuna gestione
delle versioni, nessuna gestione dei diritti.”
e ancora:
“Il Web non è ipertesto, sono directory decorate !
Cosa abbiamo è la vacua vittoria dei tipografi sugli autori, e la forma più banale di
ipertesto che avremmo potuto immaginarci.
L’originale progetto di ipertesto, Xanadu, è sempre stato concentrato su strutture pure di
documenti in cui autori e lettori non devono pensare a strutture di files e directory
gerarchiche. Il progetto Xanadu ha sempre cercato di implementare una struttura pura di
collegamenti e di facilitare il riutilizzo dei contenuti in qualsiasi modo, permettendo agli
autori di concentrarsi su ciò che conta.
…
C’è un’alternativa.
I markup59 non devono essere inseriti all’interno del testo. Le gerarchie e i file non devono
essere parte della struttura mentale dei documenti. I collegamenti devono andare nelle
due direzioni. Tutti questi errori fondamentali del Web devono essere riparati.”
Bibliografia
•
•
•
•
•
•
•
•
•
[Akscyn 1987] Akscyn, Robert, Donald McCracken e Elise Yoder: “KMS: A Distributed
Hypermedia System for Managing Knowledge In Organizations” ”, Proceedings of the ACM
Conference on Hypertext, November 1987
[Andreessen 1993] Andreessen, Marc: NCSA Mosaic Technical Summary, National Center for
Supercomputing Applications, Champaign, Ill., February 20, 1993
[Bardini 2002] Bardini, Thierry e Michael Friedewald: “Chronicle of the Death of a
Laboratory: Douglas Engelbart and the Failure of the Knowledge Workshop” in History of
Technology, Vol. 23, 2002
[Berners-Lee 1989] Berners-Lee, Tim: “Information Management: A Proposal”, CERN Internal
Memo, Geneve, 1989, disponibile on line su http://www.w3.org/History/1989/proposal.html
[Berners-Lee 1990] Berners-Lee, Tim e Robert Cailliau: “WorldWideWeb: Proposal for a
HyperText Project”, CERN Internal Memo, Geneve, 1990, disponibile on line su
http://www.w3.org/Proposal.html
[Berners-Lee 1993] Berners-Lee, Tim: “The WorldWideWeb browser”, CERN Internal Memo,
Geneve,
1993,
disponibile
on
line
su
http://www.w3.org/People/BernersLee/WorldWideWeb.html
[Berners-Lee 1999] Berners-Lee, Tim: Weaving the Web, HarperCollins, New York, 1999
[Brown 1987] Brown, Peter J.: “Turning Ideas into Products: The Guide System”, Proceedings
of the ACM Conference on Hypertext, November 1987
[Buckland 1992] Buckland, Michael K.: “Emanuel Goldberg, electronic document retrieval,
and Vannevar Bush's Memex”, Journal of the American Society for Information Science Vol.
43, No. 4, May 1992
59
Un markup è una parola, inserita nel testo, che indica un determinata caratteristica del testo stesso (la sua
formattazione, un collegamento, ecc.)
27
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
[Buckland 1995] Buckland, Michael K.: “Zeiss Ikon’s ‘Statistical Machine’”, Zeiss Historica
Journal, Vol. 17, No. 1, Spring 1995
[Bush 1945] Bush, Vannevar: “As We May Think”, Atlantic Monthly, No. 176, July 1945
[Camillo 1550] Camillo Delminio, Giulio: L’Idea del Theatro, Domenichi e Torrentino,
Firenze, 1550
[Delisle 1987] Delisle, Norman e Mayer Schwartz: “Neptune: a Hypertext System for CAD
Applications”, Proceedings of the ACM Conference on Hypertext, November 1987
[Eco 1993] Eco, Umberto: La ricerca della lingua perfetta nella cultura europea, cap. 12,
Laterza, Bari, 1993
[Gillies 2000] Gillies, James e Robert Cailliau: How the Web was Born, Oxford University
Press, Oxford, 2000
[Goldberg 1931] Goldberg, Emanuel: “Das Registrierproblem in der Photographie”, Bericht
ueber den VIII. internationalen Kongress fuer wissenschaftliche und angewandte
Photographie, Dresden, 1931
[Halasz 1987] Halasz, Frank G.: “Reflection on NoteCards: Seven Issues for the Next
Generation of Hypermedia Systems”, Proceedings of the ACM Conference on Hypertext,
November 1987
[Koved 1986] Koved, Larry e Ben Schneiderman: “Embedded Menus: Selecting Items in
Context”, Communications of the ACM, Vol. 24, No. 9, April 1986
[Meyrowitz 1982] Meyrowitz, Norman e Andries Van Dam: “Interactive Editing Systems: Part
I” e “Part II”, Computing Surveys, Vol. 14, No. 3, September 1982
[Mohl, 1981] Mohl, Robert: Cognitive Space in the Interactive Movie Map: An Investigation of
Spatial Learning in Virtual Environments, Ph.D. dissertation, Education and Media
Technology, M.I.T., Boston, Mass., 1981
[Nelson 1965] Nelson,Theodore H.: “A File Structure for The Complex, The Changing, and the
Indeterminate”, Proceeding of the ACM 20th National Conference, New York, 1965
[Nelson 1967] Nelson,Theodore H.: “Getting it out of our system”, in Information retrieval:
A critical review, G. Schecter, ed., Thompson Book Co., Washington, D.C., 1967
[Nelson 1974] Nelson,Theodore H.: Computer lib/Dream Machines, Hugo's Book Service,
Chicago, Ill., 1974.
[Nelson 1981] Nelson,Theodore H.: Literary machines, T. H. Nelson, Swarthmore, Pa., 1981
[Nelson 1999] Nelson,Theodore H.: “Xanalogical Structure, Needed Now More than Ever:
Parallel Documents, Deep Links to Content, Deep Versioning, and Deep Re-Use”, ACM
Computing Surveys, Vol. 31, No. 4es, December 1999
[Nelson 2004] “I Don’t Buy In”, on line su http://ted.hyperland.com/buyin.txt
[Otlet 1935] Otlet, Paul: Monde, Essai d’Universalisme: Connaissances du Monde, Sentiments
du Monde, Action organisée et Plan du Monde, D. Van Keerberghen, Bruxelles, 1935
[Rayward 1991] Rayward, W. Boyd: “The Case of Paul Otlet, Pioneer of Information Science,
Internationalist, Visionary: Reflections on Biography”, Journal of Librarianship and
Information Science, No. 23, September 1991
[Rayward 1994] Rayward, W. Boyd: “Visions of Xanadu: Paul Otlet (1864-1944) and
Hypertext”, Journal of the American Society for information Science, No. 45, 1994
[Schneiderman 1987] Schneiderman, Ben: “User Interface Design for the Hyperties Electronic
Encyclopedia”, Proceedings of the ACM Conference on Hypertext, November 1987
[Schneiderman 1989] Shneiderman, Ben e Greg Kearsley: Hypertext Hands-On! An
Introduction to a New Way of Organizing and Accessing Information, Addison-Wesley,
Reading, MA., 1989
[Schneiderman 1998] Schneiderman, Ben: Designing the User Interface: Strategies for
Effective Human Computer Interaction, Third Edition, 1998
[Shultz 1986] Shultz, Jan R.: “A History of the PROMIS Technology: an Effective Human
Interface”, Proceedings of the ACM Conference on The history of personal workstations,
1986
28
•
•
•
•
•
•
•
•
[Smith 1987] Smith, John B., Stephen F. Weiss e Gordon J. Ferguson: “A Hypertext Writing
Environment and its Cognitive Basis”, Proceedings of the ACM Conference on Hypertext,
November 1987
[Spence 1983] Spence, Jonathan D.: The Memory Palace of Matteo Ricci, Viking Penguin Inc.,
New York, 1984
[Ramelli 1588] Ramelli, Agostino: Le Diverse et Artificiose Machine del capitano Agostino
Ramelli dal Ponte della Tresia Ingegniero del Christianissimo Re di Francia et di pollonia,
Parigi, 1588
[VanDam 1971] Van Dam, Andries e David E. Rice: “On-Line Text Editing: A Survey”, ACM
Computing Surveys, VoI. 3, No. 3, September 1971
[Yates 1966] Yates, Frances A.: The Art of Memory, University of Chicago Press, Chicago,
1966
[Walker 1987] Walker, Janet H.: “Document Examiner: Delivery Interface for Hypertext
Documents”, Proceedings of the ACM Conference on Hypertext, November 1987
[Walker 1994] Walker, John: The AutoDesk File, Version 4.0, 1994, disponibile on line su
http://www.fourmilab.ch/autofile
[Wilkins 1668] Wilkins, John: Essay toward a real character, and a philosophical language,
London, 1668
29