WE.ARE.ABLE, social wearable augmented reality

Transcript

WE.ARE.ABLE, social wearable augmented reality
2
Accademia Di Belle Arti Di Carrara
Scuola di Nuove Tecnologie dell'Arte
Biennio di Net Art e Culture Digitali
WE.ARE.ABLE
social wearable augmented reality
candidato: Antonino Cartisano
relatore: Massimo Cittadini
co-relatore: Massimiliano Menconi
a.a. 2011-2012
Sessione di tesi del 5 ottobre 2012
INTRODUZIONE _____________________________________9
CAPITOLO PRIMO:
Dal computer calcolatore al computer “comunicatore”
1. La macchina di Anticitera e i padri dell’informatica “moderna”
1.1 La mano, il primo computer “digitale” _________________16
1.2 Il primo calcolatore analogico ________________________17
1.3 La prima macchina aritmetica ________________________18
1.4 Leibniz e il sistema binario __________________________19
1.5 XIX secolo: Rivoluzione Tecnologica__________________21
1.6 I primi computer meccanici__________________________22
1.7 Alan Turing ______________________________________25
1.8 “As We May Think” secondo Vannevar Bush____________28
2. La “visione” utopistica di Engelbart e Licklider
2.1 I “Giant brain” degli anni ‘40 ________________________31
2.2 Engelbart e il potenziamento dell’intelletto umano _______34
2.3 Licklider e la simbiosi uomo computer _________________41
2.4 La dimostrazione dell’esistenza dei sogni di Engelbart e
Licklider ___________________________________________45
3. La Rete nata dalle reti
3.1 La commutazione di pacchetto di Paul Baran e Leonard
Kleinrock ___________________________________________54
3.2 Il time-sharing e l’Intergalactic Network _______________56
3.3 Arpanet per un milione di dollari______________________59
3.4 “The Computer as a Communication Device” ___________62
5
3.5 Lo Xerox Parc e la nascita di internet __________________65
CAPITOLO SECONDO:
Socializzare al tempo della “Rete”
4. Comunicazione e condivisione del Sé in Rete
4.1 La Teoria dell’informazione e della comunicazione _______72
4.2 La comunicazione mediata dal computer e Identità in rete __75
4.3 Nomofobia e disturbi da social addiction _______________83
CAPITOLO TERZO:
Dalle Realtà Virtuali alle Realtà Aumentate
5. L’Ultimate Display e i primi passi in Realtà Virtuale
5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di
Heilig. _____________________________________________91
5.2 L’Ultimate Display di Ivan Sutherland._________________96
5.3 Ambienti Virtuali interattivi: Myron Kreuger ___________106
5.4 L’ingresso nel Cyberspazio _________________________121
6. Augmented Reality
6.1 Virtual Reality vs. Augmented Reality ________________141
6.2 Enabling Display Tecnologies _______________________145
6.3 I continuum di Paul Milgram _______________________149
6.4 Che cos’è la Realtà Aumentata? E di cosa si occupa?_____155
CAPITOLO QUARTO:
Il progetto we.are.able: social wearable augmented reality
Introduzione________________________________________177
6
Motivazioni e obiettivi del progetto _____________________179
Descrizione del progetto we.are.able_____________________182
Risultati raggiunti ___________________________________192
Conclusione ________________________________________201
Bibliografia
Sitografia
7
8
INTRODUZIONE
La prima parte dell'elaborato tratta l'evoluzione della tecnologia, dai primi
strumenti di calcolo, succeduti alla mano come primo calcolatore, ai più attuali
dispositivi elettronici che, oltre ad aver contribuito al progresso umano con un
nuovo tipo di comunicazione (Internet), hanno fornito l'interazione con un nuovo
mondo, parallelo al nostro.
Il mondo della Realtà Aumentata.
"Il primo computer digitale" è attribuito alla mano (dattilonomia). Non
sorprende quindi il fatto che il termine inglese "digit" (cifra), utilizzato nel
linguaggio di moderni computer, derivi dalla parola latina "digitus" (dito).
Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo
sviluppo dei primi strumenti di calcolo analogici, come la Macchina di
Antikythera, la Pascalina e la Macchina a Scatti di Leibniz.
Si arriva difatti ad introdurre il mondo ad un nuovo punto di vista teoricomatematico, quello dell'aritmetica binaria di Leibniz (1701) e dell'utilizzo di
schede perforate (Telaio Jacquard ). Nascono così i primi computer meccanici,
ideati per agevolare l'uomo nel risolvere calcoli, tra cui la Macchina Differenziale
di Charles Babbage (1820) e la Tabulatrice di Hollerith (1890). Una vera e propria
rivoluzione per l'epoca.
Grazie allo straordinario progredire delle tecnologie informatiche nel XX
secolo, come la Macchina di Turing e Colossus, Bush riuscì a risollevare il paese,
segnato dalla fine del secondo conflitto mondiale, con As We May Think e il
Memex.
I computer iniziarono così ad essere visti non più come macchine in sé ma
come strumenti per aumentare l'intelletto. Gli anni '60 furono infatti caratterizzati
dalla simbiosi tra l'uomo e i computer, dettata da Licklider, e dalla creazione
dell'ARPA (ARPANET, 1967 con Licklider e Bob Taylor, antenata dell'attuale
Internet), potenziata dal time-sharing di Bob Berner e dalla commutazione a
pacchetto di Kleinrock e Davies ("Sai Larry, questa rete sta diventando troppo
complessa per essere disegnata sul retro di una busta").
Parallelamente alla nascita di queste idee geniali, nel 1968 Engelbart vive la
sua storica conferenza "Madre di tutte le demo" ed Alan Key con Smart-Talk
(1968-1972) introduce il desktop, il primo mondo virtuale in cui l'uomo si può
immergere e navigare.
Il progredire tecnologico porterà così alla creazione di Xerox ALTO (1973), il
primo personal computer della storia, e la nascita di INTERNET (1980), in cui
chiunque può crearsi un'identità online (che può rispecchiare o meno la vita reale),
fornirsi di una propria homepage o attaccare un post sui Social Network.
Questo avvento delle nuove tecnologie e l'abbattimento dei costi, oltre ad avere
un aspetto più che positivo, mostra anche l'aspetto negativo, provocando
9
un'esigenza sempre più forte di socializzare, quindi di rimare in rete (Nomofobia o
disturbi da Social Addiction o Friendship Addiction).
Le rivoluzioni tecnologiche portano così ad un progresso umano e quindi
all'esplorazione di nuovi orizzonti. Si fanno i primi passi verso il mondo in Realtà
Virtuale e in Realtà Aumentata.
Uno dei primi fu Heiling che diede vita al Sensorama Simulator, un'esperienza
multisensoriale mai provata prima. Susseguirono Sketchpad e The Ultimate
Display, entrambe di Sutherland, in cui pose le basi per l'avvento della realtà
virtuale.
Nel 1968 completato l'Head Mounted Three Dimensional Display (spada di
Democle), Sutherland e il suo staff svilupparono il matrix multiplier e il clipping
divider.
A differenza di Shuterland, Myron Krueger concepì un'idea diversa di realtà
virtuale: non sarebbero stati ingombranti ed isolanti marchingegni a condurre
l'uomo in mondi artificiali, ma una stanza appositamente studiata. Nascono così
parallelamente altri esperimenti di realtà virtuale, come Put that there (1980),
sotto la supervisione di Richard Bolt, con interfaccia a comando gestuale-vocale,
come Aspen Movie Map, una sorta di evoluzione del Sensorama di Hollerith e
ascendente dell'attuale Google Street View (immersività), come Moondust, ideato
da Janor Lanier.
Nel 1981 si assaggiò quello che oggi definiamo wearable computer. Difatti
Thomas Zimmerman, appassionato di musica come Lanier, ideò Dataglove
("quella mano fluttuante era qualcosa di più di una mano. Ero io"), un guantosensore impiegato nella realtà virtuale.
Si respirava così una nuova aria. Un'aria di una nuova era dalle potenzialità
non meno affascinanti e suggestive: l'era della Realtà Aumentata.
Nata per agevolare l'uomo (manutenzione Boeing 747), prese subito campo
mediatico. Brevettato da Sportvision, 1st & Ten è il primo esempio di AR ad
essere utilizzato nei broacasting televisivi.
Si ha così la prima esplosione mediatica del concetto AR.
Esplosione favorita dall'uscita di ARToolKit e successivamente di FLARToolkit
(2004), grazie alle quali si potevano creare applicazioni in AR (alcuni esempi
sono il 3-D stethoscope per l'ambito medico, IARM per quello militare e
N'Building per quello architettonico).
Anteprima di ciò che ci potrebbe riservare il futuro, è data da Pranav Mistry,
con la creazione del dispositivo augmented reality wearable, Sixth Sense. Questo
dispositivo di interfaccia gestuale wearable aumenta il mondo fisico di
informazioni digitali, attraverso l'utilizzo di movimenti e gesture naturali della
mano per interagire con i contenuti virtuali.
Si ritorna così,dopo un excursus di migliaia di anni, alla mano, da strumento
calcolatore a strumento di realtà aumentata.
Mano che avrà un ruolo anche nella seconda parte del mio elaborato, quella
dedicata al progetto.
10
La seconda parte dell'elaborato tratta il concetto di wearable computer.
Verrà utilizzato difatti un guanto,attraverso il quale si potrà interagire in
augmented reality e si potranno scambiare informazioni e dati, tramite dispositivi
NFC. Informazioni che riguarderanno il nostro status emotivo oppure dati
sull'ambiente che ci circonda (es. temperatura, luminosità), tracciate dai sensori
disposti sull'apposito guanto.
Tutte informazioni reali, dettate dal nostro corpo e da ciò che ci circonda, non
caratteristiche di false personalità come per lo più accade nei Social Network.
Questo mio progetto vuole così portare il "sociale" che è in rete, in quello in
cui "tutti si è amici di tutti", nella vita reale. Quindi, siccome lo scambio di dati si
effettuerà solo tramite contatto fisico, utilizzando un guanto, quale migliore
contatto c'è che una sincera stretta di mano tra "amici virtuali"?
11
12
13
14
CAPITOLO PRIMO:
Dal computer calcolatore al computer “comunicatore”
1. La macchina di Anticitera e i padri dell’informatica “moderna”
In senso Engelbartiano1 un computer, oltre che digitale o analogico, può essere
inteso come strumento in grado di “aumentare” l’intelletto, accrescere cioè le
capacità umane nella risoluzione e comprensione di complesse problematiche e
situazioni (professionali, scientifiche, sociali, politiche ecc..) che inevitabilmente
si (ri)presentano nella vita di tutti i giorni.
By "augmenting human intellect" we mean increasing the capability of a man to approach a
complex problem situation, to gain comprehension to suit his particular needs, and to derive
solutions to problems. ("Augmenting Human Intellect: A Conceptual Framework" Douglas
Engelbart, 1962)
Si tratta di una “way of life” dove le intuizioni umane, i presentimenti e le
capacità di sentire le situazioni (feel for situations) coesistono simbioticamente ad
un più complesso sistema-mondo fatto di tecnologia ed aiuti ad alto potenziale
cognitivo. In poche parole, un sistema dove le macchine per pensare2 e l’intelletto
umano si integrano perfettamente.
Secondo questa concezione per rintracciare nella storia dell’umanità quello che
può essere indicato come il primo computer, occorre guardare ad una tecnologia
remota ed innata, ma in uso ancora oggi: la mano.
1 Termine che deriva da Douglas Carl Engelbart (Portland, 30 gennaio 1925), inventore
statunitense e pioniere dell'interazione uomo-macchina.
2 La macchina ci permette di lavorare con la conoscenza, allargando l'area delle capacità
umane.
15
1.1 La mano, il primo computer “digitale”
Le nostre mani senza dubbio rappresentano la prima forma, seppur primitiva,
di amplificatore dell’intelletto (e non solo): sono la chiave che ha aperto all’essere
umano la porta dell’evoluzione, distinguendolo così dagli altri esseri viventi.
La mano ci ha permesso di: costruire utensili e strumenti di caccia, riprodurre
graficamente e simbolicamente ciò che i nostri occhi o la nostra mente vedevano
(grotte di Lascaux), e soprattutto di calcolare.
Grazie all’uso della dattilonomia3 i nostri antenati potevano fare calcoli
aritmetici e, tramite sistemi di rappresentazione, potevano visualizzare numeri
complessi semplificando notevolmente il lavoro che la mente (diversamente da
questa tecnologia) avrebbe dovuto compiere. Sebbene non ci siano prove concrete
e le sue origini siano del tutto oscure, del sistema dita-mente si hanno tracce in
diverse epoche storiche.
Quintiliano (35-96 d.C.), maestro di retorica e oratore romano, per esempio,
afferma che un oratore sarebbe stato considerato ignorante se avesse sbagliato un
calcolo o se avesse utilizzato gesti con le dita in modo errato mentre era
impegnato nella risoluzione del medesimo.
Gli Arabi (abilissimi matematici) chiamavano la dattilonomia “aritmetica dei
nodi”4 , ampiamente utilizzata per tutto il Medioevo Islamico. Tale tecnica venne
inserita tra i cinque metodi di espressione umana e preferita a qualsiasi altro
sistema di calcolo perché non richiedeva materiali né strumenti particolari oltre
che a un arto. Si hanno tracce anche nel Medioevo Europeo dove il teologo
anglosassone Beda (672-735 a.C, monaco divenuto santo inglese), nel primo
capitolo del “De computa vel loquela digitorum”, dimostra la possibilità di
esprimersi ed eseguire calcoli con numeri da 1 a 9999 utilizzando la mano.
3 Arte
ormai (quasi del tutto) abbandonata del conteggio aritmetico tramite l’uso delle dita,
adoperando invece dei caratteri le varie inflessioni e movimenti di quest’ultime in modo da
rappresentare cifre e calcoli complessi.
4 Aritmetica basata sull'utilizzo di un insieme di cordicelle, annodate tra loro, di diversi
colori,che rappresentavano dei numeri e dalla loro reciproca posizione se ne potevano ricavare le
unità, le decine, le centinaia e le migliaia.
16
Non sorprende quindi il fatto che il termine inglese “digit” (cifra), utilizzato
comunemente nel linguaggio dei moderni computer, derivi dalla parola latina
“digitus” (dito).
Per calcoli di natura più complessa e problematiche sempre più pressanti,
l’uomo nel corso della sua storia ha cercato di costruire strumenti “per pensare”
sempre più tecnologicamente avanzati, allo scopo sia di automatizzare che di
velocizzare determinati processi, sollevando così la mente dal compiere azioni
ripetitive considerate di basso livello (calcoli aritmetici), lasciandola cioè libera di
comprendere meglio e di operare su scelte decisionali e valutative. L’aumento
dell’intelletto diventa così maggiore libertà nelle scelte da compiere e maggiore
possibilità di prendere decisioni corrette e più in fretta.
Nascono quindi strumenti con logiche e caratteristiche più articolate, atte alla
risoluzione di problematiche e situazioni sempre più difficili (che possiamo
collocare nella preistoria
dell’informatica), come: gli antichi
abachi, la scrittura e successivamente le
prime macchine ad ingranaggi per il
calcolo astronomico. La più famosa di
quest’ultime è la macchina di
Antikythera5.
1.2 Il primo calcolatore analogico
Definita come il primo calcolatore
analogico della storia, la macchina di
Fig. 1 - Scansione a raggi-X degli ingranaggi
che compongono il frammento principale della
macchina di Anticitera.
Antikythera risulta essere qualcosa di
veramente unico nel suo genere. Secondo uno dei suoi più autorevoli studiosi, il
5
Nota anche come meccanismo di Antikythera, (150-100 a.C). Si tratta di un sofisticato
planetario mosso da ruote dentate, che serviva per il calcolo delle fasi lunari, del sorgere del sole
ed altri eventi astronomici (eclissi, movimenti dei pianeti allora conosciuti ecc...).
Trae il nome dall'isola greca di Anticitera (Cerigotto) presso cui è stata rinvenuta. È conservata
presso il Museo archeologico nazionale di Atene.
17
prof. Michael Edmunds, insegnante di astrofisca presso l'Università di Cardiff,
siamo di fronte ad un “device straordinario” in cui l’assoluta precisione meccanica
ed astronomica è talmente elevata, considerando la datazione presunta
dell’oggetto (I secolo a.C.), da “lasciare letteralmente a bocca aperta”.
La minuziosità e complessità dei suoi elementi costruttivi è paragonabile agli
orologi costruiti dai maestri del XIX secolo. La sua logica di funzionamento
risulta essere di gran lunga superiore a qualsiasi altra tecnologia similare e
contemporanea alla sua creazione: basti pensare che con pochissime modifiche
avrebbe potuto funzionare come calcolatore matematico e che la stessa tecnologia
sarà utilizzata molti secoli dopo nei calcolatori meccanici.
1.3 La prima macchina aritmetica
...The first arithmetic machine presented to the public was from Blaise Pascal, born in
Clermont, Auvergne on June 19, 1623; he invented it at the age of 19 [...] Pascal's machine is the
oldest one; it could have served as model to all the others; this is why we preferred it.
("Encyclopedia" Diderot e D'Alembert, 1751)
Il primo calcolatore aritmetico meccanico, come si legge nell'Encyclopedia6, è
la “Pascalina”, ideata dal genio di Blaise Pascal (1623-1662), matematico e
filosofo francese, all’età di 19 anni come dispositivo che alleviasse il carico di
lavoro che il padre (intendente della finanza) doveva affrontare quotidianamente.
L’esempio perfetto del mezzo meccanico (frutto dell’ingegno umano) che viene in
aiuto per operazioni e compiti ripetitivi, lasciando alla mente l’onere di valutare i
risultati prodotti e confrontarli, inserendoli in contesti e situazioni reali.
Per la sua realizzazione Pascal ha dovuto combattere oltre che con la sua salute
anche contro l’ignoranza del suo tempo. Come spesso accade alle grandi idee
rivoluzionarie anche l’invenzione di Pascal si dimostrò prematura rispetto alle
possibilità economiche, tecniche e meccaniche dell’epoca. Per funzionare meglio
6 L' Encyclopaedia è una vasta enciclopedia in lingua francese, pubblicata da un consistente
gruppo di intellettuali, sotto la direzione di Diderot e D'Alembert, e rappresenta un significativo
punto di arrivo di un percorso teso a creare un compendio universale del sapere.
18
e a lungo necessitava di maggiore precisione e forza, ma ciò non toglie il fatto che
la macchina calcolatrice realizzata da Pascal, segnò l’inizio di una corsa
inarrestabile che porterà fino ai moderni calcolatori.
Il principio meccanico della Pascalina non è molto diverso dalla suddetta
macchina di Antikythera e fondamentalmente si basa, come per gli abachi, sul
sistema di numerazione posizionale, in cui i simboli (cifre) usati per scrivere i
numeri, assumono valori diversi a seconda della posizione che occupano nella
notazione. La Pascalina era in grado di computare solo semplici addizioni e
sottrazioni, un limite che nel 1670 Gottfried Wilhelm von Leibniz7 cercò di
superare grazie al prototipo della sua macchina a scatti, dotata di tecnologia per
eseguire anche calcoli più complessi, come moltiplicazioni e divisioni.
Fig. 2 - La Pascalina
1.4 Leibniz e il sistema binario
Nonostante fosse un enorme progresso rispetto alla Pascalina, la macchina a
scatti risulta essere un’innovazione che passa in secondo piano se confrontata a
quello che lo stesso Leibniz, dal punto di vista teorico-matematico, stava
introducendo al mondo.
Per molti anni infatti Leibniz dedicò i suoi studi all’aritmetica binaria 8 (1701),
compiendo così uno dei passi più importanti e significativi nella storia delle
macchine elaboratrici: oltre a codificare un alfabeto appropriato per la logica
7 Gottfried Wilhelm von Leibniz (1646-1716) era un matematico tedesco, oltre che scienziato e
filosofo, noto più come precursore dell'informatica e del calcolo automatico.
8 Il sistema numerico binario è definito un sistema numerico posizionale in base 2, cioè che
utilizza 2 simboli, tipicamente 0 e 1, invece dei 10 del sistema numerico decimale tradizionale.
19
binaria che permette di scrivere tutti i numeri con due sole cifre (0 e 1), descrisse
compiutamente anche le regole che la governano. Il matematico tedesco
introdusse, dettandone le norme principali, il mondo alla soglia del nuovo mondo
(abbozzando quello che oggi costituisce il linguaggio ufficiale dell’informatica),
ma anche ad una sua visione differente.
La concezione binaria infatti è riconducibile alle sue ricerche di natura
filosofica dualista, dove vide una spiegazione matematica della creazione di tutto
l’universo fisico a partire dal nulla (0) e da Dio (1): "Omnibus ex nihilo ducendis
sufficit unum" 9. Le regole che governano la natura sono le stesse che verranno
successivamente utilizzate per il linguaggio dell’informatica, dove è dalla somma
di energia e non energia, materia e non materia, di 1 e di 0, che si crea tutto.
Il passo che Leibniz aveva compiuto si rivelò precursore e quindi determinante
per il futuro del pensiero tecnologico, tuttavia le sue idee rivoluzionarie rimasero
nel dimenticatoio per molti anni. Furono infatti
riscoperte e rivitalizzate solo nel 1847 dal
matematico inglese George Boole (1815-1864),
il fondatore della logica matematica. Nel suo
libro “The Mathematical Analysis of Logic”
Boole descrive un sistema algebrico (oggi
conosciuto come algebra booleana10) basato
sulla logica binaria ,derivata dal lavoro di
Leibniz e suoi predecessori, in cui una serie di
istruzioni (yes-no e on-off) e operazioni di base
Fig. 3 - Il medaglione “Imago
Creationis” disegnato da Leibniz
(AND, OR e NOT) consentono di codificare in un
linguaggio più prossimo alla macchina qualsiasi tipo
di funzione logica.
9
"Per trarre tutte le cose dal nulla basta l'Uno". Così è scritto su una medaglia intitolata
“Imago Creationis”, disegnata da Leibniz nel XVII secolo, per “Mostrare alla posterità, in argento”
la sua scoperta del sistema binario.
10
Un insieme di regole dettate per la manipolazione e le operazioni su espressioni logiche,
definite dall'insieme { 0 , 1}, dove: + somma logica (operatore binario logico OR ), • prodotto
logico (operatore binario logico AND ), l’operazione unaria NOT, ovvero espressioni che possono
risultare in due soli valori possibili, vero e falso (true e false).
20
1.5 XIX secolo: Rivoluzione Tecnologica
Il passo evolutivo degli elaboratori meccanici, grazie al lavoro costante di
matematici, inventori e scienziati, sembra accelerare notevolmente già a partire
dai primi anni del XIX secolo. Società, economia, politica, stili di vita ed ogni
aspetto della realtà in questo preciso momento storico cambia radicalmente
(nascono il telegrafo e successivamente il telefono, la lampadina, la radio, la
fotografia, il cinema, la locomotiva ecc...), frutto di una forza incontrollabile
generata dalla (seconda grande) Rivoluzione Industriale.
Sebbene non sia ascrivibile a questo secolo la nascita effettiva dei computer per
come li intendiamo noi oggi, senza dubbio va quantomeno riconosciuto come il
momento storico che ha segnato un evidente accelerazione culturale, giustificata
anche dallo sviluppo di nuove tecnologie di base, e come un passo evolutivo
necessario. In termini darwiniani questo periodo può essere distinto come l’anello
di congiunzione tra le macchine meno evolute di concezione tipicamente
meccanica-analogica e quelle più evolute che seguiranno.
Un passaggio dalle semplici calcolatrici agli elaboratori elettronici, non
dissimile a quello avvenuto per l’uomo milioni di anni fa (da scimmia a Homo
sapiens).
Nel 1801 l’imprenditore francese Joseph-Marie Jacquard (1752-1834)
introdusse nella sua azienda tessile un particolare tipo di telaio automatizzato, in
cui i disegni venivano “programmati” mediante schede di cartone perforate,
conosciuto ancora oggi come il Telaio Jacquard. In corrispondenza del foro gli
aghi potevano attraversare e ricamare la trama desiderata. L’intuizione di Jacquard
si basava (probabilmente senza rendersi conto delle possibilità che avrebbe
introdotto) sull’applicazione pratica della logica binaria ad un sistema
automatizzato che poteva essere facilmente programmabile: 1 = foro presente (il
filo passa), 0 = foro assente (il filo non passa). Sebbene storicamente non sia del
tutto riconosciuto come diretto ascendente dei moderni computer calcolatori, il
21
telaio di Jacquard rappresenta comunque uno stadio evolutivo tecnologico di
interessante rilievo e di notevole importanza per le future applicazioni. Un
esempio da seguire.
1.6 I primi computer meccanici
Ascendenti dirette invece possono essere definite e considerate a tutti gli effetti
come i primi computer meccanici della storia, le macchine di Charles Babbage
(1791-1871), matematico inglese e scienziato proto-informatico.
Rispetto ai suoi predecessori che hanno sempre cercato di costruire macchine
calcolatrici capaci essenzialmente di eseguire le quattro operazioni principali
(addizione, sottrazione, divisione, moltiplicazione), il matematico inglese voleva
creare calcolatori universali dotati di memoria, di una parte operativa e di un’unità
di controllo (concettualmente e “architetturalmente” molto simili a quelli
moderni), capaci di svolgere sequenze di calcoli determinati dall’esecuzione di
uno specifico programma. I calcolatori numerici presentati da Babbage hanno
introdotto il concetto per la quale una macchina può imitare molto da vicino
alcune azioni umane, semplicemente istruendole tramite apposite tavole di
istruzioni programmate.
to “programme a machine to carry out operation A” means to put the appropriate instruction
table into the machino so that it will do A ("Computing Machinery and Intelligence" A.M. Turing,
1950)
Al tempo di Babbage i tabulati numerici (prevalentemente ad uso astronomico)
erano calcolati da operatori umani che venivano chiamati “computers”(che
significa dall'inglese “colui che calcola”, così come il termine “conductor”
significa “colui che guida”) e naturalmente erano soggetti ad un elevato tasso di
errori. Il suo obiettivo divenne quindi quello di annullare tali imprecisioni tramite
l’utilizzo di macchine calcolatrici.
22
I was sitting in the rooms of the Analytical Society, at Cambridge, my head leaning forward on
the table in a kind of dreamy mood, with a table of logarithms lying open before me. Another
member, coming into the room, and seeing me half asleep, called out, "Well, Babbage, what are
you dreaming about?" to which I replied "I am thinking that all these tables" (pointing to the
logarithms) "might be calculated by machinery". (Babbage)
Babbage a partire dal 1820 iniziò a lavorare su un prototipo di macchina
differenziale11 che, secondo i suoi progetti, doveva elaborare e compiere
operazioni meccanicamente, sfruttando il principio del metodo delle differenze12 .
Pubblicò i suoi studi in un documento
intitolato "Note on the application of
machinery to the computation of astronomical
and mathematical tables" che presentò alla
Royal Astronomical Society il 14 giugno del
1823. L’idea fu riconosciuta talmente brillante
da ottenere immediatamente fondi necessari per
realizzarla, ma la sua costruzione non fu mai
del tutto ultimata.
I problemi ricorrenti che Babbage riscontrò
durante tutto l’arco del suo lavoro, furono
essenzialmente dovuti alla meccanica degli
ingranaggi disponibili a quel tempo, tecnicamente
Fig. 4 - Ricostruzione della macchina
differenziale di Babbage
troppo poco adatti ad un dispositivo che richiedeva indici di precisione
elevatissimi.
Subito dopo i vari tentativi infruttuosi di rendere il sistema differenziale
operativo, Babbage si concentrò sulla progettazione di uno strumento di calcolo
ben più complesso, ma dalle potenzialità pressoché infinite: la macchina analitica.
11
La macchina avrebbe utilizzato il sistema decimale e sarebbe stata alimentata in modo
meccanico, ossia tramite il movimento di una maniglia che avrebbe fatto girare gli ingranaggi.
12
Metodo usato per risolvere numericamente equazioni differenziali, prevalentemente
ordinarie anche se sono spesso usate come schema di avanzamento nel tempo per problemi alle
derivate parziali. Sono di gran lunga il metodo più semplice e intuitivo tra tutti poiché non si
utilizzano moltiplicazioni.
23
Tale engine13 si differenzia rispetto al suo precedente lavoro poiché dotato di
“intelligenza programmabile”, ossia della possibilità del dispositivo di ricevere
una serie di istruzioni attraverso input ed eseguirle basandosi sui dati e sulle
informazioni analizzate. L’analytical engine, progettato da Babbage, sfrutta
l’intuizione di Jacquard delle schede perforate (utilizzata nel telaio) come
primitiva interfaccia uomo-macchina e strumento di controllo della macchina
stessa.
La sua natura flessibile la rende molto simile all’architettura utilizzata nei
moderni elaboratori informatici, dove dati e memoria del programma sono
separati e le operazioni sono basate su istruzioni.
The Analytical Engine has no pretensions to originate anything. It can do whatever we know how
to order it to perform 14 ( "The Ladies Diary" journal Taylor's Scientific,1842)
Ancora una volta la sfida tecnologica sfortunatamente fu troppo elevata da poter
essere vinta: Babbage aveva creato il primo computer programmabile della storia,
anche se le sue idee rimasero a lungo solo sulla carta.
Nonostante i suoi progetti fossero incompiuti, Babbage viene riconosciuto
all’unanimità come il principale precursore delle logiche che hanno reso possibile
la nascita dei computer. Molti dei suoi successori recuperarono i suoi progetti e
dimostrarono che le macchine che aveva progettato erano in grado di eseguire ciò
che lui aveva sognato.
Un altro ascendente diretto di forte rilevanza “storica” dei moderni elaboratori
fu ideato nel 1890 da Herman Hollerith 15 (1860-1929), il quale vinse un bando di
13
Parte del file che si occupa di dati di tipo scientifico.
14
Tratto da "The Ladies Diary " di Taylor, opera in cui vennero pubblicate le memorie di Lady
Lovelace (1842), matematica inglese che lavorò al fianco di Babbage durante la realizzazione della
macchina analatica. Egli la soprannominò "l'incantatrice dei numeri", colpito dalle sue abilità e dal
suo intelletto. Lady Lovelace, ossia Ada Lovelace (1815-1852), è spesso ricordata come la prima
programmatrice di computer al mondo.
15 H.Hollerith era un ingegnere statunitense, noto come fondatore dell'IBM (L'International
Business Machines Corporation).
24
concorso indotto dal United States Census Office (ufficio censimenti degli Stati
Uniti) e finalizzato alla costruzione di una macchina in grado di classificare e
contare automaticamente le schede necessarie per il controllo censitorio del paese.
Hollerith utilizzò l’ormai consolidata idea delle schede perforate del sistema
Jacquard-Babbage, non per specificare un programma da eseguire, ma per
indicare alla macchina i dati da elaborare. Le risposte degli individui venivano
interpretate e codificate su apposite schede da operatori umani secondo la logica
binaria, mediante la rappresentazione di fori o non fori (per esempio un individuo
“maschio” poteva essere rappresentato tramite un foro, mentre una “femmina”
con l’assenza di foro). Per ogni foro la macchina attivava un circuito elettrico,
altrimenti spento in sua assenza, che a sua volta metteva in funzione un complesso
sistema di contatori in grado di immagazzinare ed interpretare le informazioni
relative alle risposte fornite dall’individuo nel questionario del censimento.
La tabulatrice di Hollerith16 divenne il primo dispositivo di calcolo a fare uso
dell’elettricità. Completò il suo lavoro di conteggio e analisi schede in 50 giorni,
(ci vollero 8 anni per portare a termine il precedente censimento senza l’uso di
questo tipo di tecnologia) alla media di circa 800 schede al minuto.
Una vera e propria rivoluzione per l’epoca.
1.7 Alan Turing
La prima metà del XX secolo richiama alla mente da una parte il ricordo di
distruzione e morte dettato dalle due grandi guerre mondiali, dall’altra lo
straordinario progredire delle tecnologie informatiche. Guerra e ricerca
tecnologica fanno parte in questo contesto di un sistema simbiotico, sono gli
ingredienti essenziali che hanno scandito nell’ultimo periodo storico l’evoluzione
che ci ha portato fino ai computer per come li conosciamo e li utilizziamo ancora
16 La macchina tabulatrice era congegnata su un meccanismo molto semplice: un insieme di fili
metallici venivano sospesi sopra il lettore di schede, poste in corrispondenza di appropriate
vaschette di mercurio; una volta che i fili venivano spinti sulla scheda, essi permettevano di
chiudere elettricamente il circuito solo in corrispondenza dei fori praticati durante la rilevazione. Il
circuito elettrico attivato consentiva l’avanzamento del relativo contatore, avvertendo l’operatore
della lettura avvenuta.
25
oggi. La prima incentiva la seconda a trovare espedienti sempre più efficienti e
determinanti alla rottura degli enigmi crittografici17, all’elaborazione di sempre
più complessi calcoli balistici e allo sviluppo di nuove tecnologie.
Si tratta di una guerra nella guerra dove le menti geniali degli scienziati e dei
ricercatori, ancor più che le armi dei soldati in battaglia, possono fare davvero la
differenza.
Durante la Seconda Guerra Mondiale per decodificare messaggi criptati
tedeschi occorrevano macchine
eccezionali e menti eccezionali.
Il matematico e crittografo
inglese Alan Mathison Turing
(1912-1954) fortunatamente era
una di queste.
You needed exceptional talent, you
Fig. 5 - Rappresentazione grafica della
macchina di Turing.
needed genius [...] and Turing's was
that genius. 18
Ideò un modello teorico di un dispositivo in grado di risolvere qualsiasi
algoritmo esistente. La macchina, denominata Macchina di Turing, era costituita
da due elementi principali: un nastro di dati riscrivibile ed infinito, e un
meccanismo in grado di muoversi lungo il nastro bidirezionalmente e di
modificare le informazioni su di esso, scrivendone di nuove e cancellandone
quelle già esistenti.
Lo sviluppo di questa macchina era, secondo Turing, la risposta al problema
della decidibilità19. Ancora oggi risulta essere un modello fondamentale per
17
La parola crittografia deriva dall'unione di due parole greche: κρυπτóς (kryptós) che
significa "nascosto", e γραφία (graphía) che significa "scrittura". La crittografia studia le "scritture
nascoste", ossia i metodi per rendere un messaggio "offuscato" in modo da non essere
comprensibile a persone non autorizzate a leggerlo.
18 Citazione di Asa Briggs (1921), uno dei storici inglese più autorevoli, noto per la sua trilogia
sull'era Vittoriana: "Victorian People", "Victorian Cities," and "Victorian Things".
19 Diremo decidibile un problema per il quale esiste un algoritmo (quindi una procedura
eseguibile con un numero finito di passi) in grado di risolverlo.
26
chiunque si occupi di computazione ed abbia bisogno di dimostrare la validità
degli algoritmi progettati.
Prendendo spunto dalla brillante idea visionaria della Macchina di Turing fu
progettato Colossus, il primo calcolatore elettronico programmabile della storia.
Venne utilizzato nel corso della Seconda Guerra Mondiale, a decorrere dal
1944, per cercare di decriptare i messaggi cifrati tedeschi. Colossus confrontava
due flussi di dati: il messaggio originale criptato e un tentativo di codifica,
valutandone di volta in volta la sua attendibilità.
Il mezzo (Colossus) e la mente (Turing) permisero di disinnescare
innumerevoli attacchi nemici e di indebolirne notevolmente i fronti attraverso
attacchi a “sorpresa”, grazie alla conoscenza preventiva della dislocazione delle
truppe avversarie. Senza di loro lo scenario della Seconda Guerra Mondiale
avrebbe potuto avere esito differente.
Turing oltre ad aver contribuito (a modo suo) alla sconfitta di Hitler, giocò
anche il ruolo di “attore principale” e precursore nell’ambito di ricerca
sull’ intelligenza artificiale20 . In “Computing Machinery and Intelligence” (del
1950) Turing si pone un semplice quesito: “Can machine think?”.
La sua ricerca sulle possibilità di creare “thinking machine” (macchine
pensanti) include anche aspetti neurologici e fisiologici. Si lascia ispirare infatti
dalle complicate interconnessioni neuronali, analizzandone la logica e
riconoscendo analogie matematiche di funzionamento con le macchine. La
soluzione migliore, secondo il matematico britannico, sta nel creare un sistema
intelligente in grado di “apprendere” e accrescere la sua “esperienza”, così come
avviene nei bambini (tramite il gioco, i rimproveri, gli apprezzamenti, etc..).
Per cercare di rispondere alla questione Turing suggerisce inoltre un semplice
test, denominato appunto test di Turing. Immagina uno scenario in cui un uomo A
e una donna B devono fornire risposte dattiloscritte ad un soggetto C.
Quest’ultimo ha il compito di determinare chi dei due è il maschio e chi è la
20 Il termine di intelligenza artificiale fu proposto per la prima volta da Marvin Minsky e John
McCarthy durante un seminario di informatica al Darthmounth College di Hannover, nel New
Hampshire (Stati Uniti), nel 1956.
27
femmina. Nell’eventualità che una macchina si sostituisse ad A o B, e se i risultati
forniti da C fossero statisticamente identici alla situazione precedente, allora la
macchina poteva essere considerata pensante.
The reader must accept it as a fact that digital computers can be constructed, and indeed have
been constructed, according to the principles we have described, and that they can in fact mimic
the actions of a human computer very closely. ("Computing machinery and intelligence"
A.M.Turing, 1950).
Turing riconosce la difficoltà sulla fattibilità delle sue idee, ma non la loro
impossibilità. È convinto che presto saremo in grado di innestare all’interno delle
macchine il dono del pensiero, predicendo di fatto che entro la fine del secolo
(XX secolo) chiunque potrà parlare di macchine pensanti senza aspettarsi di
essere contraddetto.
La questione “Can machine think?” è rimasta insoluta ancora oggi (e forse una
soluzione non la avrà mai), ma senza dubbio progresso tecnologico e decenni di
ricerca nel campo delle intelligenze artificiali hanno aumentato le nostre
possibilità di risposte al quesito proposto da Turing oltre 60 anni fa.
the only way by which one could be sure that machine thinks is to be the machine and to feel
oneself thinking ("Computing machinery and intelligence" A.M.Turing, 1950).
1.8 “As We May Think” secondo Vannevar Bush
Il 1945 oltre ad essere ricordato come l’anno della fine del secondo conflitto
mondiale, è anche l’anno in cui lo scienziato e tecnologo statunitense Vannevar
Bush (1890-1974) pubblica un articolo dal titolo “As We May Think”. Sebbene i
due eventi abbiano una portata in termini di rilevanza storica ben diversa, in
qualche modo sono entrambi segnali, speranze e motivo di enormi ennesimi
cambiamenti sociali, economici, politici, culturali e tecnologici. Il dopoguerra ha
28
lasciato molte dolorose ferite da rimarginare, bisognava ricostruire un mondo,
riprogettarlo. As We May Think suggerisce modi per farlo.
Bush durante la Seconda Guerra Mondiale aveva messo la propria esperienza
di scienziato al servizio della patria e, come il matematico inglese Alan Turing,
aveva ricoperto un importante ruolo nella ricerca militare. Il suo saggio del 1945 è
una riflessione sul rapporto tra tecnologia, il tema della felicità universale e della
pace nel mondo (temi assai attuali in epoca post-bellica).
Of what lasting benefit has been man's use of science and of the new instruments which his
research brought into existence? (“As We May Think” Vannevar Bush, 1945)
Come può la tecnologia contribuire al benessere dell’umanità? E come può il
background della conoscenza umana immagazzinata fino ad oggi (e quella futura)
sostenere l’uomo a vivere in pace? Sono queste essenzialmente le domande che
Bush si pone e al quale cerca di dare una risposta. Occorre ragionare sia sulle
tecnologie che sul metodo di ricerca e costruzione scientifica affinché permettano
all’uomo di costruirsi “una casa in cui possa vivere in buona salute”.
La conoscenza umana è un insieme collegato con il tutto che, in quanto tale, ha
una dimensione universale, non limitabile alla vita del singolo individuo. Il sapere
quindi è frutto di processi accumulativi e si genera grazie alla collaborazione
interna di sistemi collegati che includono tutto il sapere umano. Il primo cardine
che Bush identifica si riferisce al fatto che la conoscenza per poter essere utile
deve essere continuamente ampliata, archiviata e soprattutto consultata.
Deve poter essere accessibile.
La produzione di informazioni, grazie alle tecnologie moderne (stampa,
giornali etc.), è ad un ritmo sempre crescente (produciamo sempre più
informazioni), ma all’aumentare della ricchezza informativa non viene corrisposta
un altrettanto efficace grado di condivisione. Un’informazione può essere
facilmente archiviata grazie all’uso delle macchine, ma la sua consultazione e
condivisione richiede tecnologie per l’epoca ancora non disponibili. Un limite
che verrà superato solo parecchi anni dopo con l’avvento di internet per le masse.
29
A partire da queste premesse lo scienziato statunitense immagina una macchina
rivoluzionaria dotata di schermi, sistemi di archiviazione dati, di tastiera e svariati
gruppi di leve e bottoni. Un nuovo strumento a disposizione degli scienziati per
svolgere il loro lavoro. Si potrebbe definire un “luogo dell’intelletto”, poiché è lì
che sono immagazzinate le informazioni che ogni ricercatore necessita (libri, testi,
articoli, appunti che produce etc.) ed è lì che avviene il contatto tra mente umana e
macchina.
Fig. 6 - A sinistra la copertina di una rivista in cui è pubblicato il saggio di Vannevar Bush,
“As We May Think”. A destra, un’illustrazione del Memex.
Il Memex, questo è il nome del dispositivo, non solo aiuta a visualizzare i dati
di cui si ha bisogno in un qualsiasi momento ma agisce anche da estensore della
memoria individuale (MEMory EXtender). Nella presentazione dei documenti si
comporta emulando le associazioni di idee e concetti che la mente umana e i flussi
di pensiero producono costantemente. Infatti una volta che la nostra mente ha un
elemento a disposizione, tende a saltare istantaneamente all’elemento successivo,
suggerito in base ad un intreccio di piste (pre)registrate.
Il Memex in poche parole è il primo esempio della meccanizzazione della
selezione per associazione. Un primitivo Hypertext21.
21 Termine inglese che significa "ipertesto", ossia un insieme di documenti correlati tra loro
attraverso parole chiavi.
30
C’è abbondanza di aiuti meccanici con i quali effettuare trasformazioni nei documenti
scientifici [...] Per il pensiero evoluto non esiste nessun sostituto meccanico. Ma il pensiero
creativo e il pensiero essenzialmente ripetitivo sono cose molto differenti. Per il secondo esistono,
e possono esistere, potenti aiuti meccanici. (“As We May Think” Vannevar Bush, 1945)
2. La “visione” utopistica di Engelbart e Licklider
“As We May Think” e l’intuizione del Memex del 1945 sono passaggi
fondamentali che hanno notevolmente influenzato i fautori della prima
rivoluzione informatica, avvenuta tra gli anni ‘60 e ‘70 e che ci ha condotto fino ai
giorni nostri. Leggere il testo di Bush e immaginare il Memex come lo strumento
capace di amplificare le conoscenze umane è, facendo le dovute proporzioni (e
senza voler ricadere nella blasfemia), come osservare Mosé che indica al suo
popolo la strada verso la terra promessa (computer).
Le condizioni tecniche e tecno-logiche affinché si possa raggiungere erano
tuttavia ancora proibitive (occorreva attraversare il Mar Rosso).
2.1 I “Giant brain” degli anni ‘40
Colossus (completato nella sua prima versione nel 1943) era completamente
elettronico, funzionava attraverso 1500 valvole per la logica (2400 nella seconda
versione del 1944) e cinque lettori a nastro perforato, capaci di leggere fino a
5000 caratteri al secondo. Sebbene fosse il primo calcolatore elettronico
programmabile della storia e fosse tra le tecnologie più avanzate dei primi anni
‘40, aveva comunque molte limitazioni rispetto agli standard a cui siamo abituati
(a parte chiaramente la potenza di calcolo).
In primo luogo non è dotato di nessun tipo di programma pre installato:
affinché potesse eseguire altre operazioni occorreva intervenire direttamente sul
cablaggio e sulle valvole. Colossus inoltre non è definibile come computer
General-purpose22 poiché progettato esclusivamente per compiti crittoanalitici.
22 Identifica hardware e software che risolvono problemi generali e quindi non sono dedicati ad
una specifica funzione.
31
Gli esperimenti nei centri di ricerca americani ed inglesi (soprattutto militari o
associati ad essi) della prima metà degli anni ’40 continuarono senza sosta, stepby-step, alla creazione e progettazione di grandi costosissime macchine
elaboratrici che, nel migliore dei risultati ottenuti, potevano vantare una potenza
di calcolo di poche centinaia di kHz (molto meno di una moderna calcolatrice).
Gli elaboratori di questi anni erano veri e propri colossi che occupavano intere
stanze e richiedevano moltissime energie per poter funzionare, sia da un punto di
vista di consumi che da quello degli addetti ai lavori. L’ENIAC23 (1946)
probabilmente è l’esempio più significativo del termine coniato per descrivere i
computer di prima generazione, definiti appunto “Giant Brain”: era lungo 30
metri, pesava oltre 25 tonnellate, la sua realizzazione costò 500.000$ (circa
6.000.000$ odierni) e consumava 150 kW.
Tali mezzi erano utilizzati per eseguire calcoli inesplicabili richiesti dalla fisica
nucleare; erano macchine esclusivamente pensate per operare number crunching24
massivo. Senza sosta.
Elaborazioni dati che implicavano una serie di procedure che potremmo
definire anche “rituali”, ed intendevano l’interazione con il computer alla pari di
uno strumento-ambiente ostile all’uomo a cui bisognava adattarsi.
Immaginiamo di trovarci all’interno di un centro di ricerca militare (o
universitario) dell’epoca e di poter osservare l’intero “rito” partendo dalla volontà
di risolvere un determinato problema: entriamo in una stanza in cui possiamo
notare alcuni operatori dall’aria molto indaffarata che cercano di identificare
esattamente quali sono i dati che il computer deve manipolare e le regole
necessarie alla risoluzione del problema di base. Iniziano a codificarle secondo la
logica più opportuna e successivamente procedono alla compilazione del
programma. Utilizzano il linguaggio FORTAN25.
23 L'Electronic Numerical Integrator and Computer (ENIAC) è il primo computer elettronico
general-purpose, costruito alla Moore School of Electrical Engineering (Pennsylvania) per un ex
centro di ricerca dell'esercito degli USA,il Ballistic Research Laboratory.
24
Termine inglese la cui traduzione è sgranocchiatore di numeri. Così venivano definiti in
gergo i computer proprio per le loro capacità computazionali.
25
32
Uno dei primi linguaggi di programmazione (1954)
Fig. 7 - Colossus
Appena il programma è ultimato incomincia la fase di conversione. Altri operatori
si apprestano a trasferire il tutto su schede perforate (il dispositivo di input) e,
appena concluso il lavoro, consegnano le schede all’amministratore del sistema al
“centro di calcolo”, la stanza più grande e calda di tutta la struttura.
L’amministratore è l’unico a cui è concesso sottoporre i programmi alla
macchina, una sorta di sommo sacerdote del rituale, mediatore tra gli utenti
(comuni mortali) e i computer mainframe. Presso di lui dopo poche ore o giorni,
in base alla mole di dati analizzati, è possibile ritirare le stampe con i risultati
richiesti. Ad ogni errore (anche banale) occorreva ripetere tutto da zero.
Alla luce di questo, le parole e le idee di Vannevar Bush nel 1945 dovevano
sembrare ancor più allucinate e fantascientifiche.
Basti pensare che i teorici “ortodossi” dell’informatica a cavallo tra gli anni ‘40
e ‘50 immaginavano un futuro di progressi tecnologici che sarebbero stati sfruttati
per costruire computer sempre più grandi e più potenti, comandati da pochissimi
eletti, il cui compito era quello di tradurre i problemi del mondo in linguaggi
esoterici da sottoporre alle macchine.
33
Ciò che aveva immaginato Bush andava ad intaccare proprio quel sistema
elitario, poiché mirava ad un rapporto più diretto, personale ed immediato con le
macchine elaboratrici. Non sorprende quindi il fatto che tali idee abbiano avuto
credito e (molta) stima solo parecchi anni dopo, grazie all’avvento della
miniaturizzazione delle tecnologie di base e soprattutto ad altre menti altrettanto
brillanti e profetiche, che hanno rivoluzionato il mondo creandone di nuovi:
Douglas Carl Engelbart, Joseph Carl Robnett Licklider e David Edward
Sutherland(di quest’ultimo ci occuperemo più approfonditamente nel terzo
capitolo).
2.2 Engelbart e il potenziamento dell’intelletto umano
Engelbart nel 1945 era un giovane radarista della Marina statunitense (1925),
impegnato in gran parte delle sue giornate a distinguere le minacce rappresentate
dai puntini sugli schermi. Poco prima della fine della guerra si imbatte
nell’articolo di Bush “As We May Think” e ne rimane davvero affascinato.
“Sopravvissuto” al conflitto, trova lavoro in una piccola ditta di elettronica a
Mountain View (che nel giro di pochi anni si sarebbe trasformata da frutteto a
cuore pulsante e trainante della Silicon Valley), si compra una casa e si sposa.
All’età di trent’anni compresi che avevo raggiunto tutti gli obiettivi della mia vita [...] mi chiesi
che cosa avrei fatto da quel momento in poi e compresi che si trattava di una decisione importante.
("Realtà Virtuali" Howard Rheingold, citazione di Douglas Engelbart, 1983)
Nel 1950 mentre attraversava i frutteti della valle per recarsi (come tutti i
giorni) al lavoro, incominciò a pensare al futuro. Non solo il suo, ma quello di
tutti. Cercava di capire quali opportunità avrebbe potuto cogliere per rendere il
mondo migliore. Gli ritornò alla mente quanto letto dall’articolo di Bush in merito
alla tecnologia e alla sua possibilità di essere d’aiuto per la collettività, e subito si
rese conto che gli scenari che cercava di immaginare si imbattevano sempre sugli
stessi ostacoli: i problemi dell’uomo diventavano ogni giorno sempre più
34
complessi e difficili da risolvere con i mezzi a disposizione. I computer, che in
quel periodo numericamente (in tutti gli Stati Uniti) erano circa una dozzina, non
erano all’altezza delle possibilità umane, erano ancora poco potenti e troppo
tecnici e distanti per essere compresi e considerati strumenti utili alla collettività.
Continuava a domandarsi che cosa si sarebbe dovuto fare per cercare di
incrementare le nostre possibilità e cosa poteva fare lui in particolare per aiutare il
mondo ad essere migliore.
Ebbe una sorta di rivelazione, divenuta ormai (quasi) leggendaria.
L’immagine mentale che gli si presenta davanti è quella di un gruppo di
persone che lavorano in un modo del tutto nuovo, mai pensato prima. Sono scene
sfocate, ma è consapevole che ben presto potranno diventare nitide. Vide persone
davanti ad uno schermo televisivo collegato ad un elaboratore di informazioni. Sul
monitor venivano visualizzati simboli con cui era possibile interagire per mezzo
di pulsanti. Le persone controllavano il computer e lo indicavano interagendo con
gli strumenti di conoscenza, informazione e pensiero che integra al suo interno.
I had the image of sitting at a big CRT screen with all kinds of symbols, new and different
symbols, not restricted to our old ones. The computer could be manipulating, and you could be
operating all kinds of things to drive the computer. The engineering was easy to do; you could
harness any kind of a lever or knob, or buttons, or switches, you wanted to, and the computer
could sense them, and do something with it (Douglas Engelbart Interview, December 1986)
Gruppi di lavoro di questo tipo, secondo Engelbart , avvalendosi del nuovo
prezioso strumento,avrebbero potuto risolvere facilmente qualsiasi tipo di
problema, anche quelli più complessi. La sua idea dopo tutto è semplice: è
convinto, e lo è stato fin dal primo momento che si è trovato di fronte ad un
computer, che se queste macchine erano in grado di mostrare informazioni su un
tabulato avrebbero potuto anche scriverle e disegnarle sullo schermo, così come
sarebbero state in grado di ricevere input in maniera più “umana”.
Aveva trovato l’obiettivo della sua vita: Engelbart voleva realizzare quella
visione.
35
Nel 1962, a distanza di 12 anni dalla sua “visione”, pubblica un progetto
concettuale, frutto delle sue ricerche presso lo Stanford Research Institute (SRI) di
Menlo Park in California, in un documento dal titolo emblematico: “Augmenting
Human Intellect: A Conceptual Framework”.
Il testo non è solo uno screening finalizzato a dimostrare l’effettiva possibilità
che i computer da “pareti elettroniche vive mangia numeri” possano essere
trasformati in ”strumenti di conoscenza risolutori di problemi”, ma è qualcosa di
più: è il manifesto di un nuovo modo di pensare, progettare e creare tecnologie il
cui scopo principale è appunto quello di aumentare le capacità intellettuali umane
e conseguentemente quelle della collettività (non a caso lo stesso Engelbart sarà
considerato il pioniere della Network Augmented Intelligence).
Parla di “possibility of finding solution to problems that before seemed
insoluble” attraverso una collaborazione diretta tra intelletto umano e computer
mediata da uno schermo, dispositivi di input e un nuovo linguaggio.
Tutti elementi che (almeno fino a quel momento) non esistevano ancora.
Era consapevole, quando ebbe la sua “visione”, che per la sua realizzazione
oltre a fondi economici sostanziosi, tecnologie di base accessibili e tempi di
sviluppo relativamente lunghi, occorrevano anche studi approfonditi sulla
linguistica, sulla psicologia e sul comportamento umano. Occorreva creare nuovi
modelli adatti allo scopo.
In “Augmenting Humen Intellect” Engelbart infatti più che cercare soluzioni
tecniche, traccia le linee-guida teoriche del nuovo modo di pensare al rapporto tra
computer-mente umana, illustrandone progressivamente i passaggi che lo hanno
ispirato. A partire dalle analisi sulla percezione sensoriale, fino ad arrivare alla
comprensione delle possibilità di sfruttare (in particolare) la linguistica e le
capacità umana di elaborare segni come elementi chiave per condizionare
l’intelletto umano.
Gli individui interagiscono sul mondo attraverso limitate possibilità di
movimento date dai nostri arti, e ricevono dal mondo informazioni tramite
l’utilizzo dei sensi. L’interpretazione ed elaborazione di questi dati è delegata al
36
cervello seguendo due tipologie di processi: conscio e inconscio. Il primo si
occupa di tutte quelle azioni che coinvolgono in qualche modo la nostra volontà
(come riconoscere una forma, ricordare, visualizzare, astrarre, dedurre etc.),
mentre il secondo implica la mediazione delle informazioni ricevute dai sensi e
quelle rielaborate dal sistema conscio. La capacità di mediazione degli input
sensoriali generati consciamente e inconsciamente è inoltre dettata anche dal
background culturale ed esperienziale che contraddistingue ogni individuo.
In determinate situazioni complesse l’individuo tende ad ignorare questo tipo
di informazioni, cercando di privilegiare le sue capacità innate derivate dal suo
bagaglio di conoscenze.
For instance, an aborigine who possesses all of our basic sensory-mental-motor capabilities,
but does not possess our background of indirect knowledge and procedure, cannot organize the
proper direct actions necessary to drive a car through traffic, request a book from the library, call a
committee meeting to discuss a tentative plan, call someone on the telephone, or compose a letter
on the typewriter ("Augmenting Human Intellect: A Conceptual Framework" D. C. Engelbart,
1962)
Ogni processo del pensiero ed agire umano, a partire dalle cose più semplici
fino ad arrivare a quelle più complesse, è costituito da sotto-processi strutturati
gerarchicamente e indipendenti tra loro, la parte integrate di un bagaglio, un toolkit di capacità che tutti devono conoscere, imparare ad usare al meglio ed
amplificare. Fanno parte di questo repertoire hierarchy tutte le abilità di base
(definite Explicit Human: movimenti muscolari, utilizzo dei sensi etc.), quelle
acquisite dall’uso di oggetti (definite Explicit Artifact) e quelle composte dalla
combinazione di entrambe le competenze (Composite).
Engelbart definisce questo tipo di sistema attraverso un modello denominato
H-LAM/T26 in cui il linguaggio umano, gli oggetti, la metodologia e la
specializzazione nel loro utilizzo sono gli ingredienti essenziali del
comportamento umano, dell’intelletto e della percezione del mondo.
26
Human using Lauguage, Artifacts, Methodology, in which he is Trained
37
La scrittura di un testo, per esempio, avviene mediante l’uso di una serie di
processi e sub-processi (sviluppo del soggetto, composizione delle frasi, delle
parole etc.), ognuno dei quali deve essere organizzato secondo gerarchie, dettate
dall'esperienza, ben precise che vanno a comporre il linguaggio della scrittura.
Cosa accadrebbe se un nuovo mezzo tecnologico introducesse un modo diverso
di composizione dei testi? Engelbart cerca di rispondere a questa domanda
ipotizzando un nuovo tipo di macchina da scrivere.
Una macchina da scrivere elettronica con un particolare meccanismo di
“stampa”, ben più complesso di quelli normalmente utilizzati, in cui il carattere
visibile (stampato) è composto anche da invisibili marcatori che, tramite l’utilizzo
di un apposito device, consentono di leggere e “catturare” il testo per duplicarlo e
riutilizzarlo in un nuovo documento. Un sistema che velocizza la creazione di
bozze e di pensieri, liberando notevolmente la creatività dai vincoli strutturali
della scrittura tradizionale.
Questa ipotetica macchina da scrivere ci permette in tal modo di utilizzare un nuovo processo
di composizione del testo [...] Se il groviglio di pensieri rappresentato dalla bozza di uno scritto
diventa troppo complesso, possiamo compilare velocemente una bozza riordinata. Sarebbe pratico
poter adattare una maggiore complessità ai percorsi possibili del pensiero in cerca del percorso che
meglio si adatta alle nostre esigenze [...] ("Augmenting Human Intellect: A Conceptual
Framework" Douglas Engelbart, 1962)
Un simile strumento innovativo può provocare effetti di vasta portata sulle
gerarchie dei processi e delle capacità umane: alcune possono salire nell’ordine di
importanza, altre possono scendere e altre ancora possono essere attivate (capacità
latenti). In poche parole: è in grado di riorganizzarle secondo nuove logiche.
The important thing to appreciate here is that a direct new innovation in one particular
capability can have far-reaching effects throughout the rest of your capability hierarchy.
("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962)
38
Il riposizionamento delle gerarchie del repertorio dei processi e sub-processi è
la chiave che caratterizza l’evoluzione dell’intelletto umano. Ad ogni innovazione
di strumenti, utensili e tecnologie corrisponde un relativo potenziamento
dell’intelletto umano e questo sviluppo, nota Engelbart, avviene fin dalla prima
comparsa del cervello umano.
Gli esseri umani sono le uniche forme di vita ad aver sviluppato la possibilità
di manipolazione dei concetti (attraverso la mente l’uomo può sviluppare concetti
generici da specifiche situazioni e predire specifiche situazioni da concetti
generali, associati o ricordi), di poter manipolare simboli (rappresentare pensieri e
concetti mentali attraverso l’uso di segni ed immagini specifiche), oltre ad un
linguaggio che è sia espressione diretta dei pensieri e dei concetti mentali che
mezzo principale di comunicazione. Il linguaggio si evolve, si modifica e si
arricchisce seguendo l’evoluzione delle tecnologie e delle capacità di una
determinata cultura.
Il linguaggio umano è inteso, secondo una concezione neo-Whorfiana 27, come
il mezzo che influenza più di tutti la capacità di pensiero e di visione del mondo
esterno da parte di una determinata cultura. Sia il linguaggio utilizzato da una
civiltà che le capacità di pensiero durante la loro evoluzione sono direttamente
condizionati dai mezzi con cui è possibile manipolare simboli.
In sintesi, manipolare i simboli equivale a condizionare le capacità cognitive
degli esseri umani.
Una dimostrazione (puramente concettuale) di questa ipotesi potrebbe essere la
seguente: immaginiamo una civiltà pari alla nostra ma evoluta in un ambiente in
cui determinate combinazioni “naturali” e culturali hanno creato i presupposti per
pensare all’aspetto (forma e peso) di uno strumento di incisione (e scrittura) più
simile ad un mattone anziché a quella di una matita.
27
L'Ipotesi di Sapir-Whorf (o ipotesi della relatività linguistica) sostiene che la
categorizzazione linguistica non è solo il risultato dell'organizzazione della nostra esperienza, ma
ne è, allo stesso tempo, la discriminante: chi, infatti, "conosce" linguisticamente il mondo in un
certo modo ne sarà influenzato di conseguenza, ovverosia il modo di esprimersi influenza il modo
di pensare.
39
Per scrivere accuratamente un testo, seguendo questa premessa, occorrerà
scrivere più grande e magari premere maggiormente per rendere più nitido,
preciso e leggibile il tratto. Come prima conseguenza ci sarà un dispendio di
energie maggiore, ma anche una produzione di documenti di dimensione
nettamente più voluminose. Le modalità di archiviazione (che consentono
l’organizzazione del commercio e del governo) e i calcoli (che consentono lo
sviluppo delle scienze) assumeranno una forma molto diversa rispetto alla nostra.
Un’altra conseguenza diretta sarà un progressivo rallentamento della
produzione scritta di testi a causa dei libri troppo grandi e più in generale della
cultura, scoraggiando notevolmente le persone dall’apprendere e dal comprendere.
I concetti all’interno di questa civiltà si evolveranno diversamente e la
simbologia per rappresentarli sarà dissimile rispetto alla nostra.
It thus seems very likely that our thoughts and our language would be rather directly affected
by the particular means used by our culture for externally manipulating symbols, which gives little
intuitive substantiation to our Neo-Whorfian hypothesis ("Augmenting Human Intellect: A
Conceptual Framework" Douglas Engelbart, 1962)
Tramite l’uso di computer appositamente progettati, dotati cioè di schermo di
visualizzazione (output) e strumenti di interazione uomo-macchina adatti (input),
e un linguaggio appropriato fatto di immagini e segni, l’uomo è in grado di
rappresentare facilmente i concetti che vuole manipolare, oltre ad organizzarli
(direttamente davanti agli occhi), trasformarli, immagazzinarli e ricordarli. Ogni
individuo così potrà adoperare gli strumenti di cui il computer sarà composto (non
sono posti limiti al riguardo): potrà creare immagini estremamente sofisticate,
grafici, scrivere testi secondo nuove modalità più affini ai flussi del pensiero ed
eseguire una vasta quantità di processi non più legati alla semplice elaborazione
numerica. Comunicherà con il computer mediante interazioni minime in grado
però di produrre risultati dal potenziale immenso.
40
Nel limite di quello che è possibile immaginare, Engelbart stava già
descrivendo l’utilizzo di un computer del futuro, ben diverso da quell’interazione
ritualistica di cui abbiamo avuto modo di parlare precedentemente.
Il rapporto tra utente e computer si fa diretto e immediato. Diventa Personal.
I crescenti problemi che la società doveva affrontare e che Engelbart vedeva
come un possibile ostacolo, grazie alle macchine per pensare potevano finalmente
essere risolti.
2.3 Licklider e la simbiosi uomo computer
Anche Licklider ebbe una rivelazione simile a quella di Engelbart che
trasformò la sua vita radicalmente. Fu una “sorta di esperienza di conversione”.
Più o meno nello stesso periodo in cui Engelbard iniziò a lavorare allo Stanford
Research Institute ai progetti e ricerche di Augmenting Human Intellect, Licklider
si occupava di psicoacustica, “costretto” ogni giorno a lavorare con modelli
matematici utili a comprendere le complessità del sistema uditivo umano. Man
mano che faceva progressi, Licklider cominciò a trovarsi letteralmente sommerso
da una mole imponente di dati, finché un giorno non decise di riflettere sul modo
in cui gli scienziati utilizzano il loro tempo. Decise di fare un esperimento su sé
stesso.
Durante una comune giornata lavorativa annotò le proprie attività e il tempo
che aveva impiegato a portarle a termine. Scoprì qualcosa che fu per lui una
scossa, divenuta pian piano convinzione, che un nuovo modo di lavorare e un
nuovo modo di pensare poteva e doveva essere realizzato. Circa l’85% del suo
“thinking time” o almeno quello che per lui avrebbe dovuto essere tempo dedicato
a “riflessione”, in realtà era utilizzato per mettere se stesso nella condizione di
pensare, per prendere decisioni, per imparare qualcosa che aveva bisogno di
sapere.
Much more time went into finding or obtaining information than into digesting it (Licklider)
41
Per molti dei lavori ripetitivi che svolgeva quotidianamente (e che svolge
qualsiasi scienziato-ricercatore) si accorse, o meglio intuì, un possibile scenario in
cui le macchine elaboratrici di dati (appositamente ri-progettate) avrebbero potuto
assumerne l’incarico, lasciando così all’uomo il potere di sfruttare al meglio le
potenzialità del suo intelletto.
Anche se al momento della sua “visione” (dettata dalla volontà di recuperare il
“thinking time” sprecato per compiti delegabili alle macchine) nessun computer
disponibile poteva essere utilizzato per compiti di questo tipo. Aumentavano di
potenza, ma non di intelligenza utile alle necessità di Licklider (così come per
quelle di Engelbart).
Ad ogni modo aveva comunque capito quale sarebbe stato il tema centrale
dello sviluppo tecnologico futuro: gli esseri umani e i computer avrebbero
lavorato assieme in modi nuovi, occorreva solo concepire il tipo appropriato di
interfaccia e tecnologia.
Ricerche avanzate in questo campo incominciarono a svilupparsi capillarmente
nei vari centri universitari di tutti gli Stati Uniti, ma la gran parte degli sforzi
sembrava essere indirizzata verso gli sviluppi sull’intelligenza artificiale. Al MIT,
per esempio, i diretti “discendenti” degli approcci teorici di Alan Turing erano al
lavoro per consegnare al mondo (anche se nessuno sapeva quanto tempo ci
sarebbe voluto) una tecnologia informatica che un giorno avrebbe potuto sostituire
gli esseri umani nella loro qualità principale, quella che la contraddistingue più di
tutte: quella di essere un animale pensante.
Licklider invece intravide un’altra possibilità: anziché macchine capaci di
sostituirsi all’uomo, suggerisce un accordo cooperativo tra il wetware umano e
l’hardware e il software dei computer, chiamando questa partnership simbiosi
uomo-computer.
Nel 1960 pubblica “Man-Computer Symbiosis” in cui espone chiaramente
quelli che saranno gli intenti della sua ricerca, iniziata già a partire dal 1957 con la
sua visione, e ponendo come obiettivo a lungo termine appunto la simbiosi tra
l’uomo e i computer.
42
Secondo lo scienziato americano, la cooperazione tra l’intelletto-capacità
umane e le componenti elettroniche dovranno consentire in primis di facilitare
l’esternazione dei pensieri così come ora consentono la risoluzione dei problemi
formulati, e secondariamente di avere un maggiore controllo decisionale in merito
a situazioni complesse senza la dipendenza da programmi predeterminati.
Si tratta di un concetto biologico più che tecnico. La simbiosi dei due
“organismi” diversi tra loro (computer e uomo) si ottiene tramite un'intima
collaborazione, finalizzata alla costruzione di conoscenza così come avviene in
natura nelle società simbiotiche (Blastophaga grossorum e albero di fico).
“living together in intimate association, or even close union, of two dissimilar organisms” (“ManComputer Symbiosis” Joseph Licklider, 1960)
Tra non molti anni, secondo le speranze di Licklider, i cervelli umani ed i
calcolatori saranno associati molto strettamente tra loro e il sodalizio che ne
risulterà avrà capacità intellettuali che nessun essere umano ha mai avuto,
elaborerà dati in un modo a cui nessuna delle macchine per la manipolazione delle
informazione che attualmente conosciamo riesce ad avvicinarsi.
I computer di prima generazione (come abbiamo visto) erano progettati per
risolvere problemi pre-formulati e processare dati tramite procedure predeterminate. Ad ogni imprevisto o risultato inatteso, l’intero processo si fermava
finché non veniva sviluppata l’estensione necessaria per risolvere le
complicazioni riscontrate nella risoluzione del problema principale. Una
collaborazione di questo tipo può essere considerata tutt’altro che simbiotica.
Il cervello umano deve pre-disporre un programma specifico ad ogni necessità,
sottoporlo alla macchina assieme ai dati utili ed attendere che il computer, una
volta terminato il processo, ne restituisca il risultato.
Tuttavia il requisito della pre-formulazione per la maggior parte dei problemi
che l’uomo deve affrontare (in ambiti di ricerca scientifico-tecnologico) non può
essere considerato l’approccio più corretto in quanto le formulazioni, i dati e le
43
variabili da includere nel sistema non sono per nulla semplici da codificare,in
quanto richiedono sforzi eccessivi e spesso sono frutto di frustrazione. In un
contesto simile il rischio di imbattersi in errori inattesi durante l’esecuzione dei
programmi aumenta esponenzialmente in base alla dimensione (in termini di
difficoltà) del problema stesso. Molto spesso la domanda "Qual è la risposta (al
problema)? " diventa "Qual è la domanda?".
L’obiettivo della simbiosi uomo-computer è quello di portare le macchine ad
essere efficaci anche nella formulazione di problemi, non solo nel fornire risposte.
Il computer che si immagina Licklider deve essere necessariamente diverso dal
mainframe orientato al controllo, al calcolo e indirizzato a sostituire l’uomo
attraverso una sempre più crescente potenza di elaborazione e intelligenza
artificiale. Così come il gregario di questi mezzi (l’operatore) deve essere diverso
sia dal tecnico analista programmatore che manipola linguaggi esoterici, sia
dall’utente che interagisce con la macchina attraverso i vincoli imposti da
procedure rigidamente definiti (rituale).
Per avvicinare l’uomo e la macchina alla simbiosi occorre un cambiamento che
sia determinante, sia nei mezzi che nei modi di interagire con essi. Serve una
computer in grado di facilitare l’emergere di un nuovo pensiero, che sia un aiuto
costante per la creazione di nuova conoscenza, poiché il “controllo delle
situazioni complesse”, come abbiamo visto, non può avvenire tramite programmi
e procedure risolutive pre-impostate ma deve attuarsi tramite la possibilità di
prendere decisioni, costruire strategie e valutare ipotesi in tempo reale.
To enable men and computers to cooperate in making decisions and controlling complex
situations without inflexible dependence on predetermined programs. (“Man-Computer Symbiosis”
Joseph Licklider, 1960)
Come in tutti i sistemi simbiotici esistenti in natura, Licklider crede che anche
in quello “artificiale” uomo-computer esistano i presupposti affinché il potenziale
di ognuna delle due componenti sia valore aggiunto per entrambe le parti. Gli
44
uomini sono rumorosi narrow-band device28 , ma il loro sistema nervoso è
costituito da numerosi canali che lavorano in parallelo e sono
contemporaneamente sempre attivi. Diversamente i computer sono molto più
veloci e precisi nell’elaborazione numerica, anche se “costretti” a svolgere solo
poche operazioni per ogni dato momento. Gli uomini sono “flessibili” in grado di
ri-programmarsi sulla base di nuove informazioni ricevute mentre i computer sono
sono vincolati a svolgere funzioni pre-programmate da qualcun altro. E ancora: gli
uomini parlano lingue ridondanti organizzate coerentemente intorno agli oggetti e
alle azioni impiegando solo pochi elementi, viceversa i computer non utilizzano
un linguaggio ridondante (fatto di due simboli 0 e 1).
Computing machines can do readily, well, and rapidly many things that are difficult or
impossible for man, and men can do readily and well, though not rapidly, many things that are
difficult or impossible for computers. That suggests that a symbiotic cooperation, if successful in
integrating the positive characteristics of men and computers, would be of great value. ("ManComputer Symbiosis" J.C.R. Licklider, 1960)
La speranza di Licklider è quella di creare un sistema in cui i cervelli umani e i
computer possano coesistere assieme in un legame, la cui risultante potrà pensare
come nessun cervello umano abbia mai pensato e processare informazioni in
modo mai fatto da nessun computer.
2.4 La dimostrazione dell’esistenza dei sogni di Engelbart e Licklider
All’interno delle “visioni” pionieristiche di Engelbart e Licklider si poteva
osservare il futuro. Entrambi sapevano che non sarebbe bastato progettare e
teorizzare modi nuovi per utilizzare i computer, ma in qualche modo avrebbero
dovuto anche realizzarli, dare una dimostrazione inequivocabile dell’esistenza dei
28
Dispositivi a banda stretta
45
loro sogni e trascinare, assieme ad altri “illuminati” tecnologici, il mondo verso il
nuovo mondo.
Nel 1957, dopo aver cercato senza successo di far conoscere la propria idea di
computer, Engelbart trova lavoro presso lo Stanford Research Institute in qualità
di “semplice” ricercatore. Questo gli permette di mettere a punto un modo per far
capire alla gente di cosa stava parlando nella sua “visione”. Dedica gran parte del
suo tempo libero ad elaborare formalmente la struttura concettuale di cui aveva
bisogno (quello che poi diventerà “Augmenting Human Intellect”).
Nello stesso periodo Licklider, affermato professore-ricercatore al
Massachussetts Institute of tecnology, incominciava ad intuire qualcosa circa la
possibilità di delegare parte dei lavori da scienziato alle macchine.
Engelbart e Licklider non si conoscevano ancora, ma lentamente i loro percorsi
incominciarono ad avvicinarsi. Per farli convergere fu necessario un evento
avvenuto dall’altra parte del mondo. Una "causa scatenante" capace di aprire le
menti di molti scienziati e ricercatori (all'epoca ben più importanti ed influenti di
Doug e Lick) dallo stallo culturale e tecnologico che si insinuò a decorrere dalla
fine della Seconda Guerra Mondiale. Non è che dal 1945 la tecnologia si fosse
fermata, anzi tutt'altro, accelerò notevolmente ma sempre verso un'unica
direzione: potenziare sempre più i computer affinché elaborino sempre più
informazioni e più velocemente possibile. Ad eccezione di pochi isolati casi, il
computer, o meglio il suo scopo, era sempre quello ereditato dagli anni '40.
Engelbart e Licklider sono i simboli di quei "isolati casi" che negli anni '60
avrebbero reso possibile la nascita del computer per come lo conosciamo noi oggi.
Gli occhi di tutta l’umanità in questo (ennesimo) delicato momento storico
carico di tensioni, pronte a sfociare in una nuova guerra, è rivolto principalmente
in direzione delle due super-potenze artefici di questo status: da una parte gli Stati
Uniti e dall’altra parte la Russia. Siamo in piena Guerra Fredda e la corsa agli
armamenti, oltre ad aver pericolosamente “arricchito” le due parti di testate
nucleari, ha anche incentivato notevolmente il progresso tecnologico-scientifico.
46
Tuttavia il governo americano in quegli anni stava incontrando molte difficoltà
nel tenere il passo tecnologico-militare dell’Unione Sovietica e il lancio dello
Sputnik, il primo satellite artificiale in orbita attorno alla Terra (1957), ne fu la
prova indiscutibile agli occhi dell’intero pianeta.
I Russi erano ufficialmente in grado di lanciare oggetti dalle dimensioni di una
bomba in qualsiasi punto del mondo e anche oltre. Il know-how29 americano
improvvisamente non era quello più avanzato. Serviva una scossa e serviva
subito. Il lancio dello Sputnik fu la "causa scatenante".
A poco tempo di distanza dal lancio del razzo sovietico, il governo americano
creò un dipartimento finalizzato ad incentivare lo sviluppo di nuove tecnologie.
Nasce l’Advanced Research Project Agency (ARPA)30.
L’ARPA aveva il mandato di “scovare” e finanziare direttamente le idee più
innovative, originali, "folli" e rivoluzionarie che potevano aiutare gli Stati Uniti a
recuperare credibilità e superiorità tecnologica nei confronti dei rivali russi.
Engelbart e Licklider avevano esattamente il tipo di idee di cui l'America aveva
bisogno, che forse il mondo aveva bisogno e che l'ARPA stava cercando.
Alcune delle menti più brillanti del MIT vengono “chiamate alle armi” della
battaglia tecnologica in atto per progettare e costruire il SAGE (Semi-Automatic
Ground Envirorment), un sistema di difesa radar computerizzato segretissimo che
avrebbe dovuto intercettare eventuali minacce russe. Licklider era tra gli arruolati
al progetto e il suo incarico era quello di occuparsi degli aspetti “fattori umani”.
Al SAGE disponevano sia di “cervelli elettronici” grandi (immensi a dire la
verità, i più grandi mai costruiti dall’uomo) e potenti che di menti umane geniali,
oltre ad aver accesso a risorse finanziarie praticamente senza limiti. Erano le
condizioni ottimali affinché le idee che da tempo sia Engelbart che Licklider
predicavano, potessero essere prese in considerazione nell’ambiente informatico.
29 Termine inglese che significa letteralmente "sapere come",è utilizzato per identificare le
conoscenze e le abilità operative necessarie per svolgere una specifica attività lavorativa.
30 "Agenzia per i progetti di ricerca avanzata per la difesa". È un'agenzia governativa del
Dipartimento della Difesa degli Stati Uniti, incaricata dello sviluppo di nuove tecnologie per uso
militare.
47
Ben presto l’idea di collegare dispositivi video ai computer divenne anche
fattore di primaria necessità, data l’immensa mole di informazioni provenienti
dalla rete distribuita di radar del SAGE, che dovevano essere costantemente
monitorate e riconosciute.
Il fattore “rapidità” assumeva così una doppia importanza: da un lato occorreva
che le informazioni venissero elaborate real time (utilizzando super computer
adatti allo scopo, Whirlwind31 e AN/FSQ-732) e dall’altro era necessario
visualizzarle istantaneamente su display grafici in modo tale da facilitare il più
possibile scelte decisionali (dati elaborati o raffigurati lentamente non potevano
essere certo di aiuto in un contesto di difesa della nazione dalle minacce di missili
a testata nucleare). Serviva velocità di calcolo e di rappresentazione.
Gli operatori del SAGE furono i primi ad osservare graficamente i dati
provenienti dal computer.
Licklider grazie al suo incarico al SAGE conosceva seppur in modo
approssimativo gli stadi di avanzamento del progetto, sapeva che da lì a poco
qualcosa di grande poteva accadere. Sentiva che la sua “visione” poteva prendere
forma. Licklider parlò così delle sue idee a Jack Ruina (1924), professore di
ingegneria elettrica nonchè il direttore dell’ARPA di quel periodo, e lo convinse
che queste innovazioni potevano essere il futuro, non solo in ambito militare, ma
anche per la vita di tutti i giorni. Jack Ruina gli credette.
Nell’ottobre del 1962 Licklider divenne il direttore dell’Information
Processing Tecnique Office (IPTO), il dipartimento voluto da Jack Ruina per
approfondire il rapporto tra tecnologie sperimentali (come quelle del SAGE),
strumenti e metodi di rappresentazione ed elaborazione dati e le loro possibilità di
sviluppo in campo non militare.
Licklider oltre ad aver budget e autorizzazione a sviluppare queste nuove
tecnologie dell’elaborazione grafica di informazioni, attirò a sé molti dei
programmatori e giovani appassionati del MIT, dell’Università della California,
31
Sviluppato nel Massachusetts nel 1947 e divenuto operativo ad aprile del 1951, è il primo
computer in grado di operare in tempo reale.
32
48
Modello di supercomputer sviluppato alla fine degli anni '50.
della Rand Corporation, dell’Università dello Utha e dei più affermati gruppi di
ricerca degli Stati Uniti. Aveva mosso l’interesse collettivo verso un progetto di
futuro che ormai in molti iniziarono a condividere ed ammirare. Tra i tanti
“convertiti” alla visione di Licklider ci fu un certo Robert William Taylor (1932).
Bob Taylor in quel periodo era un giovane direttore di ricerca della NASA che
stava sostenendo progetti scientifici di un certo rilievo storico e culturale (si
occupava del programma Apollo33, che di lì a poco avrebbe mandato, e fatto
ritornare vivi, un equipaggio umano). Come Licklider aveva interessi in
psicoacustica (argomento del suo progetto di laurea) e condivideva l’approccio
alle nuove tecnologie esplicato in Man-Computer Symbiosis del 1960.
Più o meno nello stesso periodo, Taylor ebbe modo di incontrare anche
Engelbart nel suo laboratorio allo Stanford Research Institute, ed entusiasmato dal
futuro che riusciva ad immaginare e a far immaginare, decise di finanziarne
direttamente le ricerche teoriche, le stesse che saranno presenti in Augmenting
Human Intellect del 1962.
Le strade di Licklider e di Engelbart confluirono definitivamente nel 1964
grazie all’aiuto di Taylor, che raccomandò a Licklider Engelbart il suo team di
ricerca dell'SRI.
Licklider aveva gli strumenti, sopratutto economici, per sviluppare nuove idee,
Engelbart aveva le idee, i progetti giusti e un team di ricerca avanzato.
Un gruppo di finanziatori dell’ARPA si recò allo Stanford Research Institute e
promise ad Engelbart attrezzature informatiche di ultima generazione e fondi (1
milione di dollari all’anno) per creare gli amplificatori dell’intelletto che aveva
concepito nella sua “visione” e descritto nel suo testo pubblicato circa 2 anni
prima.
Finalmente Engelbart aveva tutti gli elementi necessari a realizzare ciò che
aveva immaginato nel lontano 1950: aveva i progetti, una ricerca lunga un
decennio e adesso anche i mezzi tecnologici ed economici.
I piani di Engelbart erano chiari e semplici.
33
Programma americano spaziale che portò allo sbarco dei primi uomini sulla Luna.
49
Il primo passo fu quello di formare l’Augmentation Research Center (ARC),
un laboratorio concepito per spingere la tecnologia verso nuovi domini:
“augmentation” (potenziamento) in contrapposizione ad
“automation” (automazione), cioè potenziare l’intelletto umano anziché cercare di
generare macchine sempre più potenti e distanti dall’uomo.
Già a partire dal nome del suo laboratorio, Engelbart fa capire quanto vuole
distanziarsi dalla ricerca scientifico-tecnologica "ortodossa", quella elitaria e
mondo direzionale che aveva dominato la scena per molti anni. All'ARC si
realizzano, o meglio si cerca di realizzare (le premesse del successo c'erano tutte),
macchine per pensare e non computer semi-automatici calcolatori.
Il gruppo di ricerca dell’ARC aveva il compito primario di realizzare gli
strumenti informatici di base, necessari allo sviluppo di tecnologie più complesse
ed avanzate: dall’hardware di input e di output fino al software di comunicazione
e sistemi grafici mai pensati prima. Andava creato tutto.
Sia il progetto Whirlwind che il SAGE avevano dimostrato la fattibilità
dell’idea di utilizzare il tubo catodico (CRT) per rappresentare graficamente le
informazioni elaborate dai computer. L’impatto di queste innovazioni, create per
la prima volta nei centri di ricerca militari affini al progetto ARPA, attirò a se
nuovi possibili sviluppi nel campo dei rapporti tra l’uomo e i computer, ben
lontani dall’elettronica.
I pionieri informatici che avevano reso possibile tecnicamente l’unione tra
schermi e computer, incominciarono a rendersi conto che i loro studi,
parallelamente alla ricerca per migliorare le tecnologie dei display, dovevano
concentrarsi in particolare sulla percezione umana. Avevano bisogno di
comprendere meglio come l’essere umano interagisse con il mondo esterno e
come, da esso, ne è influenzato per realizzare computer sempre più human brainfriendly.
I ricercatori del Lincoln Laboratory del MIT ed altri vicini all’ARPA, già a
partire dai primi anni ’60, avviarono studi dettagliati sulle modalità di
50
rappresentazione grafica nel sistema monitor-computer: in particolare si
concentrarono nel sviluppare un rapporto funzionale tra pixel e bit.
Ivan Edwards Sutherland (1938), uno dei dottorandi del Lincoln Laboratory,
realizzò Sketchpad (1964), un software che in un sol colpo aveva abbattuto tutti
gli ostacoli fino a quel momento riscontrati nei vari tentativi di sviluppare
modalità di interazione e rappresentazioni di dati su schermi, e segnò la nascita
della computer graphics e delle interfacce grafiche.
Fig. 8 - Ivan Sutherland in alcune delle sue dimostrazioni delle funzionalità di Sketchpad
Sketchpad era la risposta a ciò che Licklider ed Engelbart stavano cercando.
Permetteva agli utenti, tramite un dispositivo ottico simile ad una penna, di creare,
modificare, duplicare, salvare, combinare immagini direttamente su uno schermo
televisivo collegato ad un computer. In poche parole si poteva disegnare forme,
modelli, ambienti tridimensionali attraverso gestualità tipiche del disegno.
Era qualcosa di rivoluzionario nella sua semplicità. Ogni azione dell’utente
poteva essere assimilata e memorizzata dal computer come un qualsiasi altro dato
e contemporaneamente generare in tempo reale un cambiamento sullo schermo.
Sketchpad era un nuovo linguaggio, una simulazione che permetteva ai computer
e agli esseri umani di comunicare direttamente: cambiando qualcosa sullo
schermo cambiava anche qualcosa all’interno della memoria del computer, non si
51
trattava ancora di una vera e propria bit-map, ma Sutherland aveva intuito il modo
più efficace per far funzionare computer relativamente poco potenti come quello
del Lincoln Laboratory con il display a tubo catodico. Aveva fatto qualcosa di
incredibile (Sketchpad) tanto da meritarsi l'appellativo di programma più
importante della storia. Grazie a Sketchpad chiunque poteva vedere che i
computer potevano essere utilizzati anche per scopi ben diversi dalla semplice
elaborazione dati. Vedere Sketchpad all’opera, voleva dire convincersene
fortemente.
Si poteva disegnare un’immagine sullo schermo con la penna ottica - e poi riportarla nella
memoria del computer. In questo modo infatti si potevano salvare molte immagini. [...] C’erano
già stati schermi grafici e penne ottiche nell’esercito, ma Sketchpad era storico nella sua semplicità
- una semplicità, occorre aggiungere, che era stata deliberatamente costruita da un intelletto capace
-e nel fatto che non rendeva necessaria nessuna competenza specifica [...] Era, per farla breve, un
programma semplice che mostrava come potrebbe essere semplice il lavoro dell’uomo se ci fosse
un computer tale da essere veramente d’aiuto. ("The Home Computer Revolution" Ted Nelson,
1977)
Il Fall Joit Computer Conference del 9 dicembre del 1968 e più in particolare
la sessione denominata “A research center for Augmentig Human Intellect”, erano
il luogo e il momento ideale per osservare il futuro. Engelbart e il suo ARC erano
pronti a presentare al mondo le innovazioni che avrebbero cambiato la storia dei
computer. Venne ricordata come “The mother of all demos”.
La dimostrazione che Engelbart compie del suo sistema NLS (oN Line System)
lascia tutti senza fiato. Vennero introdotte features come: il mouse, la video
conferenza, l’ipertesto, il software per l’elaborazione di testi e il concetto di
collaborazione in tempo reale a distanza. Praticamente stavano dimostrando il
futuro. Improvvisamente, agli occhi dei 1000 professionisti del settore presenti
fisicamente alla conferenza, qualsiasi altro computer sembrò obsoleto. Non poteva
essere altrimenti, guardare Engelbart che si muoveva all'interno dei dati, li
organizzava, li condivideva, li memorizzava, li rielaborava, in poche parole che
52
utilizzava il computer in un modo mai visto prima, doveva essere (per ritornare
alla metafora biblica) un pó come osservare Mosè attraversare il Mar Rosso.
Al termine della "madre di tutte le demo", l'esistenza dei sogni di Engelbart e
Licklider non doveva essere più dimostrata, divenne palese a tutti. Il dispositivo
capace di aumentare l'intelletto umano e di avere con esso un rapporto simbiotico
(che in qualche modo Bush aveva ipotizzato già nel 1945), in cui contribuirono a
crearlo altre menti geniali sia attivamente (Sutherland) che passivamente,
sostenendo economicamente le ricerche e i progetti (Taylor), divenne il punto di
arrivo di una generazione, ma anche quello di partenza per altre, pronte ad
immaginare nuovi mondi.
Fig. 9 - Depliant informativo per la sessione di demo (The mother of all demos) del 9 dicembre
del 1968 di Douglas Engelbart,
3. La Rete nata dalle reti
Fin dai primi anni ’60 con la nascita dell’ARPA, si iniziò già a creare una rete.
Una rete fatta di intelligenze (università, centri di ricerca, laboratori, aziende di
comunicazione e informatiche) geograficamente distribuite in tutti gli Stati Uniti il
cui obiettivo era quello di sperimentare nuove tecnologie, nuovi modi di utilizzare
quelle già esistenti ed incentivare in particolare la ricerca sui computer e sugli
strumenti di comunicazione (prevalentemente in ambito militare). Queste
53
intelligenze avevano il compito di progettare le tecnologie di base che avrebbero
permesso il progredire di altre ben più sofisticate. In un contesto di questo tipo, lo
scambio continuo di informazioni da una parte all’altra della “rete” di ricercatori e
scienziati è senza dubbio uno degli aspetti di maggiore importanza. Le normali
linee telefoniche, le pubblicazioni di ricerche, le visite in loco, erano tutti
collegamenti obsoleti, lenti e poco produttivi per gli obiettivi che la stessa ARPA
voleva raggiungere in tempi brevi. Ben presto quindi, la necessità di collegare
attivamente i nodi della “rete” tramite nuovi mezzi più veloci e diretti, fu
determinante per lo sviluppo di quella che sarà conosciuta come ARPANET
(l’antenata della moderna e frenetica Internet).
[...] è tempo di cominciare a pensare ad una nuova e non ancora esistente rete pubblica, un
impianto di comunicazione [...] progettato specificatamente per la trasmissione di dati digitali tra
un vasto insieme di utenti. ("On distributed communications networks", Paul Baran, 1964)
3.1 La commutazione di pacchetto di Paul Baran e Leonard Kleinrock
Alla base di una rete di comunicazione devono esserci procedure ben precise
che ne descrivono i comportamenti. Nel 1960 all’interno della RAND Corporation
(uno dei nodi dell’ARPA), grazie ad una brillante intuizione di Paul Baran 34
(1926-2011), hanno inizio le prime ricerche sulle modalità di invio e ricezione di
informazioni alfa-numeriche tramite sistemi computerizzati. Basandosi sul
funzionamento delle complesse reti neuronali che compongono il cervello umano,
Baran riesce a creare un modello valido denominato in seguito rete distribuita.
Tale modello si basa essenzialmente sulla ridondanza e molteplicità delle
interconnessioni del sistema, dove per ogni singolo nodo esistono diverse
connessioni verso altri nodi e le informazioni per raggiungerne uno specifico
hanno diverse possibili strade da percorrere. Il numero delle “vie” percorribili
aumenta con l’aumentare delle dimensioni della rete. Un sistema di questo tipo,
34 Ingegnere polacco naturalizzato (acquisito cittadinanza) statunitense, considerato uno dei
primi inventori della commutazione a pacchetto.
54
così come il cervello umano, riesce a “sopravvivere” anche se alcuni nodi sono
danneggiati.
Un’altra brillante idea suggerita da Baran e ripresa successivamente da
Leonard Kleinrock 35 (1934) e Donald Watts Davies 36 (1924-2000) , è il concetto
di commutazione a pacchetto. Baran suggerisce infatti di: suddividere le
comunicazioni in entità elementari di lunghezza specifica (pacchetti di dati),
trasmetterle in seguito assieme alle informazioni necessarie sulla composizione
delle informazioni ed instradarle individualmente e in modo indipendente (tramite
percorsi e tempi differenti), per essere successivamente ricomposte nel punto di
destinazione.
Questo tipo di comportamento, a differenza di quello a trasmissione continua,
consente da un lato di limitare perdite di informazioni (se un pacchetto non arriva
a destinazione o arriva danneggiato o corrotto, il sistema provvede a inviare
nuovamente la parte mancante) e dall’altro di garantire una maggiore velocità di
comunicazione in quanto ogni pacchetto tenderà sempre a seguire il percorso
(momento per momento) meno saturo.
Le idee di Baran inizialmente non trovarono riscontro presso la comunità
scientifica dell’ARPA, salvo poi essere riconsiderate grazie ai successivi
esperimenti e ricerche di Kleinrock e Davies.
Basically, what I did for my PhD research in 1961-1962 was to establish a mathematical theory
of packet networks [...] (L. Kleinrock)
La commutazione a pacchetti e il concetto di rete distribuita erano le
fondamenta su cui la futura Rete avrebbe dovuto poggiare.
35
Informatico statunitense, noto per essere stato il primo a stabilire la comunicazione tra
computer nell'ottobre del 1969.
36
Informatico gallese, ritenuto uno dei primi inventori della commutazione a pacchetto.
55
3.2 Il time-sharing e l’Intergalactic Network
Con l’istituzione all’interno dell’ARPA dell’IPTO nel 1962, grazie soprattutto
alle idee rivoluzionarie e la lungimiranza di Licklider, ci fu uno sviluppo
tecnologico senza precedenti nella storia: da un lato si alimentarono enormemente
le ricerche informatiche sulla costruzione di computer innovativi (come abbiamo
visto nel precedente paragrafo), ben diversi da quelli comunemente in uso in quel
periodo, e dall’altro venne incentivata notevolmente la creazione di nuove
modalità di comunicazione.
Si sostiene erroneamente che tali progressi fossero incentivati soprattutto dalle
necessità di una risposta alla minaccia di interruzione delle comunicazioni in caso
di guerra termonucleare. In realtà Licklider venne scelto per dirigere l’IPTO da
Jack Ruina, appositamente per le sue concezioni di computer come strumento
simbiotico al servizio dell’uomo e delle attività di comunicazione.
La scelta di Ruina indirettamente ha condizionato l’evoluzione di ciò che di lì a
poco diverrà ARPANET. Il direttore dell’ARPA sapeva che scegliendo Licklider,
quest’ultimo avrebbe condotto a sé, e alle sue idee, studenti universitari,
appassionati di tecnologie, programmatori indipendenti, che poco avevano a che
fare con ambienti militari.
[...] ARPAnet non nacque per assicurare le comunicazioni militari in caso di guerra nucleare questa è un'impressione sbagliata piuttosto comune - ma piuttosto per collegare computer e
ricercatori delle università, assistendoli nel condurre ricerche comuni sui computer e sulle reti di
comunicazione, e per usare questi computer nelle ricerche di base. [...]eravamo consapevoli delle
applicazioni potenziali di ARPAnet per la sicurezza nazionale, ma gli sforzi per usare tale
tecnologia a questo fine vennero solo molto dopo. (Intervista rilasciata a Scientific American di
Charles Herzfeld37, 1995)
Nel 1963 Licklider viene messo a capo dell’Intergalactic Computer Network
(ICN), un gruppo di lavoro specifico all’interno dell’IPTO che aveva il compito di
37
56
Nato nel 1925, conosciuto come direttore dell'ARPA che autorizzò la creazione di Arpanet.
ragionare e cercare soluzioni adeguate sui problemi che affliggevano i centri di
ricerca della rete ARPA.
A questo punto è doveroso fare una digressione su uno dei concetti
fondamentali che hanno permesso lo sviluppo della Rete. Come abbiamo avuto
modo di analizzare in precedenza (paragrafo 2), i computer, sebbene in questi anni
abbiano incrementato notevolmente le loro capacità di calcolo e stiano diventando
sempre più economici, risultavano essere comunque troppo costosi ed impegnativi
per essere dedicati ad una singola persona. Da tempo si stavano cercando
soluzioni per velocizzare i processi di calcolo e ridurre i “tempi morti” (di attesa
risultati dei calcoli), ma date le potenzialità tecniche e le numerose difficoltà
legate allo sviluppo di una gestione multi utente di questo tipo di elaboratori, i
computer continuavano comunque ad essere dedicati all’esecuzione di un solo
programma alla volta.
Nel 1957 l'informatico Bob Berner (1920-2004) introdusse per la prima volta il
concetto di time-sharing38 in una pubblicazione su “Automatic Control
Magazine”, di cui il primo progetto ufficiale venne avviato da John McCarthy39
(1927-2004), alla fine dello stesso anno.
In quel periodo McCarthy ha avuto modo di osservare molto da vicino lo
sviluppo del progetto SAGE, che oltre ad essere uno dei primi sistemi ad
utilizzare display grafici con interfaccia utente point-and-click 40, era dotato di
supporto multiutente tramite l’utilizzo del time-sharing. Si trattava comunque di
un computer special purpouse, realizzato cioè per compiti specifici ,che non
permetteva lo sviluppo interattivo di programmi. Da questa esperienza iniziò a
concepire uno schema per lo sviluppo di un sistema time-sharing general
purpouse, ossia dedicato non solo ad un singolo possibile utilizzo, descritto
38
Termine inglese che significa "partizione di tempo" (sin. multitasking) ed è il modello di
elaborazione per sistemi operativi, sviluppato della tecnica di multiprogrammazione, che permette
l'esecuzione ciclica di più processi da parte della CPU.
39 Informatico statunitense, conosciuto per essere stato l'inventore dell'intelligenza artificiale,
ossia l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana, nel
1955.
40 Interfaccia adoperata per facilitare l’utente nell’analisi dei dati con le tecniche di analisi
interattive, basate sul semplice uso del mouse, che richiedono una minima istruzione.
57
accuratamente in un memorandum del 1959 dal titolo “A Time Sharing Operator
Program for our Projected IBM 709”. Questo tipo di sistema fu l’essenziale
precursore che ha permesso lo sviluppo del Computer Networking. Licklider
assimilò il concetto di time-sharing per sviluppare un’idea altrettanto importante
per quanto riguarda il futuro dell’interazione uomo-computer. Non pensò (almeno
per il momento) di dotare ogni individuo di un computer dedicato (costi troppo
elevati), pensava piuttosto a sistemi centralizzati, cui tutti potevano accedere
attraverso un terminale remoto. Questo tipo di applicazione avrebbe consentito,
oltre un utilizzo più intelligente delle risorse (in termini di uomini e di macchine)
distribuite nei vari centri affiliati al progetto ARPA, anche comunicazione ed
interscambio di informazioni. Il concetto di time-sharing, dove una grossa
macchina divideva le sue capacità di calcolo per un certo numero di utenti ad
intervalli di operazioni regolari, è l’idea chiave alla base dei programmi scientifici
dell’IPTO di Licklider. L’obiettivo principale ben presto divenne quello di
costruire una macchina multi-user che fosse in grado di eseguire programmi
software in parallelo. Licklider riteneva che nel giro di pochi anni il sogno di
creare una macchina dalle potenzialità spiccatamente interattive e in grado di far
comunicare le persone a distanza e in un modo del tutto differente dal telefono,
si sarebbe concretizzato. Inoltre notò anche che la rete intergalattica che di lì a
poco si sarebbe sviluppata, avrebbe potuto affermarsi solo se tali macchine
interattive sarebbero state alla portata di tutti.
Twenty years from now, some form of keyboard operation will doubtless be taught in
kindergarten, and forty years from now, keyboards may be as universal as pencils, but at present
good typists are few. ("One-Line Man Computer Communication", Licklider, Welden E. Clerck,
August 1962)
Nel 1963 Licklider scrive una serie di appunti interni al progetto ARPA dal
titolo “Memorandum For Members and Affiliates of the Intergalactic Computer
Network” in cui espone profeticamente i concetti, i problemi da risolvere al fine di
creare l’Intergalactic Network voluto dall’ARPA e collegare così in una rete gli
elaboratori a disposizione nei vari centri. Il periodo di Licklider al comando
58
dell’IPTO (1962-1965) non fu lungo da veder realizzate le sue idee, ma in un
certo senso il suo spirito innovativo e rivoluzionario venne tramandato ai suoi
successori, Ivan Surtherland e Robert Taylor.
3.3 Arpanet per un milione di dollari
Nel 1966 le idee di Licklider sembravano mature per poter essere finalmente
portate da una fase progettuale ad una operativa. Bob Taylor incontra Charles
Herzfeld (nuovo direttore dell’ARPA) per illustrare i risultati ottenuti con le
tecnologie di base (time-sharing, commutazione a pacchetti, etc.) e richiedere i
fondi necessari per la messa in opera della rete distribuita.
Si dice che siano bastati solo 20 minuti a Taylor per ottenere il milione di
dollari di cui l’IPTO aveva bisogno per sviluppare le idee di Licklider
sull’Intergalactic Network.
Il capo scelto per assumere il comando del progetto ARPAnet fu Larry Roberts
che, nei primi mesi del 1967,organizza una serie di incontri con i vari centri e
organismi accademici-universitari, al fine di esporre quelli che saranno i nuovi
obiettivi e progetti. Molti degli enti coinvolti però si dimostrarono scettici in
quanto poco convinti che l’idea di condividere parte delle loro risorse
informatiche, già fin troppo scarse, all’interno di una Rete fosse la soluzione
migliore per il progresso della tecnologia e della ricerca.
Douglas Engelbart, direttore dell’ARC presso lo Stanford Research Institute,
decide invece di sostenere tale progetto, convinto come Licklider e Taylor che la
Rete sarebbe stato strumento di fondamentale importanza per tutto il genere
umano. Prima però bisognava risolvere una serie di problemi legati soprattutto
alla compatibilità di linguaggi tra i vari computer esistenti, che spesso ne
impedivano la comunicazione. Lo stesso tipo di problematiche suscitate da
Licklider qualche anno prima nel "Memorandum For Members and Affiliates of
the Intergalactic Computer Network". Per cercare di oltrepassare le difficoltà di
compatibilità tra i modelli di computer utilizzati nei vari centri di ricerca,
59
bisognava pensare ad un sistema diverso che esuli dalla volontà di collegare le
macchine direttamente tra loro, un contributo molto importante su questo tipo di
interazione arrivò grazie all'informatico Wesley Clark (1927). La sua idea, molto
semplice ed efficace, consisteva nel creare una sottorete di computer tutti uguali,
denominati IMP (Interface Message Processor), e pienamente compatibili tra
loro, dedicati esclusivamente alla trasmissione e ricezione dei dati. In questo
modo tali macchine avrebbero comunicato tramite lo stesso linguaggio senza
riscontrare particolari difficoltà, e ogni nodo (costituito dal mainframe del centro
di ricerca) della Rete che si stava progettando, avrebbe dovuto essere istruito per
interpretare e dialogare esclusivamente con la sottorete, anziché con tutti gli altri
computer della Rete.
Le tecnologie per la costruzione della Rete distribuita erano ormai tutte
disponibili e ampiamente testate, occorreva passare dalla teoria all’azione. Nel
1969 grazie agli sforzi dell’ARPA ed in particolare dei centri di ricerca affiliati,
che avevano testato la commutazione di pacchetti e sviluppato gli IMP necessari
alla creazione della sottorete per la comunicazione con i nodi principali, vennero
ufficialmente stabilite le prime connessioni.
Il 30 agosto L’IMP numero 1, un computer di 12k di memoria il cui codice di
sistema necessario al funzionamento occupa circa 800 metri di nastro perforato,
viene interfacciato al computer Siggma-7 dell’UCLA (University of California
Los Angeles). Il 1° ottobre L’IMP numero 2 raggiunge lo Stanford Reserach
Institute a Menlo Park in California ed iniziano le sperimentazioni di invio e
ricezione messaggi. Il primo tentativo consisteva nell’invio della parola login, ma
giunsero a destinazione solo le lettere “l” e “o” prima di una caduta improvvisa
della connessione. Successivamente, solo dopo aver ripristinato il sistema, fu
possibile leggere dall’altro lato del collegamento la parola intera.
Fu un successo.
Nel giro di pochi mesi vennero aggiunti altri importanti nodi e stabilizzate le
connessioni.
Era ufficialmente nata Arpanet.
60
Sai, Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una
busta"41
È bene sottolineare a questo punto la duplice importanza che ha avuto, e che ha
tuttora, l’idea della commutazione a pacchetto (elemento cardine che ha permesso
la nascita e lo sviluppo della Rete), per il mondo non tecnico: in primo luogo ha
permesso la creazione di un sistema comunicativo decentralizzato (senza un
controllo centrale), in cui ogni nodo di smistamento sa dove e come fare arrivare
le informazioni richieste a destinazione; in secondo luogo, l’idea dei “pacchetti”
garantisce la possibilità non solo di trasportare semplici messaggi, ma anche di
dislocare tutto ciò che gli uomini sono in grado di percepire e le macchine di
elaborare (voci, suoni, video, immagini ecc...). Fattore determinante per
l’esplosione della Rete come mezzo di comunicazione universale e multimediale.
Parallelamente ai primi esperimenti di time-sharing degli anni '60 nei laboratori
affiliati all’ARPA che consentivano a molti individui di interagire direttamente
con il computer centrale per mezzo
di un punto di accesso (terminale),
invece di aspettare il loro turno per
presentare i programmi agli
operatori informatici, vennero
sviluppate anche altri tipi di
risorse che diventeranno il cardine
della nuova rete. Come suggerisce
Howard Rehingold 42 (1947) nel
libro "Comunità virtuali", dal
momento che si costruisce un sistema
Fig. 10 - Illustrazione di Leonard Kleinrock
dei nodi della Rete ARPANET nel 1972
di elaborazione che consente a
cinquanta-cento programmatori di interagire direttamente e individualmente con
41
Leonard Kleinrock tramite un commento ironico al suo amico Larry Roberts fa notare la
somiglianza della rete ad una busta.
42
Critico letterario statunitense noto per aver coniato il termine "comunità virtuali".
61
l’elaboratore principale, si sta automaticamente creando il potenziale per una
comunità. Infatti la posta elettronica fu una delle primissime funzionalità che
venne implementata assieme al time-sharing. Condividere la potenza di calcolo
dell’elaboratore voleva dire anche condividere le conoscenze di ogni singolo
operatore al lavoro.
La posta elettronica non fu più abbandonata, anzi venne presto trasferita
all’interno della neonata Rete per consentire la comunicazione a distanza e
immediata tra operatori geograficamente distribuiti.
Grazie ad essa infatti era possibile inviare con la stessa facilità un messaggio di
poche righe ad un unico destinatario, così come un messaggio di cento pagine ad
una o mille persone.
I pionieri di ARPANET stavano già sperimentando (probabilmente senza
esserne del tutto consapevoli) un nuovo mezzo e nuove modalità di
comunicazione: si scambiavano messaggi, file, conoscenze, ma anche battute e
semplici chiacchiere tra studenti. Non era solo uno strumento con cui creavano
connessioni finalizzate alla ricerca scientifica, era anche un nuovo modo di
interfacciarsi con altre persone distanti geograficamente. I privilegiati a far parte
di questa Rete di conoscenza stavano sperimentando il linguaggio e gli effetti
della comunicazione attraverso i computer.
3.4 “The Computer as a Communication Device”
Prima che nel 1969 il prototipo di ARPANET entrasse in funzione, Licklider e
Robert Taylor (i padri di questo progetto) scrissero un articolo dal titolo più che
mai premonitore di come nel corso degli anni sarebbe cambiato il computer e il
suo utilizzo: “The Computer As Communication Device”.
Nel giro di pochi anni, gli uomini saranno in grado di comunicare più efficacemente tramite
una macchina che in incontri faccia a faccia. ("The Computer As Communication Device" J.C.R.
Licklider and Robert W. Taylor, 1968)
62
Secondo Licklider, la possibilità di condividere informazioni all’interno di una
Rete e la possibilità di accesso a risorse di calcolo significative nelle mani di
utenti esperti, erano le componenti fondamentali per lo sviluppo spontaneo di un
nuovo ambiente in grado di stimolare il pensiero e la comunicazione.
Dall’interazione tra persone mediata attraverso il computer, sarebbero potute
nascere nuove e proficue idee, in cui le risorse condivise all’interno del sistemarete avrebbero ulteriormente facilitato gli individui nella risoluzione di problemi
tramite soluzioni creative e funzionali.
L’idea espressa nell’articolo si basava sull’osservazione dettagliata del sistema
presentato alla "Madre di tutte le demo" da Engelbart nella storica conferenza
1968 (vedi paragrafo 2). Un certo numero di operatori era riunito in una sala
appositamente attrezzata con questo innovativo sistema di interazione, impegnato
ad osservare grafici e testi prodotti per la riunione, discutendone di volta in volta i
loro contenuti.
Da questa sessione sperimentale Licklider e Taylor avevano avuto modo di
confermare le loro ipotesi iniziali, cioè che al centro del processo di
comunicazione c’è sia uno scambio di modelli di informazione pre-esistenti che
una creazione continua di nuovi modelli mentali.
di sicuro i modelli più numerosi, più sofisticati, sono quelli che risiedono nelle menti degli
uomini. ("The Computer As Communication Device" J.C.R. Licklider and Robert W. Taylor, 1968)
Questi modelli sono generati all’interno della mente del singolo individuo
secondo processi di elaborazione di ciò che si percepisce attraverso i sensi (parole,
immagini, suoni), delle proprie esperienze e dei ricordi immagazzinati in
memoria. Essi sono di natura strettamente personale e privata, quindi per essere
condivisi, percepiti, discussi e assimilati da altri devono essere necessariamente
esternati. Il processo di esternazione dei modelli mentali, consente agli individui
di concordare e coordinare le azioni e di incrementare conseguentemente la
capacità di controllo collettivo sull’ambiente.
63
Il computer di nuova generazione (che Licklider ed Engelbart avevano
immaginato e che stavano contribuendo a creare) capace di combinare nuove
modalità di rappresentazione delle immagini alle tecnologie di comunicazione, se
messo a disposizione di tutti, avrebbe rappresentato lo strumento di
collaborazione più potente che sia mai stato inventato.
Condividere informazioni, passare da livelli di macro analisi a livelli più
dettagliati delle stesse, assemblare e costruire nuovi modelli di pensiero, tagliare
ed incollare dati, sono tutte potenzialità concepite dai nuovi mezzi informatici con
i quali è possibile costruire forme di comunicazione fluide e dinamiche,
completamente differenti a qualsiasi altra forma collaborativa resa possibile con i
precedenti ausili tecnologici.
Se a questo ci aggiungiamo anche le capacità di collegare tale conoscenza
generata dal lavoro di un gruppo, di una comunità locale, di un centro di ricerca o
università attorno ad un computer, con altre geograficamente distribuite,
otteniamo una crescita esponenziale delle potenzialità dell’intelletto collettivo.
[...] Allo stato attuale vi sono forse non più di una dozzina di comunità che operano con
computer interattivi multi-accesso. Si tratta di comunità socio-tecniche pionieristiche, e pre diverse
ragioni molto più avanti del resto del mondo che ha a che fare con i computer [...] Essere collegati
sarà un privilegio o un diritto? Se la possibilità di sfruttare il vantaggio dell’amplificazione
dell’intelligenza sarà riservata a un’élite privilegiata, la rete non farà che esasperare le differenze
tra le opportunità intellettuali. Se invece l’idea della rete dovesse risultare, come noi speravamo
progettandola, un ausilio per l’istruzione, e se tutte le menti vi dovessero reagire positivamente, di
certo il beneficio per il genere umano sarà smisurato. ("The Computer As Communication Device"
J.C.R. Licklider and Robert W. Taylor, 1968)
La rete immaginata da Licklider sconvolge il paradigma della comunicazione
tipico dei media, come il telefono e la televisione. Non c’è una più un sistema
composto da una sola fonte, un solo canale di trasmissione e un solo ricevente. La
comunicazione mediata dal computer nella Rete assume forme più instabili e
mutevoli che sono sempre nuove.
I partecipanti alle comunità in Rete sono soggetti attivi che costruiscono di
volta in volta il proprio mondo di significati e di modelli costantemente
64
rinegoziabili con gli altri, al fine di generare un nuovo significato e nuova
comprensione. Una nuova conoscenza.
3.5 Lo Xerox Parc e la nascita di internet
Nel 1969 Peter McCullogh,, amministratore delegato della Xerox, proclamò
l’intenzione di fare della sua azienda l’architetto delle informazioni per il futuro.
Istituì il laboratorio informatico denominato PARC (Palo Alto Research
Center). Le aspettative di questo nuovo colosso sulla ricerca informatica di
tecnologie e sulla sperimentazione di nuovi device e sistemi di interazione uomomacchina erano elevate, così come l’interesse che suscitava a gran parte del
gruppo di innovatori che era impegnato nei progetti dell’ARPA.
Le giovani “superstar” della programmazione che avevano reso possibile la
nascita di ARPANET, sentivano sulle loro spalle il peso che la guerra del Vietnam
stava portando con sé, per molti di loro non era per nulla facile lavorare per il
Dipartimento della Difesa. La Xerox chiamò Robert Taylor e quest’ultimo volle
con sé Alan Kay43 (1940), con il seguente trasferimento di molti altri personaggi
di spicco dell’ARPA al PARC. Confluirono tutti in un ambiente dove il direttore
della ricerca condivideva le loro opinioni in merito alla tecnologia informatica e
come doveva svilupparsi nell’immediato futuro, avevano a disposizione le
migliori strumentazioni dell’epoca e un budget economico molto importante.
Molte delle idee che segnarono la prima rivoluzione informatica, quella
dell’ARC di Engelbart (dalle macchine calcolatrici al computer come strumento
dell’intelletto), passarono al PARC, dove avevano intenzione di portarle ad un
livello più elevato, al fine di creare computer sufficientemente potenti, compatti
ed economici da poter essere disponibili e utilizzabili da chiunque: Personal
computer.
43 Informatico statunitense, conosciuto com l'inventore del linguaggio di programmazione
Smalltalk, programmazione orientata agli oggetti. Inoltre ha concepito i laptop, le interfacce
grafiche moderne e ha contribuito a creare ethernet ed il modello client-server.
65
Per farlo avevano bisogno che il prezzo delle due principali componenti dei
computer (elaboratore e schermo) fossero disponibili a costi decisamente più
bassi. Grazie alle nuove tecnologie per la fabbricazione di entrambi gli elementi
necessari al team di sviluppo del PARC ci fu un graduale ma costante
dimezzamento del prezzo, così come aveva predetto Gordon Moore 44 (1929) che,
secondo le loro stime, avrebbe permesso di realizzare l’obiettivo entro sette anni.
Progettarono un’interfaccia grafica uomo-computer che si basava sulla
tecnologia bit-mapped (simile a quella creata da Sutherland con Sketchpad e che
mancava all’ARC) in cui ciascun elemento dell’immagine sullo schermo è
rappresentato da un bit specifico nella memoria del computer (la memoria del
computer contiene una mappa di bit che corrisponde alla configurazione dei pixel
sullo schermo). La comunicazione tra pixel e bit è biunivoca: è possibile agire sul
bit del computer e osservare il cambiamento sullo schermo, ed è possibile agire
sullo schermo per esempio cliccando tramite il dispositivo di puntamento su un
immagine ed osservare il computer reagire.
Le idee di Engelbart, successivamente riprese da Ivan Sutherland e da Alan
Kay, hanno reso possibile lo sviluppo dell’interfaccia grafica come strumento
essenziale dell’interazione uomo-computer. Con Smart-Talk, sviluppato allo
Xerox PARC tra il 1968 e il 1972, Alan Kay introduce l’utilizzo di un linguaggio
iconico e di una rappresentazione grafica delle funzioni del computer (cartelle,
menu, sovrapposizione di finestre ecc...) come principale strumento di interfaccia
tra uomo e computer, oggi conosciuta come metafora del desktop.
Il desktop di Alan Kay è stato difatti il primo mondo Virtuale in cui l’uomo
abbia mai potuto immergersi e navigare.
La sensazione di immersione non era data da immagini tridimensionali
stereoscopiche fluttuanti che reagivano conseguentemente allo spostamento della
testa, ma piuttosto dai processi mentali che avvengono grazie all’utilizzo delle
icone come strumento di controllo e comunicazione con il computer.
44 Informatico ed imprenditore statunitense che aveva previsto il dimezzamento del costo della
potenza degli elaboratori ogni due anni.
66
Il computer è un medium! L’avevo sempre considerato uno strumento, forse un veicolo [...]
Quello che McLuhan voleva dire è che se il computer è un nuovo vero mezzo di comunicazione,
allora il suo uso effettivo dovrebbe addirittura cambiare gli schemi di pensiero dell’intera civiltà.
(Alan Kay)
Nel 1973 il team dello Xerox PARC progettò e costruì per uso interno, come
strumento di esplorazione delle nuove tecnologie e progettazione di sistemi
sempre più avanzati, il primo Personal Computer della storia: lo Xerox ALTO. s
Lo sviluppo di ARPANET continuò ad essere costante fino al 1983 quando si
sdoppiò in ARPANET (utilizzata per la ricerca) e MILNET (utilizzata per scopi
militari). Entrambe le reti continuavano ad essere geograficamente distribuite,
disponevano, tra i vari nodi, di linee di connessione ad alta velocità e ad alta
portata di utenza. Sempre nello stesso anno venne realizzata da alcuni
programmatori dell’ARPA una nuova versione di Unix (sistema operativo
altamente utilizzato in ambienti accademici e universitari) compatibile con i
protocolli di comunicazione della Rete (TCP/IP45 ) e distribuito ad un prezzo
accessibile. Ben presto ARPANET incominciò ad espandersi di sottoreti locali a
temi di discussione specifiche interne agli ambienti accademici ed universitari,
diventando sempre più una Rete di reti. Più cresceva e più le persone volevano
entrare a far parte di questo network di intelligenze che si scambiano conoscenze,
informazioni e dati in ogni parte degli Stati Uniti.
A partire dagli anni '80 fu chiamata dapprima ARPA Internet e successivamente
solo INTERNET.
Il progetto iniziato negli anni '60 dall’IPTO di Licklider divenne nel giro di
vent’anni la rete intergalattica che aveva ipotizzato e sognato, i suoi sforzi, così
come quelli di tutti i ricercatori, hanno reso possibile la nascita del più potente
mezzo di comunicazione e condivisione che l’uomo abbia mai inventato.
Il luogo ideale per amplificare l’intelletto.
45
Transfer Control Protocol / Internet Protocol
67
68
69
70
CAPITOLO SECONDO:
Socializzare al tempo della “Rete”
4. Comunicazione e condivisione del Sé in Rete
L’affermazione di una cultura “digitale” nei principali laboratori Universitari
(MIT, SRI ecc..) e militari (ARPA, IPTO etc..), sfociata nei successi con la
realizzazione delle macchine per pensare volute da Engelbart, capaci di
aumentare l’intelletto umano, ed avvicinarsi sempre più alla visione di simbiosi
tra uomo e tecnologie sognata da Licklider, conferì indubbiamente sia maggiore
attendibilità alle ricerche sulle innovazioni tecnologiche, che la fiducia necessaria
a spingersi oltre, andando cioè sempre più in profondità nell’esplorazione delle
possibilità di questi nuovi potentissimi strumenti.
Ciò avrebbe richiesto una revisione del modello di cultura tecnologica e
comunicativa su cui erano stati conseguiti gran parte dei successi raggiunti.
Una volta che il computer aveva raggiunto la soglia necessaria di potenza,
velocità e usabilità, poteva superare le barriere comunicative (tempo e spazio) e
collaborative tra le persone.
Come abbiamo visto nel precedente capitolo, non si trattava di sostituire
l’uomo nelle sue attività quotidiane, quanto piuttosto aiutarlo nella gestione e nel
superare le limitazioni a cui può incorrere.
Tramite l’aiuto del computer quindi sarebbe cambiata la natura stessa delle
relazioni tra le persone e conseguentemente tra le persone stesse e il proprio
lavoro. Modificando le caratteristiche dell’interazione con il computer,
avvicinando cioè sempre più quest’ultime alla natura sociale dell’uomo (da
macchina calcolatrice “fredda” a strumento per pensare), si sarebbero amplificate
oltre che le potenzialità gestionali delle complesse problematiche dell’umanità
(attraverso i nuovi modi di memorizzare le informazioni, di valutazione ecc...)
anche quelle comunicative.
71
Licklider, che attivamente contribuì alla realizzazione di internet (o meglio
delle tecnologie e teorie che lo hanno reso possibile), fu influenzato nella sua
“visione” dalle teorie dell’informazione e della comunicazione pubblicate da
Claude Elwood Shannon nel 1948.
4.1 La Teoria dell’informazione e della comunicazione
Le fondamenta delle teorie di Shannon, così come le rispettive evoluzioni ed
applicazioni che portarono alla nascita della rete, poggiavano sull’osservazione e
analisi delle proprietà e caratteristiche tipiche della comunicazione tra le persone,
quindi del veicolo principale che la rende possibile: il linguaggio.
Poiché i sistemi comunicativi servono soprattutto a mettere in contatto le
persone, la loro progettazione richiede lo studio approfondito e la comprensione
delle caratteristiche che stanno alla base dello scambio di informazioni e della
collaborazione tra esseri umani.
Shannon fu uno dei primi a discutere di leggi fisiche sulla comunicazione,
partendo da dati dell’osservazione empirica. Il suo obiettivo era quello di trovare
un modo per rendere oggettivamente misurabile l’informazione, così da poterla
capire, descrivere e manipolare: uno dei principi fondamentali alla base della
teoria è infatti l’informazione che può essere trattata come una quantità fisica
misurabile. La riflessione di Shannon, oltre che su questo aspetto, si concentrò
anche sulle modalità in cui avviene effettivamente il passaggio delle informazioni
tra le persone, in particolare su come può un messaggio partire da un dato luogo
iniziale e raggiungere, senza subire trasformazioni o interferenze, il luogo di
destinazione designato. Altre riflessioni si concentrarono invece su problematiche
di natura più concreta, che si erano rivelate di vitale importanza durante la
Seconda Guerra Mondiale, come quelle relative alla crittografia e decrittografia,
cioè sulla possibilità di estrarre dal rumore i codici che mascheravano i messaggi
crittografati.
72
Queste riflessioni lo portarono a definire il concetto di entropia1, o meglio a
ridefinirlo secondo un nuovo punto di vista2, strettamente legato alla
comunicazione. Shannon osservò che l’incertezza in ogni sistema è dovuta alla
mancanza dell'informazione, quindi se prendiamo in considerazione la
comunicazione tra due persone, oppure la decifrazione di un messaggio
alfanumerico, osserviamo che man mano che diminuisce la casualità delle
informazioni, si riduce anche l’incertezza. Il messaggio, o parte di esso, diventa
quindi più chiaro e comprensibile ai nostri sensi. E' proprio grazie alla possibilità
di eliminare o escludere completamente il rumore dal messaggio, che riusciamo a
ricavare informazioni. In conclusione, sintetizzando quanto espresso da Shannon
nel documento del 1948 “A Mathematical Theory of Communication”, è possibile
affermare che l’informazione è riduzione dell’incertezza.
Shannon oltre a queste osservazioni identifica quelli che sono gli elementi di
base di un sistema di comunicazione, qualunque esso sia e qualunque sia la
tecnologia su cui regge. Questi elementi, generalmente identificabili e descrivibili
con facilità, sono:
1. una fonte di informazione, che può essere rappresentata come una persona o
una macchina (oggetto), in ogni caso si tratta di un dispositivo di diffusione
dell’informazione (messaggio), in grado di trasformarla in un formato adatto ad
essere veicolato. É la cosiddetta fase di codifica del messaggio, che avviene
mediante precise caratteristiche dettate appunto da chi lo trasmette (fonte);
1 E' un concetto attinto dalla fisica, risalente alla seconda legge della termodinamica, elaborata
nel XIX secolo. Secondo questa legge, l’entropia è il grado di casualità che esiste in ogni sistema,
e tende ad aumentare per effetto dell’incontro tra molecole, rendendo incerta l’evoluzione del
sistema stesso.
2
La probabilità relativa che si verifichi un evento tra tutti quelli possibili (per esempio, che si
indovini una lettera dell’alfabeto), dipende dal numero totale di casi nella popolazione degli eventi
(le lettere dell’alfabeto) e dalla frequenza dell’evento specificato (numero di domande con risposta
si - no necessarie per trovare la risposta corretta). Quindi per una lettera dell’alfabeto, occorre
ridurre il valore di incertezza, che in questo caso è pari a 20 (il numero delle lettere dell’alfabeto).
Per farlo è sufficiente porre semplici domande a cui si possa rispondere affermativamente o
negativamente (si, no), per esempio si potrebbe chiedere se la lettera viene dopo la “L” (lettera che
ipoteticamente divide a metà l’alfabeto), e così via fino ad escludere ad ogni domanda i valori
possibili riducendo l’incertezza. Nel caso preso in esame l’incertezza potrebbe essere ridotta ad un
valore di cinque.
Secondo Shannon l’ entropia di un sistema è rappresentata quindi dal logaritmo del numero di
possibili combinazioni di stati in quel dato sistema. Il logaritmo rappresenta il numero delle
domande per ridurre l’incertezza.
73
2. un canale, ossia semplicemente il mezzo attraverso il quale il messaggio
viene inviato;
3. un apparato di ricezione che decodifica il messaggio nel modo più
opportuno, cioè in una qualche approssimazione della sua forma originale;
4. una fonte di rumore, interferenza o distorsione, che cambia il messaggio in
modo imprevedibile durante la trasmissione, da una fonte ad un ricevente
passando per un qualsiasi canale.
Nella loro semplicità gli elementi che compongono la teoria di Shannon,
offrono un modo per trattare la comunicazione e l’informazione come entità
misurabili e quantificabili, esattamente come accade con altre forze fisiche o
comunque di sistemi tangibili. Questo tipo di caratterizzazione matematica
permette di studiare i molteplici fenomeni che compongono l’universo
imprevedibile della comunicazione tra persone o tra macchine, tra cui: la massa di
informazione prodotta dalla fonte, la capacità del canale di trattare l’informazione
per ogni dato tempo di trasmissione, la quantità media di informazione contenuta
in un particolare messaggio.
Permette, dunque, di progettare sistemi comunicativi in grado di trasmettere
informazioni e messaggi in modo affidabile e sicuro.
Joseph Licklider, che in quegli anni era impegnato al MIT nello studio della
psicoacustica (lo stesso che qualche anno più tardi “provocò” involontariamente
in lui la “visione” di una macchina elaboratrice diversa), rimase folgorato dal
concetto d'informazione espresso da Shannon, tanto da renderlo parte integrante
della sua ricerca sulla comprensione del funzionamento della mente e del cervello
umano. Già durante la Seconda Guerra Mondiale, presso il laboratorio del MIT,
studiò la comunicazione per scopi estremamente concreti. I motori dei cacciabombardieri erano rumorosissimi, tanto da generare nella cabina di pilotaggio un
livello di rumore tale da ridurre la tenuta psicofisica degli equipaggi e
conseguentemente della loro sicurezza.
Una delle componenti analizzate fu proprio la comunicazione tra i membri
dell’equipaggio. Licklider aveva osservato che in un ambiente particolarmente
74
rumoroso dove la comunicazione tende ad essere minima, in quanto se ne perde
gran parte, occorre essere ridondanti nei messaggi che si vogliono esprimere ed è
necessario confidare sull’intesa reciproca affinché l’informazione, o meglio parte
di essa, possa comunque arrivare a destinazione. Gli esperimenti compiuti in
laboratorio hanno dimostrato questa tendenza, ma hanno aggiunto anche un
elemento importante: anche in condizioni di intenso rumore, se un messaggio è
“atteso” dal destinatario, quindi i suoi canali percettivi sono pre-attivati per il
riconoscimento, entro una certa soglia limite di disturbo l’informazione è
comunque percepita anche se con maggiore difficoltà ed impegno. Gli esperimenti
condotti nel corso degli anni hanno dimostrato che i canali uditivi (il principale
apparato di ricezione umano) sono a “capacità limitata”, ossia in condizioni di
scarsa qualità dell’ambiente sonoro in cui si agiscono (troppo rumore, troppo
distanti, voce bassa ecc...), riescono a tenere traccia, quindi a filtrare, solamente i
messaggi che in qualche modo sono “attesi” estrapolandoli dal contesto. Il nostro
cervello elabora l’informazione escludendo tutte le altre non attese.
L’atto percettivo nella comunicazione tra persone è attivo e selettivo in ognuna
delle sue fasi e in ogni suo elemento (fonte, messaggio, canale, ricevente,
rumore), non avviene secondo una modalità in cui una “fonte attiva” invia i
segnali e una “passiva” li riceve, bensì anche il dispositivo ricevente del
messaggio svolge un ruolo attivo, ossia estrae ed elabora l’informazione rilevante
dal rumore di fondo.
4.2 La comunicazione mediata dal computer e Identità in rete
Sebbene il primo vero e proprio studio metodico sulla comunicazione mediata
dal computer (Computer-mediated communication, CMC) si sia sviluppato nel
campo della psicologia sociale all’inizio degli anni ’80, alcuni elementi chiave che
ne hanno reso possibile lo sviluppo possono essere ricondotti già negli anni '60.
Come abbiamo visto in precedenza, il lavoro pionieristico di Engelbart e Licklider
ha influenzato gli ambienti affini alle tecnologie informatiche suscitando così
75
l’evoluzione del computer, da semplice strumento di calcolo a manipolatore di
simboli, fino ad arrivare a potentissimo mezzo relazionale, quindi di
comunicazione. Nel saggio "The computer as communication device" di Licklider
e Taylor (che abbiamo analizzato nel paragrafo 3.4) sono già implicati una serie di
concetti che saranno di fondamentale importanza per lo sviluppo delle teorie sulla
CMC. Ciò che viene descritto nel loro testo, non è un elaboratore tipico,
“tradizionale”, era qualcosa di più: era un computer pensato come mezzo di
comunicazione, ossia come vero e proprio medium sociale in grado di sviluppare
relazioni creative tra gruppi di lavoro, che se svolte attraverso le nascenti reti,
avrebbero trasformato definitivamente lo stesso computer in uno spazio di
comunicazione.
Dopo gli studi di Licklider e Taylor, negli anni '80 grazie soprattutto
all’evoluzione e la proliferazione di quelli che furono i primi sistemi
computerizzati, l’interesse e lo studio della CMC diventa sempre più di attualità e
utile nella progettazione e organizzazione strategica di reti di comunicazione
all’interno delle aziende. In questo contesto nasce l’esigenza di valutare gli
strumenti informatici sia da un punto di vista tecnico (legato alla produttività) sia
da quello socio-psicologico (legato agli effetti della comunicazione e interazione
con le macchine). Gli studiosi focalizzarono il loro interesse soprattutto nella
comprensione degli effetti che avrebbe provocato un tipo di una comunicazione
semplice e rapida, capace di raggiungere istantaneamente qualsiasi luogo. Altre
importanti considerazioni avrebbero implicato i potenziali effetti derivati dalla
natura prevalentemente testuale della CMC, quindi priva di situazioni e
comportamenti tipici della comunicazione e dei codici non verbali, e gli effetti
dovuti alla mancanza di informazioni relative all’identità degli interlocutori con
una conseguente notevole accentuazione dell’anonimato.
Nel tentativo di trovare riscontri alle problematiche che questo tipo di
comunicazione avrebbe potuto causare alle/nelle persone e nei rapporti sociali, si
svilupparono diversi approcci di studio, che possiamo categorizzare in: CMC
76
socialmente povera (di prima generazione), CMC socialmente ricca (di seconda
generazione) e CMC come dimensione quotidiana (terza generazione).
La teoria Reduced Social Cues (RSC) di Sproull e Kiesler si sviluppa all’inizio
degli anni '80 e implica all’interno di una comunicazione mediata dal computer,
sia una scarsità di informazioni relative al contesto sociale in cui avviene che una
scarsità di norme comunemente accettate, in grado di orientare lo sviluppo della
comunicazione stessa, oltre che un’intrinseca limitazione della “larghezza di
banda”, cioè della quantità di informazioni veicolate nell’unità di tempo.
In base a questo approccio la CMC è di natura povera. Di fatto, se nella
comunicazione face to face gli interlocutori dispongono di molteplici canali, oltre
a quelli verbali, nella CMC anni '80 lo scambio di informazioni e messaggi è
prevalentemente di tipo testuale, quindi efficace secondo i due studiosi per la
trasmissione di indicazioni, ordini o direttive ben precise, ma notevolmente
“povera” per quanto riguarda gli aspetti relazionali e sociali tra gli interlocutori
che prendono parte alla comunicazione. Ciò che manca alla CMC è la capacità di
trasmettere gli indicatori sociali (dietro un pc siamo tutti uguali e persino i
rimproveri più duri ricevuti tramite mail risultano meno autorevoli e duri da
assimilare).
La mancata presenza di indici di disparità sociale consente di livellare le
relazioni e più in generale lo status (incentivando una partecipazione maggiore
assoggettata dai condizionamenti sociali) dei singoli interlocutori, quindi, soggetti
che normalmente in una conversazione face to face sarebbero emarginati, in
questo contesto possono liberamente esprimersi. Tuttavia la condizione di
anonimato, unita al processo di deindividuazione in cui sembra agire una
comunicazione mediata dal computer comporta, da un lato un atteggiamento degli
individui più libero, aperto ad esprimersi e a comunicare senza restrizioni,
dall’altro giustifica comportamenti violenti o anti-sociali.
77
Fig. 11 - Famosissima illustrazione ironica di Peter Steiner “On internet nobody knows
you’re a dog”, Su internet nessuno sa che sei un cane
L’approccio della RSC pur essendo un modello articolato e completo fu
soggetto a numerose critiche, causate dalle contraddizioni che lo compongono, per
esempio sostiene che la CMC e i suoi limiti di larghezza di banda sono poco adatti
a veicolare i contenuti sociali, ma non spiega né l’utilizzo della posta elettronica
per scopi che esulano dalle attività lavorative, né il fatto che in determinate
situazioni la CMC dà luogo a comportamenti socialmente accettati più che
nell’interazione faccia a faccia. In base a queste critiche vennero proposti modelli
alternativi che hanno messo in luce altri aspetti poco considerati della CMC. In
particolare il Social information processing (SIP), sviluppato da Walther e
78
Burgoon (1992), sostiene che la comunicazione mediata dal computer può
veicolare la stessa socialità di una qualsiasi altra comunicazione face to face se chi
ne fa parte dispone del tempo strettamente necessario per svilupparla. Secondo i
due studiosi infatti gli esseri umani, a prescindere dal mezzo con cui comunicano,
sviluppano il bisogno di ridurre l’incertezza che può scaturire in situazioni in cui
il messaggio è impoverito di tutti gli aspetti sociali-emozionali, al fine di
raggiungere una certa affinità nei confronti degli altri individui. Gli utenti della
CMC tendono a soddisfare questi bisogni ancestrali adattando le proprie strategie
comunicative al medium utilizzato. Quindi la CMC Social information processing
non è meno efficace nelle interazioni sociali rispetto ad una comunicazione faccia
a faccia, ma è semplicemente meno efficiente, ossia occorre più tempo agli
interlocutori per veicolare lo stesso tipo di sensazioni.
Questi nuovi modelli hanno messo in evidenza l’importanza del contesto
sociale in cui si svolge la comunicazione. All’inizio, come abbiamo visto, la CMC
si svolgeva prevalentemente nei luoghi di lavoro, quindi risultava più fredda e
impersonale, ma a partire dagli anni '90, parallelamente alla diffusione capillare
anche in situazioni domestiche della tecnologia telematica, incominciò a
“sovraccaricarsi” di contenuti sociali, tanto da poter essere definita
Hyperpersonal3. Socialmente attiva.
Le interazioni diventano sia ad un livello conscio che inconscio attive e più
stereotipate (rispetto alla comunicazione faccia a faccia), ossia si tende a
categorizzare socialmente l’interlocutore, e in mancanza d'informazioni sulla sua
persona, si tende a farlo in modo stereotipato, basandosi esclusivamente su ciò che
si ha a disposizione (nickname, firma del messaggio, homepage, blog ecc...).
Ognuno quindi ha la possibilità di curare attentamente la presentazione del sé
online, progettando accuratamente l’immagine che desidera dare di se stesso agli
altri, nascondendo o potenziando le caratteristiche che ritiene più o meno
socialmente utili in quel determinato contesto comunicativo.
3
Iperpersonale, Walter 1997
79
Questa caratteristica di iperpersonalità della CMC si rifletterà in modo ben più
evidente con l’introduzione della vita online e quindi della comunicazione
attraverso il computer come parte integrante della vita quotidiana di ogni
cittadino. Il passaggio a questa nuova generazione di CMC è rimarcato dal
superamento delle “vecchie” teorie matematiche della comunicazione di massa
intese come trasferimento di informazioni (Shannon), da una visione di esse non
più come beni che esistono in natura, bensì come il frutto di prodotti sociali, e
infine, da una concezione non riduzionistica della dimensione sociale, ossia i
sistemi simbolici, quelli normativi e i codici interpretativi non si manifestano solo
quando le persone sono in comunicazione face to face, fisicamente vicine, ma ci
accompagnano in ogni momento dell’esistenza.
La CMC può essere distinta in due tipi: sincrona e asincrona. Nella prima la
comunicazione avviene in tempo reale quando gli interlocutori si trovano
contemporaneamente online, con le stesse modalità di un dialogo telefonico o
della conversazione diretta face to face. I mezzi tipici della CMC sincrona sono: le
videoconferenze, l’internet phone (skype), le chat e i servizi di instant messaging
(ICQ, MSN o quelli dei Social network). Si tratta di un tipo di comunicazione
diretta che si basa sull’interazione in tempo reale con l’altro o gli altri individui
che ne prendono parte, è quindi multimediale (consente lo scambio di immagini,
musica, video, documenti o file), ipertestuale ed emozionale (grazie all’uso
frequente di emoticons 4).
Nella comunicazione asincrona invece, lo scambio di informazioni e messaggi
avviene in tempistiche differenti e gli interlocutori non devono essere
necessariamente connessi allo stesso momento. Posta elettronica (email), mailing
list, newsgroup e Multi User Doungeon (MUD) sono i mezzi tipici della CMC
asincrona. Dal punto di vista strettamente psicosociale è possibile considerarla
differente sia rispetto alla comunicazione scritta non mediata dal computer che
dagli altri mezzi di comunicazione.
4
Riproduzioni stilizzate delle principali espressioni facciali umane che esprimono un'emozione
(sorriso, broncio, ghigno, etc.). Vengono utilizzate per aggiungere componenti extra-verbali alla
comunicazione scritta. Il nome nasce dall'accostamento delle parole "emotional" e "icon" e sta ad
indicare proprio un'icona che esprime emozioni.
80
Nella vita sociale “reale”, ognuno può costruirsi facilmente, grazie a propri
sensi e alle proprie capacità cognitive, l’immagine mentale della personalità
dell’interlocutore o degli individui che si hanno attorno. Cerchiamo
continuamente di recuperare più informazioni possibili in modo tale da popolare
quell’immagine, che inizialmente è sfocata, influenzata dai pregiudizi e dalle
situazioni già riscontrate, di nuove caratteristiche fino a raggiungere un livello
considerato accettabile. Diversamente in rete, date le caratteristiche della CMC,
non può essere così.
Nella vita online ognuno è un “essere digitale”, ossia è ciò che lascia trapelare
attraverso lo schermo, comunicando e digitando.
Ognuno è ciò che scrive.
Essere visibili quindi vuol dire scrivere e comunicare, nella CMC spesso non
c’è esistenza al di fuori della parola. Per esistere in rete occorre manifestarsi,
presentarsi, chattare, mentre rimanere in silenzio vuol dire semplicemente non
esistere.
In rete, date le caratteristiche tecnologiche del mezzo comunicativo,
l’interazione tra individui o tra gruppi di individui assume tratti decisamente
particolari, in cui il corpo si oppone al teso in un continuum che da un lato vede il
reale, la fisicità e dall’altro il virtuale, la Rete.
Il corpo è l’asse portante dell’interazione e della comunicazione nella vita
quotidiana e si manifesta nella sua dimensione agli altri, il testo invece è
l’elemento principale nella comunicazione “virtuale” e si distacca dal corpo.
Questa distinzione implica una rottura dalla fisicità corporea in rete, quindi una
liberazione dalle paure di mettere a rischio il proprio corpo, la propria incolumità.
Online la nostra mente può permettersi maggiori libertà. Ed è per questo che nella
comunicazione mediata dal computer si tende a sperimentare, a costruire e a
modellare l’identità che sostituisce il corpo rimasto al sicuro al di qua dello
schermo. Nella società è accettata un'unica entità primaria che è strettamente
collegata alla nostra fisicità e alle nostre azioni, è un'identità per lo più forgiata
dalla struttura sociale, che implica determinati comportamenti ad ogni precisa
81
situazione. Può esistere quindi una sola personalità per un solo corpo. L’individuo
che manifesta personalità multiple è difatti tracciato come patologico, disturbato
o, nel migliore dei casi, considerato semplicemente bizzarro. Nella rete invece,
non solo l’identità multipla è possibile, ma difatti è l’unica modalità possibile di
presentazione, poiché se ciò che scriviamo ci identifica, allora la soggettività di
ognuno è il personaggio del racconto che si vuole raccontare agli altri.
Internet offre la possibilità di presentarsi intenzionalmente in un'infinita varietà
di modi differenti (è possibile avere un’altra età, sesso, storia, aspetto fisico
ecc...), esternando difatti la rappresentazione della molteplicità che ogni essere
umano incarna nella vita reale (si è figli, ma anche genitori, si lavora o si studia, si
è vicini di casa, amici, parenti ecc... e chiaramente per ognuna di queste possibilità
si attuano comportamenti differenti). Questi diversi aspetti del sé in rete possono
essere dissociati (si possono presentare solo alcuni aspetti, quelli ritenuti più
opportuni al contesto), potenziati (migliorare al massimo una propria caratteristica
o un proprio interesse specifico) o integrati (versione completa di se stessi).
L’aspetto dell’intenzionalità è sicuramente una delle componenti principali
che riguardano questi processi comunicativi, e la CMC, date le sue caratteristiche,
rende il controllo e la gestione del proprio “Io online” più facile. Come abbiamo
visto, su internet e più in generale nel mondo della comunicazione mediata dal
computer, non esistono discriminazioni, ognuno può presentarsi per quello che è
oppure può costruirsi un'identità differente.
La costruzione di un'identità online avviene innanzitutto con la scelta di un
nome, dove a differenza della vita reale, rispecchia una grande importanza sociale.
Il nome o meglio il nickname è il punto d'ingresso all’interno del mondo della
rete, il contatto diretto tra il nostro essere reale e il nostro essere digitale.
Non è un'aggiunta al nome anagrafico, ma è una sua sostituzione,
l’incarnazione della nuova identità dell’individuo online.
Questa possibilità consente infatti di dare luogo a relazioni sociali stabili e
significative che non sarebbero state possibili se la comunicazione fosse stata
completamente anonima. Inoltre, la tendenza a mantenere l’identità piuttosto
82
stabile (soprattutto non cambiando spesso nickname) contribuisce alla creazione
della “persona online” di essere riconoscibile, identificabile e considerata presente
agli occhi degli altri infonauti.
Oltre al nome la persona online viene costituita da altri espedienti, dai più
antichi, come la firma in calce, ai messaggi di posta elettronica e la costruzione di
una propria homepage o sito personale (curriculum, foto, informazione contatti,
biografia ecc...), fino ai più recenti, quali i messaggi, i commenti e i post
pubblicati sui blog (spesso veri e propri diari della nostra vita) o sui Social
Network (Facebook, Twitter, MySpace ecc...) o ancora i video pubblicati sulle
piattaforme dedicate (Youtube, Vimeo ecc...). In pratica tutto ciò che può
contribuire a identificarci.
L’analisi di tutte queste forme e strumenti per comporre un'identità online è in
realtà il sostegno di una visione del sé frammentata e molteplice, in cui un
individuo, grazie a queste possibilità, può costruire diverse entità, ognuna delle
quali sarà utilizzata per altrettanti modi di essere e presentarsi nei diversi contesti
della vita in rete. Proprio questa possibilità rappresenta la rete stessa come uno
spazio di sperimentazione delle proprie personalità, un nuovo moratorium 5 in cui
il confine tra comunicazione online e comunicazione offline si fa sempre più
permeabile man mano che internet entra sempre più a far parte della quotidianità.
4.3 Nomofobia e disturbi da social addiction
sai di essere dipendente da Internet quando... ti alzi alla tre del mattino per andare in bagno e
prima di tornare a letto controlli se hai ricevuto qualche mail (Patricia Wallace, 1999)
La bomba dei rapporti sociali esplosa con l’avvento di Internet nelle case di
tutti ha portato sicuramente enormi, profondi e radicali cambiamenti sia nei modi
5 Concetto psicoanalitico che nella sua versione originale indica quelle situazioni circoscritte in
un periodo di tempo limitato, in cui le persone possono permettersi di sperimentare senza dover
subire conseguenze troppo pesanti. La rete è dunque vista come nuovo moratorium in quanto chi
sperimenta una nuova identità può interrompere il collegamento quando la situazione diventa
troppo pesante o difficile da controllare, nella vita reale invece è più difficile uscire da determinate
situazioni.
83
di pensare e quindi di agire, che in quelli di condividere, comunicare e
socializzare. Il nuovo medium, come abbiamo visto, ha portato con sé una
rivoluzione culturale, e come tutte le forze dirompenti, in poco tempo, ha
modificato ogni aspetto della nostra società a partire dalle sue unità principali: gli
individui. É proprio la natura della rete ad affascinare ed ammaliare gli utenti,
attraverso le sue promesse riesce infatti ad aumentare sempre di più la sua
appetibilità. Su Internet nascono immense comunità virtuali, discussioni di ogni
genere e argomento, giochi interattivi testuali oppure complessi MUD grafici, si
chiacchiera nelle chat con persone lontane molto velocemente, si conoscono
persone che difficilmente si riusciranno mai ad incontrare.
In poche parole è un mondo che non dorme mai e sembra non conoscere limiti.
Per viverlo intensamente, o semplicemente sbirciare al suo interno, occorre
essere “connessi”, cioè abbandonare il proprio corpo e raggiungere virtualmente
la propria identità nella dimensione prevalentemente testuale del web, dove grazie
a semplici click è possibile avere sotto controllo ogni situazione: sia essa una
sessione di gioco, una ricerca oppure una conversazione con persone lontanissime
da noi. Occorre quindi dissociarsi fisicamente dalla realtà materiale per vivere
quella virtuale della rete.
Internet e i suoi strumenti (Social Network su tutti), sono il frutto casuale del
bisogno innato dell’uomo di comunicare con i suoi simili, a prescindere dalle
limitazioni temporali o spaziali, e anche per questo motivo sono sicuramente
dispositivi di grandissima utilità. Ma se utilizzati in maniera inappropriata o
eccessiva possono scatenare vere e proprie situazioni patologiche di dipendenza
con conseguenze gravissime nella vita reale-sociale.
Se da un lato Internet e i Social Network (Facebook, Twitter, My Space ecc...)
sono potenti mezzi aggregativi e sociali, in grado di migliorare enormemente le
potenzialità comunicative di ciascun individuo, dall’altro possono rappresentare
una vera e propria minaccia in quanto un utilizzo incontrollato del medium porta
ad una graduale sostituzione dei rapporti sociali reali con quelli virtuali di qualità
inferiore. Questo è il paradosso della rete: Internet è una tecnologia sociale che in
84
determinate circostanze può provocare il distacco dal sociale e far cadere gli
individui nella solitudine e depressione.
Internet e i Social Network al pari dell’alchool, del fumo e delle droghe
possono creare forme di dipendenza più o meno gravi. Si tratta di veri e propri
disturbi della persona(lità) e come tali vanno curati. Questi possono essere l’IAD
(Internet Addiction Disorder), la Social Network Disorder, la Friendship
Addiction e la Nomofobia.
Si manifestano principalmente in soggetti “predisposti”, ossia che trascorrono
molte ore sul web senza praticamente mai riuscire a staccare il collegamento e
comportano prevalentemente un ossessivo controllo dei nuovi messaggi, notifiche,
aggiornamenti, oltre che una ricerca senza sosta di nuove amicizie.
L’individuo soffre lo status di disconnessione dalla vita online, tanto da
desiderare il momento in cui finalmente potrà accedere ed immedesimarsi al suo
Io virtuale. Ovviamente questo pensiero costante influisce sulla propria vita
privata e lavorativa. Oltre a questo stato di assuefazione al web, che prelude alla
necessità di restare collegato al mondo virtuale per un certo periodo di tempo e
cresce man mano che trascorrono le ore, sono presenti veri e propri disagi fisici
(mal di testa, disturbi del sonno, stanchezza, apatia etc...).
Il web rappresenta nella modernità un mondo sicuro e controllabile dove è
possibile instaurare facili rapporti sociali, senza rischi, poiché questi non
richiedono, come nella vita reale, un contatto diretto faccia a faccia, che per molti
può rappresentare un vero e proprio ostacolo. I Social Network per esempio
rispondono in modo efficace ad alcuni dei bisogni fondamentali dell’essere
umano:
1. bisogni di sicurezza: le persone con cui tendiamo a comunicare nei social
network sono “amici“, non estranei (come in realtà sarebbero da considerare
nella maggior parte dei casi), ed è nel potere di ciascun individuo di decidere
chi è amico e chi no, chi seguire e chi ignorare. É possibile quindi controllare
ciò che egli mostra di sé, della sua vita e condividere con lui esperienze,
commenti etc. ;
85
2. bisogni associativi: con gli amici è possibile condividere, comunicare e
scambiare opinioni, risorse, informazioni, applicazioni, e volendo cercare
qualcuno con cui intraprendere relazioni sentimentali più approfondite;
3. bisogni di autostima: ciascuno ha il controllo della propria friends list e può
decidere in tutta semplicità chi è amico e chi no, chi seguire e chi no, ma anche
gli altri possono farlo: quindi se in tanti lo scelgono come amico allora vuol
dire che è cool;
4. bisogni di autorealizzazione: è possibile raccontarsi nel modo che si
preferisce (talvolta rendendosi diversi da ciò che si è in realtà) ed è possibile
utilizzare tutte le proprie competenze per aiutare gli amici.
Tuttavia i Social Network non forniscono alle persone vera stima di se stesse o
senso di controllo delle situazioni, ma solo sensazioni fittizie e poco durature,
poiché svaniscono non appena chiuso il collegamento, quindi tornando a
confrontarsi nuovamente nella vita reale, dove non c’è più il controllo, le persone
addotte dalle patologie del web sentono la necessità di ricollegarsi. Anche
l’ossessiva ricerca degli amici online è da considerare come una vera e propria
patologia in determinati contesti. Il soggetto è persuaso dall’idea che ad un
elevato numero di “amici” corrisponda ad un alto valore di se stessi agli occhi
delle altre persone. Il problema di fondo è che gli amici spesso sono conoscenti
visti raramente nella vita reale, o peggio ancora mai visti, che mai si
incontreranno o che addirittura in altre circostanze non si sarebbero nemmeno
avvicinati a loro, in poche parole persone selezionate a caso che poco hanno a che
fare con la persona che ne richiede l’amicizia.
Tali richieste sono un sopperire alla poca stima personale del soggetto,
riconducibili quindi ad un senso di inadeguatezza e solitudine che può essere
compensata nella vita online attraverso liste infinite di amici virtuali, solo in così
si ha una soddisfazione e rafforzamento del proprio ego.
In caso di mancata connessione al web si hanno attacchi di panico, agitazione,
ansia, fino a raggiungere stati di irritabilità, disturbi del sonno e depressione. Tutto
ciò ovviamente ha ripercussioni anche gravi sulla vita al di fuori del web:
86
l’ossessione della connessione causa distacco dalla realtà che a lungo termine si
traduce in perdita dei contatti sociali, familiari e lavorativi.
La nomofobia6 , nota anche come sindrome da disconnessione, provoca uno
stato psicopatologico di insopprimibile ansia e paura. Per scatenare questi attacchi
di panico è sufficiente che il proprio smartphone, oppure notebook, a causa di
assenza di segnale sia impossibilitato alla connessione, o peggio che questo sia
stato smarrito o abbandonato da qualche parte. Ciò deriva proprio dal fatto che
grazie al web mobile, Internet è praticabile ovunque, quindi si ha sempre a portata
di mano una soluzione a qualsiasi “problematica” o evenienza si presenti (trovare
un indirizzo o un percorso, trovare un contatto che serve, tenere sotto controllo le
mail, le notifiche di Facebook ecc...). Da qui il terrore a privarsi di una simile
capacità con il rischio di rimanere isolato.
La questione del web e dei disturbi che può causare in determinati individui è
certamente tanto vasta e complessa quanto delicata. Agli albori di Internet per le
masse (anni '90), i soggetti che utilizzavano Internet per un totale di 50 ore
settimanali e per un uso superiore ai sei mesi venivano considerati come individui
disturbati. Oggi Internet è ovunque, lo si può navigare dal computer, come allora,
ma soprattutto in mobilità, sul cellulare, sui tablet, al mare, in montagna, di giorno
di notte, praticamente sempre.
Ha invaso la vita quotidiana.
Chiunque abbia un cellulare di ultima generazione passa più ore connesso di
quanto l’user più addicted avrebbe mai potuto fare 10 o 20 anni fa.
Ciò sicuramente è stato scatenato dall’avvento delle nuove tecnologie,
dall’abbattimento dei costi e dall’esigenza sempre più forte di socializzare e di
rimanere in contatto con gli amici, con la rete.
Con tutto il mondo.
6 Contrazione del termine inglese “no mobile fobia”, ossia la forte angoscia che colpisce un
individuo all’idea di perdere il cellulare o di restare disconnessi dai social network per più di una
giornata.
87
88
89
90
CAPITOLO TERZO:
Dalle Realtà Virtuali alle Realtà Aumentate
5. L’Ultimate Display e i primi passi in Realtà Virtuale
Le rivoluzioni tecnologiche (come abbiamo visto nel primo capitolo) non
avvengono semplicemente perché il progresso umano è un processo inevitabile
che sistematicamente (nel corso dei secoli) avviene portandoci verso nuovi
orizzonti culturali, sociali e tecnici. I veri cambiamenti di paradigma tecnologici
hanno bisogno di incastri e situazioni ben precise. Uno o più visionari devono
avere la disponibilità e l'accesso alle tecnologie di base che rendano possibili le
loro “visioni” e devono incontrare finanziatori che li sostengano economicamente.
Se queste condizioni non vengono rispettate, difficilmente l’idea giusta, anche
fosse la più importante e geniale di tutte, diventa parte integrante di una nuova
tecnologia.
Un esempio di questa “legge” dei paradigmi tecnologici può essere ritrovato in
Engelbart e Licklider. Entrambi hanno avuto idee visionarie: pensare al computer
non come calcolatore, ma come strumento capace di aumentare l’intelletto umano
tramite una collaborazione simbiotica. Licklider trovò subito nell’ARPA un
finanziatore generoso per sviluppare le sue idee, mentre Engelbart dovette
aspettare parecchi anni prima di trovare nello stesso Licklider (IPTO) il sostegno
economico necessario a realizzare la sua visione di computer.
5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di Heilig.
Se Morton Leonard Heilig avesse avuto un supporto finanziario adeguato,
forse le realtà virtuali avrebbero potuto essere sperimentate a fondo già a partire
dagli anni '60 e non grazie all’ausilio tecnologico delle macchine per pensare
bensì alle possibilità offerte dal cinema. Hollywood avrebbe potuto essere la forza
trainante dello sviluppo del nuovo paradigma tecnologico della realtà virtuale.
91
Heilig non era né un programmatore, né un ingegnere del MIT o di altri illustri
istituti Accademici/Universitari, era un visionario di Hollywood, eppure fu il
primo a pensare e sviluppare prototipi di macchinari in grado di portare l’uomo
all’interno del mondo virtuale.
Fu il Cinerama ideato da Fred Waller ad ispirare Heilig nella sua concezione di
esperienza multisensoriale, non tanto per quello che permetteva, ma piuttosto per
quello che annunciava. L’idea di base del Cinerama è piuttosto semplice e fonda
le sue radici sugli aspetti della percezione visiva dell’uomo: i nostri occhi sono in
grado di osservare 155 gradi verticalmente e 185 gradi orizzontalmente. Gli
schermi cinematografici di quegli anni erano in grado di riempire solamente una
piccolissima porzione di quello spazio visivo, seppur molto apprezzati, non
consentivano un’adeguata immersione all’interno dello spazio filmico. Waller non
voleva fare altro che espandere gli schermi attraverso l’utilizzo di proiezioni
multiple e creare una sensazione di coinvolgimento più soddisfacente.
Ideò per l’Aviazione statunitense un visore cinematografico (in uno dei primi
simulatori di volo) con cinque proiezioni di immagini riprese attraverso cinque
angolature leggermente diverse. Ciò permetteva l’addestramento dei piloti anche
per quanto riguarda la loro visione periferica, in quanto l'essere avvolti dalle
immagini in movimento rendeva la simulazione più realistica e quindi più
efficace.
Nel dopoguerra Waller decise di proporre all’industria hollywoodiana una
versione commerciale del suo sistema.
Del resto Waller sapeva che Hollywood avrebbe avuto la necessità di
sperimentare nuove forme di attrazione, data la concorrenza della neonata
tecnologia a tubo catodico televisiva, e un'idea come la sua sicuramente avrebbe
giovato al mondo cinematografico. Gli bastarono infatti poche dimostrazioni per
convincere Mike Todd (un importante produttore dell’epoca) ad investire 10
milioni di dollari sulla sua idea.
92
"This is Cinerama" fu il primo film ad utilizzare la tecnica delle proiezioni
multiple su schermi curvati che circondano il campo visivo degli spettatori. Fu un
successo straordinario.
Heilig in quel periodo si trovava in Italia e avendo sentito parlare di questa
nuova rivoluzionaria tecnica cinematografica, volle subito provarla. Tornò negli
Stati Uniti.
Guardando un film alla Tv o al cinema si è seduti all’interno di una realtà che
osserva un’altra realtà attraverso una finestra in cui avvengono le proiezione di
immagini. Allargando questa finestra fino a immergere fisicamente lo spettatore si
raggiunge un senso di profondo coinvolgimento personale. L’esperienza si sente
non ci si limita più ad osservarla. Heilig cominciò a pensare a metodi e strumenti
per ingannare la gente, convincendola di essere all’interno del film, di essere
all’interno di un’altra realtà. A partire dal 1954 incominciò a creare un concept di
quello che avrebbe dovuto essere il suo progetto più importante: Il teatro
Dell’Esperienza.
The really exciting thing is that these new devices have clearly and dramatically revealed to
everyone what painting, photography and cinema have been semiconsciously trying to do all along
- portray in its full glory the visual world of man as perceived by the human eye (“The Cinema of
The Future”, pubblicato sulla rivista messicana “Espacios” da Morton Heilig,1955)
Heilig voleva espandere la sensazione di coinvolgimento provata con il
Cinerama anche attraverso gli altri sensi e creare così il cinema del futuro. Inizia a
studiare le modalità in cui normalmente i sensi influiscono sull’attenzione
dell’uomo nelle situazioni quotidiane e schematizza i tratti essenziali del cervello,
dei canali sensoriali, della rete motoria, di tutti gli input percettivi principali che
creano il senso della realtà.
Gli occhi grazie ai quali possiamo osservare immagini tridimensionali a colori
180 gradi orizzontalmente e 150 verticalmente, le orecchie che ci permettono di
distinguere volumi, ritmi, suoni, parole e musica, il naso e la bocca per rilevare gli
odori ed i sapori ed infine la pelle, con la quale possiamo identificare la
93
temperatura, la pressione e le texture, sono tutti gli organi che compongono “the
building bricks, which when united create the sensual form of man’s
consciousness”.
Individua anche il grado d'influenza sulla percezione del reale dei vari sensi,
identificando nella vista quello che monopolizza maggiormente la nostra
percezione (70%), mentre l’udito (20%), l’olfatto (5%), il tatto (4%) e il gusto
(1%) sono considerati meno influenti, anche se è dall’insieme di tutti che
possiamo percepire il mondo come reale. Considerare solo la vista come la
principale delle nostra abilità di percezione, sarebbe riduttivo.
L’obiettivo di Heilig era quello di replicare la realtà per ciascuno di questi sensi
all’interno di un teatro appositamente progettato, che chiama appunto Teatro
dell’Esperienza.
[...] La bobina cinematografica del futuro sarà un rotolo di nastro magnetico suddiviso in tracce
separate per ogni modalità sensoriale importante [...] Lo schermo non riempirà solo il 5% del
vostro campo visivo come gli schermi dei cinema rionali, o il mero 7,5% del Wide Screen o il 18%
dello schermo “miracle mirror” del Cinemascope, o il 25% del Cinerama - ma il 100%. Lo
schermo si curverà accanto alle orecchie dello spettatore da entrambi i lati ed oltre il suo limite
visivo sopra e sotto [...] Saranno concepiti mezzi ottici ed elettronici per creare profondità illusoria
senza occhiali. (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da
Morton Heilig, 1955 - traduzione italiana "La Realtà Virtuale" di Howard Rehingold, 1993)
Heilig per la sua idea di cinema del futuro trovò estimatori disposti ad investire
in Messico, ma sciaguratamente poco tempo dopo aver iniziato a sperimentare
alcune proiezioni con lenti ottiche particolari, l’investitore morì in un incidente
aereo. Rientrato negli Usa cercò nuovi finanziamenti e persone disposte ad
aiutarlo nella sua impresa, ma anche in questo caso la cattiva sorte giocò un ruolo
da protagonista: il direttore di una grossa azienda di proiettori interessata al
progetto morì in un incidente aereo. Non se ne fece più nulla.
Heilig decise che se voleva trovare investitori doveva far provare loro
direttamente l’esperienza. Tutto quello che aveva erano solo delle idee e degli
schizzi. Troppo poco per far capire esattamente quello che voleva essere la sua
94
visione di cinema del futuro. Iniziò quindi a progettare e costruire pezzo dopo
pezzo, all’interno del suo garage, una versione monoposto del suo teatro
dell’esperienza, che chiamò Sensorama Simulator.
Il Sensorama era il dispositivo che ha permesso ad Heilig di mettere finalmente
in pratica le sue teorie, anche se si trattava di un dispositivo più simile ad un
Arcade Game anni '80 a gettoni da sala giochi, che ad un cinema ad alto
potenziale tecnologico.
Lo spettatore doveva sedersi e
appoggiare la testa all’interno della
cabina, in cui erano disposti tutti i
replicatori di sensazioni olfattive, uditive,
tattili e visive. Lo schermo ad ampia
estensione che occupava gran parte del
campo visivo e il suono stereo che si
espandeva tutto intorno, amplificavano la
sensazione di essere partecipi all’interno
della scena. Gli scossoni, il vento e gli
odori sincronizzati perfettamente al
filmato rendevano la sensazione quasi una
convinzione di essere lì. Di essere
protagonista di ciò che si “vede” e si
“sente” all’interno del Sensorama.
Heilig aveva inventato la realtà per un
Fig. 12 - Locandina pubblicitaria del Sensorama
di Morton Heilig
nichelino, un dispositivo capace di creare
esperienze di realtà mai provate prima, una simulazione del reale finalizzata
all’intrattenimento, la stessa che oggi si può ammirare in tutte le sue potenzialità,
nei grandi parchi divertimento di tutto il mondo.
Un altro brevetto del 1960 dimostra come Heilig sia stato davvero un
visionario che ha precorso i tempi, e che se non fosse stato per le vicende legate al
95
finanziamento dei suoi progetti, sarebbe indicato da tutti come il fondatore della
realtà virtuale ancor più di Ivan Sutherland.
Heilig infatti aveva lavorato ad un dispositivo Head Mounted chiamato
Stereoscopic-television Apparatus For Individual Use, meglio conosciuto come
Telesphere Mask. Si tratta di una versione portatile ed indossabile del Sensorama
che si posiziona sulla testa, come un casco, e consente di replicare l’esperienza
visiva di una realtà virtuale pre-informatica.
Heilig è stato il pioniere di questa tecnologia e avrebbe potuto portare il mondo
nell’era del Ciberspazio1 già negli anni '60, se solo avesse incontrato le persone
giuste al momento giusto.
Come simulatore ambientale, il Sensorama costituì uno dei primi passi verso la duplicazione
dell’atto dello spettatore di stare di fronte ad una scena reale. L’utente è totalmente immerso in una
cabina progettata per imitare la modalità di esplorazione mentre la scena è rappresentata
simultaneamente ai vari sensi. Il passo successivo consiste nel permettere allo spettatore di
controllare il proprio cammino attraverso l’informazione disponibile per creare una possibilità
direttamente di interazione altamente personalizzata vicina alla soglia dell’esplorazione virtuale.
( “Viewpoint Dependent Imaging” Scott Fisher, 1981)
5.2 L’Ultimate Display di Ivan Sutherland.
Negli stessi anni in cui Heilig brevettava il Sensorama, Ivan Sutherland,
all’epoca dottorando al MIT, conclude il suo percorso di ricerche con la
realizzazione di quello che sarà definito come uno dei software più importanti di
tutti i tempi: Sketchpad. Sutherland grazie alla sua brillante intuizione, ispirata
alle “visioni” Engelbartiane e Licklideriane, era riuscito a creare un sistema di
controllo e comunicazione uomo-computer, attraverso il quale l’interazione
avveniva per mezzo di forme grafiche elaborate in real time, un dispositivo di
puntamento e un display collegato ad un “normale” computer.
1 Termine inglese utilizzato per indicare il dominio caratterizzato dall'uso dell'elettronica e per
immagazzinare, modificare e scambiare informazioni attraverso le reti informatiche e le loro
infrastrutture fisiche.
96
Fu una vera e propria rivoluzione che influenzò notevolmente i percorsi nella
delle future tecnologie dell’interazione tra le macchine e le menti umane.
Con "Sketchpad: A Man-Machine Graphical Communication System" (questo
era il titolo completo della sua tesi di dottorato, supervisionata da Claude
Shannonn) nasce difatti la computer grafica ed il primo sistema di CAD
(computer aided design).
Sketchpad non era soltanto uno strumento per disegnare. era un programma che obbediva alle
leggi che si voleva fossero vere. per disegnare un quadrato si tracciava una linea con la penna
ottica, poi si davano al computer pochi comandi [...] Sketchpad prendeva la linea e le istruzioni e
via! Un quadrato appariva sullo schermo. ("La Realtà Virtuale" Howard Rehingold, 1993,
citazione di Alan key sul software Sketchpad)
Sutherland aveva appena incominciato ad esplorare la soglia di un nuovo
mondo, il mondo della grafica computerizzata, e ben presto sentì l’esigenza di
varcare quella soglia, calandosi letteralmente all’interno di essa.
Voleva portare all’estremo il concetto di contatto intimo tra intelletto umano e
computer che Licklider aveva profetizzato nel suo saggio "Man-Computer
Symbiosis" del 1960.
Nel 1965 Sutherland, succeduto proprio a Licklider al “comando” dell’IPTO,
scrive "The Ultimate Display", un breve saggio in cui espone lucidamente e
profeticamente l’avvento di un nuovo modo di rappresentare le informazioni
generate dai computer.
Il mondo in cui viviamo è un “physical world” in cui le sue proprietà e
caratteristiche fondamentali diventano a noi note solo con l’esperienza. In
particolare i nostri sensi ci danno la capacità di comprendere e prevedere i
comportamenti all’interno di questo mondo. Per esempio, possiamo facilmente
intuire dove un oggetto cadrà, che tipo di forma ha un determinato angolo che non
riusciamo a vedere oppure quanta forza ci occorre per vincere la resistenza di un
oggetto e spostarlo. Quello che ci manca, secondo Sutherland, è la familiarità con
concetti di natura più scientifica ed astratta, difficilmente collegabili
all’esperienza sensoriale diretta.
97
Un display connesso ad un computer ci consente di fare esperienza con questi
tipi di astrazioni, difficilmente realizzabili nel mondo fisico.
It is a looking glass into a mathematicl wonderland ("The Ultimate Display" Ivan Sutherland,
1965)
Per fare in modo che questi display diventino effettivamente gli occhiali
all’interno del mathemtical wonderland generato nella memoria dei computer,
occorre fare in modo che essi coinvolgano più sensi possibili.
Gli esperimenti di Heilig con il suo prototipo di dispositivo Head Mounted
Display Telesphere Mask e più in generale con il Sensorama e il Teatro
dell’Esperienza, hanno dimostrato che il coinvolgimento multi-sensoriale dello
spettatore amplifica la sensazione di “presenza fisica” all’interno della
simulazione di realtà in atto. Sebbene quelli di Heilig siano soluzioni analogiche,
cioè senza il supporto tecnologico di un computer, rappresentano comunque un
percorso interessante da seguire e integrare nei nuovi display digitali, gli stessi a
cui Ivan Sutherland ambisce.
The Ultimate Display è proprio questo. Una visione sulle future capacità
tecnologiche in grado di fornire output e input attraverso l’uso congiunto di tutti i
sensi umani, in modo tale da immergere l’utente all’interno dei dati elaborati dai
computer e dei mondi da esso generati.
Dal momento che i computer, attraverso l’uso di specifici sensori, possono
facilmente rilevare la posizione di molti dei muscoli che compongono il nostro
corpo, è possibile costruendo macchine capaci di interpretare tali movimenti,
interagire direttamente con gli oggetti e i mondi Virtuali generati dagli elaboratori
(per esempio attraverso gli occhi o il linguaggio degli sguardi).
There is no reason why the objects displayed by a computer have to follow the ordinary rules
of physical reality with which we are familiar. [...] The user of one of today's visual displays can
easily make solid objects transparent - he can "see through matter!" Concepts which never before
had any visual representation can be shown, [...] ("The Ultimate Display" Ivan Sutherland, 1965)
98
All’interno di questi nuovi mondi è possibile creare oggetti e strutturare leggi
fisiche a noi poco familiari, in modo tale da poterle studiare allo stesso modo in
cui le potremmo osservare e conoscere nel mondo naturale.
By working with such displays of mathematical phenomena we can learn to know them as well
as we know our own natural world. Such knowledge is the major promise of computer displays.
("The Ultimate Display" Ivan Sutherland, 1965)
L’Ultimate Display descritto e immaginato da Sutherland è una semplice
“stanza”, un ambiente in cui il computer controlla l’esistenza della materia e delle
sue specifiche regole.
Con Sketchpad, Sutherland ha creato una finestra tra il mondo reale e quello
generato attraverso il computer, in cui è possibile osservare, elaborare o creare
oggetti, disegni o progetti, interagire con essi comunque mantenendo un certo
distacco fisico (che può essere rappresentato dai dispositivi di input, dal monitor
ecc...). Con l’Ultimate Display invece abbatte quella stessa finestra permettendoci
di attraversarla e di varcare la soglia dell’esplorazione virtuale dei nuovi mondi e
degli oggetti creati all’interno di essi, a cui viene conferita una connotazione quasi
magica: “Con una programmazione adatta questo tipo di display potrebbe
letteralmente essere il paese delle meraviglie in cui camminò Alice”.
Parallelamente alla rivoluzione informatica che stavano sostenendo Engelbart e
Licklider, Sutherland getta le basi per l’avvento dell’era ciberspaziale, in cui i
concetti di “potenziamento dell’intelletto” e “simbiosi uomo-macchina” vengono
estremizzati. Il ciberspazio è il luogo ideale per familiarizzare con situazioni poco
conosciute, sperimentare ed osare nuove possibili soluzioni ai problemi che la
nostra civiltà deve affrontare e che senza l’ausilio di un’esperienza diretta
sarebbero impossibili da concepire e risolvere.
Sutherland nel 1965, con la descrizione dell’Ultimate Display, non solo
profetizza l’avvento delle realtà virtuali, ma pone anche le basi affinché queste
possibilità non rimangano soltanto sulla carta.
99
A partire dal 1966 (dopo aver lasciato la direzione dell’IPTO a Robert Taylor)
all’interno del Lincoln Laboratory del MIT, Sutherland e il suo staff iniziarono a
condurre i primi esperimenti sulle tecnologie necessarie a realizzare un sistema
coordinato, che consentisse all’utente di camminare e calarsi completamente
all’interno dei (dati generati da un) computer.
Occorreva creare tutto dal nulla.
L’idea fondamentale che è alla base del display tridimensionale è di presentare all’utente
un’immagine in prospettiva che cambia in base ai suoi movimenti. L’immagine retinica degli
oggetti che vediamo, è dopo tutto, soltanto bidimensionale. Perciò potendo porre due immagini
bidimensionali appropriate sulle retine dell’osservatore, possiamo creare l’illusione della vista di
un oggetto tridimensionale [...] L’immagine rappresentata dal display tridimensionale deve
cambiare esattamente nello stesso modo in cui cambierebbe l’immagine di un oggetto reale a causa
di movimenti della testa dello stesso tipo. ("Realtà Virtuali" Howard Rehingold, 1993, citazione di
Ivan Sutherland sul Three dimensional head mounted display)
Fig. 13 - Due immagini della “spada di Damocle” (il Three dimensional head mounted display)
di Ivan Sutherland del 1968.
L’Head Mounted Three Dimensional Display, completato in ogni sua parte nel
1968 e denominato dagli “addetti ai lavori” spada di Damocle, era composto da
sotto-sistemi interconnessi, molti dei quali costruiti proprio durante la prima fase
di sperimentazioni del MIT: “occhiali” speciali contenenti due tubi a raggi
100
catodici, due generatori di linee analogici bidimensionali (display) che deflettono
il segnale ai tubi a raggi catodici, due sensori di posizione della testa, uno
meccanico e l’altro ad ultrasuoni utilizzati per misurare la posizione dell’utente
nello spazio, un computer general purpose, un matrix multiplier e un clipping
divider.
Questi ultimi due sistemi meritano una spiegazione più dettagliata.
Così come osservando nella realtà un oggetto, si ha una sensazione prospettica
che il nostro sistema occhio-cervello è in grado di identificare come autentica,
permettendoci di orientarci e conseguentemente determinare una serie di
informazioni necessarie alla comprensione dell’oggetto stesso (forma,
dimensione, distanza ecc...), anche il dispositivo di Sutherland, per raggiungere il
suo scopo, deve essere in grado di riprodurre lo stesso tipo di sensazione.
L’illusione prospettica degli oggetti virtuali quindi dovrà cambiare in base ai
movimenti della testa e al punto di vista dell’utente, in modo realistico e
convincente.
Osservare un oggetto generato dal computer da angolazioni differenti
all’interno di uno spazio virtuale richiede, ad ogni movimento, l’esecuzione di una
traslazione matematica tra le coordinate dell’utente (del suo punto di vista) e le
coordinate della stanza. Chiaramente più l’ambiente virtuale sarà dettagliato e
ricco di oggetti, più i calcoli da eseguire saranno numerosi e complessi. Sebbene
questi primi passi fatti da Sutherland all’interno delle realtà virtuali comprendano
poco più di cubi wire-frame, la mole di calcolo necessaria a comporre la scena
sarebbe stata comunque eccessivamente complessa da gestire con i normali
hardware a disposizione.
Il primo passo per entrare all’interno del mondo computerizzato era quello di
creare equipaggiamenti hardware special purpose in grado di assumersi i compiti
di traslazione delle coordinate e quelli relativi alla visualizzazione degli oggetti
tramite la prospettiva più appropriata.
Il matrix multiplier e il clipping divider sono le geniali soluzioni hardware che
Sutherland e il suo staff hanno brillantemente sviluppato.
101
Il primo ha il compito di individuare i punti estremi dei vettori che
compongono gli spigoli di un qualsiasi oggetto all’interno dell’ambiente virtuale e
moltiplicarli per i dati forniti dal sistema di rilevamento spaziale posto sopra la
testa dell’utente (nuove coordinate), aggiornandoli automaticamente alla nuova
posizione e spostando così definitivamente la vista dell’oggetto in sincronia con il
movimento della testa dell’osservatore.
Al clipping divider invece è affidato il compito di convertire le informazioni
numeriche di un oggetto tridimensionale in uno bidimensionale ottimizzato per la
rappresentazione sullo schermo grafico del dispositivo head mounted. Inoltre il
clipping divider si occupa di rimuovere tutte quelle linee che compongono
l’oggetto nella sua rappresentazione tridimensionale, che si trovano dietro la testa
dell’utente, fuori dal punto di vista o che sono nascoste dall’oggetto stesso o da
altri oggetti oggetti in primo piano (per esempio guardando una poltrona dal
davanti non è possibile vedere la sua parte posteriore, quando una persona è
seduta sulla poltrona è possibile vedere solo parte di essa).
Sia il matrix multiplier che il clipping divider acquisiscono le informazioni dal
rilevatore di posizione, elaborano i dati ricavati e trasmettono l’output al
generatore di vettori responsabile della visualizzazione di quest’ultimi sullo
schermo. La luce emessa dalle proiezioni dei tubi a raggi catodici (posti accanto
alle tempie) veniva riflessa da una serie di lenti e specchi che producevano
un’immagine virtuale, posta a circa 35 centimetri di fronte all’utente. Tale
immagine appariva come una sovrimpressione sul mondo fisico.
in questo modo il materiale visualizzato può apparire come sospeso nello spazio o coincidere
con mappe, scrivanie, pareti, o tasti di una macchina per scrivere. (“Three dimensional head
mounted display “ Ivan Sutherland, 1968)
Fin dai primi esperimenti Sutherland si preoccupò di trovare valide ed
ingegnose soluzioni per rilevare in tempo reale i movimenti della testa dell’utente,
convinto che gran parte del successo del reality engine fosse legata alla precisione
del sistema di tracking. Come abbiamo visto in precedenza, gran parte del
102
“lavoro” era svolto dall’hardware matrix multiplier e clipping divider, tuttavia essi
recuperavano le informazioni da elaborare direttamente dal sistema di rilevamento
della posizione dell’utente. Quindi se l’obiettivo di Sutherland era quello di calare
le persone all’interno di un mondo virtuale che si comporti prospetticamente in
modo “credibile”, allora era necessario che tutto il sistema, ed in particolare il
dispositivo di tracking, fosse preciso, veloce e quindi affidabile.
Per questo motivo Sutherland decise di sperimentare diverse soluzioni di
rilevamento, in particolare si concentrò su un sistema ad ultrasuoni sperimentale e
su un altro di tipo meccanico.
Il sistema ad ultrasuoni era in grado di rilevare, grazie alla combinazione di tre
trasmettitori ad onde continue, posti direttamente nel dispositivo head mounted,e
4 ricevitori posizionati sul soffitto in corrispondenza dei quattro angoli della
“stanza”, l’esatta posizione della testa dell’utente e i suoi movimenti all’interno di
uno spazio prestabilito. Forniva al fruitore dell’esperienza virtuale un grado di
libertà di movimento superiore rispetto al sistema meccanico, ma era poco
affidabile perché soggetto ad interferenze che compromettevano la lettura corretta
delle coordinate spaziali dell’utente. La tecnologia ad ultrasuoni sperimentata da
Sutherland era ancora ad uno stato embrionale per questo tipo di applicazioni in
cui era necessaria la massima precisione. I risultati raggiunti durante gli
esperimenti comunque facevano ben sperare per il futuro.
Il sistema meccanico invece venne realizzato appositamente per garantire
misurazioni accurate e in tempo reale della posizione della testa. Consisteva in
una coppia di tubi che si agganciavano mediante appositi giunti al dispositivo
head mounted e ad una serie di binari sul soffitto. Il mechanical head position
sensor costringeva l’utente in una morsa vincolante ad un volume di pochi
movimenti della testa: 180 centimetri lateralmente e poco meno di un metro in
altezza. L’utente comunque era libero di muoversi, voltarsi, inclinare lo sguardo in
alto o in basso fino a 40°.
103
Questo tipo di sensore è l’esempio di come la tecnologia analogica-meccanica
degli anni '60 superasse in termini di prestazioni ed affidabilità quelle digitali
dello stesso periodo.
Il reality engine, completo anche della sua componente software, venne avviato
per la prima volta il 1°gennaio del 1970 (dopo tre anni di intenso lavoro, suddivisi
tra il MIT e l’Università dello Utha). Ciò che apparve davanti agli occhi di Daniel
Vickers, studente universitario a cui fu conferito il compito di far funzionare il
software congiuntamente agli hardware del dispositivi HMD, fu un cubo wireframe di circa 6 centimetri per lato, un semplice oggetto fluttuante nello spazio,
fatto di luce e nulla più, ma comunque presente.
Quel cubo rappresentava il futuro.
Negli esperimenti successivi, grazie all’utilizzo di computer più potenti, fu
possibile costruire un’intera “stanza” che circondava l’osservatore. Le pareti erano
sospese nello spazio all’interno della stanza fisica ed ognuna di esse era
contrassegnata da lettere (N,S,W,E)che ne indicavano la direzione (North, South,
West, East) e C per il soffitto e F per il pavimento.
an observer fairly quickly accommodates to the ideas of being inside the displayed room and
can view whatever portion of the room he wishes by turning his head. (“Three dimensional head
mounted display “ Ivan Sutherland, 1968)
La prima stanza del ciberspazio era semplice, quadrata e monocromatica, era la
tana del Bianconiglio nella quale Alice cadde prima di approdare nel paese delle
Meraviglie (per rimanere in tema con la metafora fatta dallo stesso Sutherland nel
suo testo "The Ultimate Display" del 1965), era quel luogo non luogo da cui
poteva partire la nuova era dell’esplorazione ciberspaziale.
Fin dalla prima dimostrazione di Sketchpad, Sutherland aveva intravisto la
possibilità di entrare a stretto contatto con quelle linee che il programma era in
grado di generare attraverso semplici ed intuitivi input. Era fortemente convinto, e
lo sarà sempre di più durante le sperimentazioni della spada di Damocle, che il
ciberspazio possa amplificare le capacità di progettisti e creativi allo stesso modo
104
in cui le altre possibilità informatiche amplificavano le capacità di scienziati e
contabili.
Affinché i mondi generati dal computer possano amplificare il potenziale
umano, è fondamentale che essi siano immersivi e navigabili.
L’idea di immersione è un concetto fondamentale che sta alla base delle
proprietà della realtà virtuale. Essere immersi in un mondo generato dal computer
vuol dire avere l’illusione di essere presenti fisicamente in un luogo in cui ciò che
è visibile si comporta esattamente come si sarebbe comportato nella realtà.
Immersione non vuol dire per forza simulazione della realtà, ma semplicemente
una sua diversa rappresentazione purché sia in grado di convincere i nostri sensi
che ciò che vediamo e sentiamo attraverso il dispositivo HMD è “realmente”
davanti a noi.
Il secondo concetto fondamentale è l’idea di navigazione. Così come aveva
notato Sutherland nell’Ultimate Display, il coinvolgimento multi-sensoriale è
determinante nel creare un'illusione di presenza fisica accettabile all’interno del
mondo virtuale. Per sentirsi parte integrante di un mondo non basta
semplicemente osservare ed ascoltare, bisogna interagire, toccare, spostare,
modificare gli oggetti che compongono la simulazione. Occorre essere attivi e
andarsene in giro (navigare) come se ci si trovasse realmente all’interno di esso.
Nelle prime esplorazioni, la spada di Damocle presentava solamente un primo
abbozzo di sensazione di immersione, era quasi completamente privo della sua
componente esplorativa (navigazione).
Daniel Vickers, il primo ad aver assaporato il magico sapore di un cubetto
all’interno del ciberspazio, suggerì a Sutherland l’utilizzo di un dispositivo di
input da associare al sistema HMD, in modo tale da aggiungere alla semplice
presenza passiva, la possibilità di manipolare direttamente gli oggetti ed interagire
con essi. Di “navigare”.
Un osservatore all’interno dell’ambiente tridimensionale del HMD ha a sua disposizione una
bacchetta magica con la quale può raggiungere e “toccare” gli oggetti sintetici che vede. Una
bacchetta per creare ed interagire con gli oggetti sintetici visibili soltanto a chi indossa il casco
105
cala gli astanti in un’atmosfera di stregoneria ed è alla base per il suo nome Apprendista Stregone.
("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers)
L’Apprendista stregone aumentò sensibilmente il senso di presenza percepito
dall’utente all’interno del mondo virtuale poiché implicava un coinvolgimento
attivo da parte di altri sensi. Rendeva possibili azioni magiche come far apparire
oggetti, allungare, rimpicciolire, ruotare, far scomparire, fondere e separare.
Tutto grazie a pochi semplici comandi.
scoprimmo che il senso di presenza aumentava quando aggiungevamo la bacchetta. Più sensi
vengono coinvolti, più completa è l’illusione ("La Realtà Virtuale" Howard Rehingold, 1993,
Daniel Vickers)
La possibilità di interagire con il mondo che ci circonda è il fattore
determinante che ci permette di conoscere ed esprimere il nostro potenziale e
quello di ciò che ci sta attorno.
5.3 Ambienti Virtuali interattivi: Myron Kreuger
I concetti di immersione e navigazione all’interno di uno spazio
computerizzato non implicano che essi siano per forza generati tramite l’uso di
tecnologie specifiche. Le visioni che creano il coinvolgimento sensoriale
all’interno dello spazio possono essere plasmate attraverso l’uso di mezzi ottici,
elettronici o entrambi. Gli input gestuali che permettono l’esplorazione
dell’ambiente in cui si è immersi sono tendenzialmente legati all’uso di dispositivi
indossabili, quali Head Mounted Display piuttosto che occhiali, bacchette
magiche, tastiere e guanti speciali in grado di rilevare la posizione e i movimenti
delle mani (di questi ultimi ce ne occuperemo nel prossimo paragrafo).
Tuttavia non sono l’unico modo per poter entrare dentro il computer.
Le realtà virtuali, o meglio quelle pratiche tecnologiche che sarebbero
diventate le realtà virtuali, a cavallo tra gli anni '60 e '70 erano ancora in una fase
sperimentale in cui venivano abbozzate le tecnologie del futuro. Sutherland e i
106
suoi colleghi dell’Università dello Utha costruiscono il primo reality engine
capace di proiettare un individuo all’interno di un mondo esplorabile, in cui sono
presenti oggetti tridimensionali osservabili da ogni direzione, semplicemente
muovendo la testa. La potenza degli elaboratori di questi anni era in grado di
gestire in tempo reale solamente immagini geometriche, wire-frame basilari, senza
superficie o colore. Per creare mondi virtuali accettabili sia sotto il profilo
dell’esperienza che dell’illusione delle presenza all’interno di essi, occorreva un
radicale incremento della potenza di calcolo e delle tecnologie di input ed output
sensoriali.
Oppure sarebbe stato necessario un approccio diverso.
Mentre la tendenza delle ricerche e sperimentazioni future sulle realtà virtuali
sembra essere destinata verso una simulazione del reale, arricchita da elementi
“magici” (finalizzata in particolare alla creazione di strumenti di ambito militare,
ARPA, NASA ecc..), una sensibilità non proveniente né dall’ingegneria hardware
né da quella software, incominciò a strutturare un’idea di realtà virtuale come
mezzo per l’espressione artistica nell’interazione uomo-computer.
Myron Krueger era quella sensibilità.
Artista e tecnico sognatore, laureato in Computer Science presso l’Università
del Wisconsin, così come Morton Heilig e Douglas Engelbart, ebbe una “visione
differente” della tecnologia, e come loro fu costretto a lottare duramente affinché
le sue idee potessero realizzarsi.
Krueger ha sempre sostenuto che gli effetti sonori e visivi, le immagini video e
la grafica computerizzata, le tecnologie di input, i dispositivi di output ed i
software che controllano tutto il sistema, possono e devono essere considerati
come strumenti in grado di suscitare nuovi tipi di comportamenti umani. Le
componenti psicologiche, sociali, comportamentali ed artistiche della realtà
virtuale sono gli aspetti più interessanti che lo stesso Krueger intende studiare a
fondo.
La realtà virtuale deve essere soprattutto esperienza umana diretta. Deve essere
consapevolezza di un mondo remoto o innaturale che ci permette di sperimentare,
107
esplorare, creare, modificare, conoscere e comunicare attraverso i nostri sensi con
ciò che ci circonda. Deve generare e pretendere interazione, poiché è proprio a
partire da questo lato esperienziale che è possibile generare nuova conoscenza.
Myron Krueger crede così fortemente nelle possibilità espressive delle
tecnologie legate alla cultura del ciberspazio, tanto che a partire dalla fine degli
anni '60 (parallelamente ai lavori di Ivan Sutherland) incomincia a sperimentare
l’utilizzo delle immagini elettroniche interattive all’interno di ambienti artificiali,
costruiti manipolando contemporaneamente sia l’aspetto visuale che quello
sonoro. La componente virtuale nella concezione Kruegeriana è strettamente
legata allo spazio fisico in cui è presente l’osservatore ed è lì che fisicamente
avviene l’immersione. L’utente che è all’interno di questi ambienti, non ha
bisogno di dispositivi o periferiche invasive per essere proiettato nell’esperienza
virtuale, ma è l’ambiente stesso che manifesta la sua virtualità attraverso suoni,
immagini e interazioni, direttamente dalle pareti che compongono la stanza.
L'individuo si trova così a partecipare consapevolmente ad una manifestazione
che si fa gioco dei cliché della percezione del reale attraverso inusuali esperienze,
sperimentazioni ed esplorazioni al di fuori della normalità e le possibilità di
personalizzare graficamente l'ambiente circostante in cui è inserito il suo
simulacro corporeo. All'interno di questi responsive envirorments l'individuo è
portato a sperimentare direttamente il linguaggio digitale in tutte le sue forme
utilizzando il suo corpo e attraverso i dispositivi di interfaccia può ibridarsi con
l'ambiente-macchina in cui è immerso.
In poche parole, quello che Krueger intende realizzare è difatti una media room
come alternativa ai reality engine.
Nell'aprile del 1969 Myron Krueger, presso la Memorial Union Gallery
dell'Università del Winsconsin, assieme a Dan Sandin, Jarry Erdman e Richard
Venezesky, apre ufficialmente al pubblico GLOWFLOW, la prima di una serie di
realtà artificiali, in cui lo consacreranno come uno dei padri fondatori della realtà
virtuale.
108
In realtà GLOWFLOW era un progetto Universitario disegnato appositamente
per studiare il rapporto tra arte e tecnologie, a cui Krueger era stato invitato a
partecipare.
GLOWFLOW non faceva uso di grafica computerizzata ma creava effetti
visivi tramite l'utilizzo di altre tecnologie. Una semplice rete di tubi riempiti con
fluidi fosforescenti collegati sapientemente ad un sistema computerizzato e a
sintetizzatori sonori, rendevano uno spazio buio in qualcosa che nessuno aveva
mai visto prima.
Grazie alla presenza di pannelli sensibili alla pressione incastrati nel
pavimento, il pubblico semplicemente camminando all'interno della stanza
interagiva inconsciamente con essa. Le pareti dell'ambiente GLOWFLOW erano
rivestite da colonne verticali opache e tubi di vetro trasparente orizzontali. Le
particelle fosforescenti erano sospese nell'acqua contenuta all'interno dei tubi che
veniva pompate velocemente da una parte all'altra della stanza ad ogni input
generato dal pavimento. Passando attraverso le colonne opache (che al loro
interno contenevano una luce nascosta) i fosfori venivano attivati
temporaneamente, generando così vettori di luce che schizzavano nello spazio per
poi ritornare nell'oscurità. Simultaneamente all'effetto visivo, venivano eseguiti
suoni sintetizzati elettronicamente. Le possibili configurazioni sonore e visive si
accendevano e si spegnevano in base ad una serie di istruzioni provenienti dal
minicomputer nascosto, che elaborava gli input e ne determinava un conseguente
output più o meno casuale.
La gente reagiva all'ambiente in modo sorprendente: si formavano gruppi di persone fra loro
estranee. Giochi, battimani e canti nascevano spontaneamente. La stanza sembrava soggetta a
sbalzi di umore, a volte piombava in un silenzio di tomba, a volte era rumorosa e disordinata.
Ognuno si inventava un proprio ruolo. [...] Altri si comportavano da guide, spiegando che cosa
erano i fosfori e che cosa stava facendo il computer. Sotto molti punti di vista la gente all'interno
della sembrava primitiva, intenta ad esplorare un ambiente che non comprendeva, tentando di farlo
corrispondere a ciò che già sapeva o si aspettava. [...] molti erano preparati a sperimentare questo
aspetto e se ne andavano convinti che la stanza aveva reagito alle loro azioni in modi determinati,
mentre in realtà non era così. ("La Realtà Virtuale" Howard Rehingold, 1993)
109
Lo spettacolo di luci e suoni artificiali che si sviluppava all'interno di
GLOWFLOW era veramente qualcosa di mai visto prima e di sicuro impatto
emozionale. Tuttavia per Krueger non era importante il fattore estetico in sé, ma
riteneva molto più interessante osservare il modo in cui questo nuovo tipo di
luogo suscitava forti reazioni umane. Grazie a GLOWFLOW Krueger ebbe il
modo di concepire alcune idee che lo influenzeranno nel corso delle successive
opere:
1. l'arte interattiva è potenzialmente un medium di rappresentazione ricco,
abbastanza distante dalle preoccupazioni della scultura, dell'arte grafica o
della musica;
2. al fine di rispondere in modo intelligente, il computer deve poter percepire
il più possibile dal comportamento dei partecipanti;
3. al fine di concentrarsi sui rapporti tra gli ambienti interattivi e i
partecipanti, è necessario coinvolgere solo un piccolo numero di persone in un
dato momento;
4. i partecipanti devono essere consapevoli di come l'ambiente sta
rispondendo;
5. la scelta dei sistemi di risposta sonori e visivi deve essere dettata dalla loro
capacità di trasmettere una grande varietà di relazioni concettuali;
6. la risposta visiva così come quella musicale e sonora non dovrebbe essere
giudicata arte. L'unica preoccupazione estetica a cui bisogna prestare
attenzione è la qualità dell'interazione;
L'indagine di Krueger all'inizio della sua carriera artistica, circa le
caratteristiche peculiari dei computer che avrebbero reso possibile la creazione di
una forma pura di computer art, si trasformò, dopo GLOWFLOW, in messa in
pratica delle sue stesse ipotesi. Gli ambienti reattivi, come iniziò a chiamarli,
divennero laboratori per scoprire i modi in cui gli esseri umani possano entrare in
relazione con l'ambiente tecnologico, erano i luoghi di sperimentazione formativa,
psicologica ed artistica del comportamento umano nelle sue espressioni sociali.
110
I responsive environments di Krueger non erano semplici espressioni artistiche,
ma genuine realtà artificiali che presentavano regole sociali ed opportunità
comunicative invisibili, capaci di incoraggiare determinati comportamenti e di
scoraggiarne altri, di amplificare alcuni aspetti dell'intelletto umano e di
mascherarne altri. Ognuno degli ambienti sviluppati da Krueger indaga su queste
possibilità, generando grazie ai partecipanti e alla partecipazione degli ambienti
stessi, esperienze immersive e completamente navigabili.
Dopo GLOWFLOW del 1969, Krueger si dedicò alla realizzazione di
METAPLAY, presentato un anno dopo (maggio del 1970), nuovamente alla
Memorial Union Gallery di Madison. Con METAPLAY secondo Krueger "i
canoni di arte e bellezza vennero accantonati. L'attenzione si era incentrata
sull'interazione stessa e sulla consapevolezza dell'interazione dei partecipanti".
Nel nuovo ambiente interattivo Krueger oltrepassò la semplicità di
GLOWFLOW , includendo all'interno del sistema videocamere, schermi
retroproiettati, grafica computerizzata e circa 800 interruttori sensibili alla
pressione.
METAPLAY era la messa in pratica delle sue considerazioni dopo
GLOWFLOW, si avvaleva della potenza di calcolo di un PDP-12 (il discendente,
dieci anni dopo, del PDP-1, che aveva scatenato la "visione" di Licklider) per
facilitare una relazione real time tra l'ambiente e i suoi partecipanti.
Fig. 14 - L’immagine di sinistra riporta la struttura della camera scura di GLOWFLOW,
caratterizzata da tubi fluorescenti. L’immagine di destra invece rappresenta in modo schematico
il funzionamento del METAPLAY.
111
L'ambiente progettato da Krueger era composto da due strutture situate in
edifici diversi: una stanza METAPLAY (dove avviene la partecipazione) e una
dedicata alla regia. Una parete della stanza METAPLAY era occupata da un
enorme schermo di retroproiezione (250 cm x 300 cm) in cui veniva proiettato
l'otuput visivo. Una videocamera, posizionata davanti allo schermo, era puntata
direttamente verso i partecipanti e consentiva di acquisirne in tempo reale
l'immagine video.
All'interno del centro di controllo, situato a circa quattrocento metri di distanza,
c'era l'artista (che non per forza doveva essere tale) che poteva disegnare
attraverso una tavoletta grafica e visualizzare il risultato su un sistema special
purpose. Una seconda videocamera acquisiva le immagini generate dall'artista, le
inviava ad un mixer che le combinava assieme a quelle generate dalla
videocamera nella stanza METAPLAY.
Sia le immagini computerizzate che le quelle convertite erano sotto il controllo
diretto dell'operatore che aveva il compito ed il potere di sovrapporre le immagini
computerizzate tracciate con la tavoletta grafica alle immagini del pubblico
dell'altra sala. Alcuni comandi erano stati programmati in modo tale da consentire
all'artista di manipolare le immagini, rimpicciolirle, espanderle, applicare ad esse
effetti speciali.
I partecipanti potevano guardare lo schermo ed osservare le proprie immagini
video; talvolta quelle immagini video venivano arricchite dalle immagini grafiche
generate dall'artista nel centro di controllo. Gli interruttori sensibili alla pressione,
che erano nascosti nel pavimento sotto una superficie di polietilene nero,
consentivano ai partecipanti di interagire con gli output visivi e sonori mediati
dall'operatore del un centro di controllo.
Con l'obiettivo di provocare una reazione in uno dei primi gruppi in visita al
METAPLAY, Krueger scelse uno dei partecipanti ed utilizzò la tavoletta grafica
per sovraimporre un contorno luminoso alla sua mano. Quando il partecipante
muoveva la mano, Krueger velocemente disegnava un nuovo contorno della mano
nella sua nuova posizione. Poi il partecipante rovesciò la situazione trasformando
112
Krueger da artista a collaboratore di una performance: cominciò ad utilizzare il
dito come una stilo ed imitò l'atto di disegnare una linea a mezz'aria. Krueger
disegnò una linea che seguiva il suo gesto. La linea apparve sullo schermo e fu
vista da tutti i partecipanti. Improvvisamente i partecipanti scoprirono che era
possibile interagire con le immagini sullo schermo e che potevano passarsi il
controllo del dito magico toccandosi le dita.
Krueger continuò a giocare con i partecipanti in una forma di interazione che
non era stata prevista inizialmente, rivelatasi grazie al comportamento dei
partecipanti e questi ultimi continuarono ad esprimere se stessi attraverso le nuove
possibilità offerte dallo spazio artificiale, scoprendo così un nuovo strumento.
Tra maggio e giugno del 1971, presso la Memorial Union Gallery, Krueger
esibisce PSYCHIC SPACE, un ambiente composito ideato come strumento per
creare al suo interno tutta una serie di realtà e sperimentazioni differenti: era sia
uno strumento di espressione musicale che una ricca esperienza di visione
interattiva.
Le pareti ed il soffitto erano ricoperte di polietilene nero, e il pavimento, così
come per i precedenti responsive environment, era composto da una fitta griglia di
moduli sensibili alla pressione. Una delle pareti in realtà era un finto muro che
“nascondeva” l’enorme schermo di retroproiezione, dove veniva presentato ai
partecipanti l’output visivo, e un elaboratore PDP-11 che aveva il controllo degli
input proveniente dai sensori e del suono all’interno della stanza. Il computer
comunicava inoltre con la cabina di controllo, situata dall’altra parte del campus,
in cui un Graphic Computer Display Adage AGT-10 (lo stesso tipo di elaboratore
grafico di METAPLAY) elaborava in tempo reale i dati ricevuti dal PDP-11 e
generava il flusso video (tramite una videocamera puntata direttamente sul
monitor grafico) che veniva proiettato all’interno della stanza PSYCHIC SPACE.
In questo modo, la stretta relazione tra i movimenti dei partecipanti all’interno
dello spazio fisico e la conseguente risposta dei dispositivi di output era resa
esplicita nella progettazione dell’ambiente stesso.
113
L’obiettivo di Krueger era quello di incoraggiare i partecipanti ad esprimere se
stessi attraverso un ambiente sensibile che reagiva direttamente (e in modo
evidente) in base ai loro movimenti. Una delle prime applicazioni di PSYCHIC
SPACE consisteva in un semplice gioco di interazione: un programma rispondeva
automaticamente ad ogni passo delle persone che entravano all’interno della
stanza con suoni elettronici. La tipica reazione, subito dopo aver “svelato” il
meccanismo di interazione, era quella di saltare
da una parte all’altra del pavimento, di rotolare,
di correre, di scivolare ecc...
Altri esperimenti di questo tipo vennero
proposti nel corso dell’esposizione di
PSYCHIC SPACE, ma è con The Maze che
Krueger riuscì a creare all’interno dello spazio
virtuale definito dal display video e dal
pavimento in grado di rilevare la posizione del
partecipante, un'esperienza interattiva più
Fig. 15 - Appunti di Krueger riguardanti
PSYCHIC SPACE.
articolata e decisamente più interessante.
Camminando all’interno di PSYCHIC SPACE
da solo, un partecipante a The Maze riconosce sullo schermo un simbolo grafico
corrispondente alla sua posizione fisica nella stanza. Ogni suo spostamento nello
spazio è corrisposto da uno equivalente del simbolo grafico presente nello
schermo (spostandosi in avanti il simbolo grafico si muove verso la parte alta
dello schermo, allontanandosi dallo schermo fa spostare il simbolo verso la parte
bassa dello schermo).
Quando il partecipante sembra aver capito la relazione tra il movimento
all’interno dello spazio e la posizione dell’oggetto grafico, il sistema interviene
inserendo un secondo simbolo sullo schermo in un punto differente.
Il partecipante inevitabilmente cercherà di capire cosa succede se raggiunge la
stessa posizione del nuovo oggetto grafico. Una volta raggiunto il target il
114
labirinto appare magicamente sullo schermo: il partecipante si muove fisicamente
nell’ambiente oscuro e non visibile, proiettandosi all’interno del labirinto virtuale
osservando se stesso sotto forma di simbolo.
Il cercare di uscire dal labirinto, quindi raggiungere l’ipotetica vittoria del
gioco, generava un ulteriore labirinto. Ben presto il partecipante scopriva che non
c’era un modo chiaro per vincere.
Se il partecipante decideva di “imbrogliare” passando attraverso i muri virtuali
del labirinto, il sistema reagiva deformando se stesso o semplicemente sfasava la
posizione del simbolo grafico (rappresentante lo spettatore) rispetto alla sua
posizione all’interno della stanza.
In questo modo lo scopo dell’interazione iniziava a diventare più chiaro:
Krueger voleva giocare con i confini mentali che finge esistano, come regole di un
labirinto senza regole2. The Maze era un gioco concettuale che utilizzava
movimenti e segnali visivi come segni che venivano interpretati all’interno dello
spazio di PSYCHIC SPACE per creare un luogo virtuale che esisteva all’interno
della mente del partecipante. Uno spazio psichico nascosto all’interno di una
stanza buia che era il risultato di un processo di sperimentazione, frustrazione,
interazione, esperienza, esplorazione e continua scoperta.
Gli esperimenti di Krueger condotti tra il 1972 e il 1974 sull’utilizzo di sistemi
differenti per rilevare la posizione di persone all’interno di un ambiente e reagire
alle immagini video, lo condussero allo sviluppo di un vero e proprio engine per
Artificial Reality. Il suo successivo lavoro è stato il frutto di questi esperimenti e
fu progettato per diventare un laboratorio espandibile, che nel corso degli anni si
sarebbe arricchito di nuove funzionalità e tecnologie.
VIDEOPLACE nel 1975 era quel laboratorio, seppur in versione preliminare.
Grazie alla sua decennale esperienza nello sviluppo di sistemi di rilevamento
dei gesti e delle posizioni delle persone all’interno di uno spazio fisico, alle
capacità di mixaggio video e della computer grafica, Krueger iniziò a rendersi
2
"La Realtà Virtuale" Howard Rheingold, 1993
115
conto di come l’evoluzione della potenza degli elaboratori poteva accrescere le
possibilità di interazione dei suoi responsive environments.
Inoltre aveva ormai capito che, mentre i corpi dei partecipanti sono vincolati da
leggi fisiche (gravità), le loro immagini potevano essere spostate sullo schermo,
ridotte, ruotate, colorate e digitate insieme in modo arbitrario.
Quindi una maggiore potenza di elaborazione video poteva essere utilizzata per
mediare l'interazione e le consuete leggi di causa ed effetto con alternative
proposte dall’artista.
Ben presto VIDEOPLACE divenne l’incarnazione delle sue idee sugli ambienti
creati dalle percezioni umane stimolate o mediate da tecnologie video ed
informatiche.
VIDEOPLACE è un ambiente concettuale privo di esistenza fisica. Riunisce persone situate in
luoghi differenti all’interno di un’esperienza visiva comune, permettendo loro di interagire in modi
inaspettati tramite il mezzo video. Il termine VIDEOPLACE è basato sulla premessa che l’atto
della comunicazione crea un luogo che è composto dalle informazioni che tutti i partecipanti
condividono in quel momento. [...] VIDEOPLACE tenta di aumentare questa percezione del
luogo, includendo la visione, la dimensione fisica ed una nuova interpretazione del tatto. ("La
Realtà Virtuale" Howard Rehingold, 1993)
Le prime versioni di VIDEOPLACE consistevano in due o più stanze separate
geograficamente (che possono essere adiacenti o a centinaia di chilometri di
distanza) l’una dall’altra. In ogni ambiente una sola persona poteva entrare in una
stanza buia dove videocamere, mixer e proiettori consentivano di interagire con le
immagini video provenienti dalle altre stanze. L’aspetto più interessante di questo
tipo di interazione a distanza era che le persone si identificavano con le proprie
immagini video, anche se sotto forma di silhouette. Quelle silhouette li
rappresentavano non solo visivamente, ma anche fisicamente, erano la loro
trasposizione in uno spazio virtuale. Durante i primi esperimenti di
VIDEOPLACE, Krueger ed un suo assistente (situato in un’altra stanza remota)
stavano usando le mani per indicare gli oggetti all’interno dello spazio virtuale
condiviso: l’immagine della mano di Krueger si sovrappose a quella del sua
116
assistente che reagì di istinto spostando la mano, proprio come se fosse stato
toccato fisicamente.
Il nuovo spazio comunicativo non era solamente qualcosa di immateriale in cui
le immagini video potevano interagire tra loro, ma era un vero e proprio spazio
corporeo con precise sensibilità sui confini del corpo virtuale degli altri
partecipanti. Le azioni e i movimenti delle silhouette dei singoli partecipanti
provocavano reazioni fisiche, visceralmente connesse con la percezione di sé
stessi all’interno dell’ambiente condiviso.
Fin dal 1977 Krueger riconobbe le potenzialità comunicative di
VIDEOPLACE.
VIDEOPLACE non era solamente un nuovo modo di interagire con il
computer, ma era anche una nuova forma di telecomunicazione.
L’ambiente reattivo non si limita all’espressione estetica. È un potente strumento con
applicazioni in molti campi. VIDEOPLACE generalizza in modo chiaro l’atto della
telecomunicazione. Crea una forma di comunicazione così potente che due persone potrebbero
scegliere di incontrarsi virtualmente, anche se fosse possibile per loro incontrarsi fisicamente. ("La
Realtà Virtuale" Howard Rehingold, 1993)
Fig. 16 - Esempi di rappresentazioni in VIDEOPLACE.
La struttura di VIDEOPLACE rimane sostanzialmente la solita di PSYCHIC
SPACE e METAPLAY, una stanza con uno schermo video delle dimensioni di una
parete ed una videocamera. Quello che Krueger cercò di implementare era
l’hardware necessario per visualizzare le immagini, mescolarle con elementi
grafici e per conferire alla stanza una maggiore sensibilità nel comprendere il
comportamento umano.
117
Krueger fece esattamente ciò che Ivan Sutherland aveva fatto con il primo
display Head Mounted quando costruì gli hardware special purpose clipping
divider e matrix multiplier per eseguire le funzioni speciali complesse, di cui il
suo sistema aveva bisogno, il più velocemente possibile.
Implementò, tramite una combinazione hardware e tecniche software di analisi
delle immagini video, un sistema special purpose per riconoscere a partire dalle
silhouette i gesti e la posizione dei partecipanti all’interno di VIDEOPLACE.
Concentrandosi sulle linee che formano le silhouette, Krueger era in grado di
rilevarne i contorni, determinare le intersezioni degli oggetti, calcolare
l’orientamento e il movimento. Una linea su uno schermo visibile ad un
partecipante consiste in una serie di pixel adiacenti che vengono attivati dal fascio
di elettroni del tubo a raggi catodici; la posizione e lo stato dei singoli pixel (come
avvenne per l’ideazione dell’interfaccia grafica bit-mapped) possono essere
memorizzati ed aggiornati nella memoria del computer. Il computer
conseguentemente, tramite una moltitudine di calcoli, può determinare se una
linea è in quiete o in movimento, può rilevate la sommità o la base di
un’immagine, può distinguere le linee rette dalle curve. Grazie a queste e ad altre
analisi di questo tipo, in pratica diventa possibile creare in tempo reale un modello
dei movimenti dei partecipanti ripresi dalla videocamera.
Krueger costruì processori speciali (algoritmi di visione ottimizzati nel silicio)
per ognuna di queste analisi delle immagini video.
Divennero circa 12 nel 1990.
Krueger con VIDEOPLACE voleva essere in grado di esaminare una silhouette
video e determinare automaticamente se la persona nell’immagine stava facendo
un gesto. Il suo obiettivo divenne più raggiungibile grazie allo studio approfondito
della modalità della percezione umana: i nostri occhi sembrano avere circuiti
dedicati per scoprire contorni, oggetti che si muovono velocemente, punti di
rosso, piccole quantità di luce e movimenti impercettibili all’interno di grandi
spazi. Grazie a queste “scorciatoie” possiamo riconoscere le forme e i loro
movimenti senza pensarci. Krueger capisce quindi che nel contesto di un corpo
118
umano la linea più alta di una silhouette rappresenta la sommità della testa,
l’estremo più a destra di una linea sottile significa la punta di un dito e che la
punta di un dito indica prestare attenzione a dove esso è puntato.
Tramite accorgimenti di questo tipo, VIDEOPLACE raggiunge un livello di
sensibilità mai raggiunti prima, rappresenta la massima espressione delle idee di
realtà artificiali che Krueger voleva manifestare al mondo.
Uno degli esperimenti più significativi di VIDEOPLACE legati alla sensibilità
del contesto, si chiamava CRITTER.
Fig. 17 - Esempio di interazione tra una persona e CRITTER.
All’interno di una stanza assieme all’immagine video della silhouette del
partecipante, appare una piccola creatura artificiale animata, rotonda con quattro
zampette, che è in grado di interagire direttamente con essa: se l’utente sta fermo
CRITTER si muove verso di esso, se cerca di prenderlo l’animaletto fugge. A
seconda dei movimenti e della successione delle interazioni con il personaggio
animato e con l’ambiente circostante, CRITTER eseguirà azioni e si atteggerà
apparentemente con modalità tipiche di una creatura intelligente.
119
Gli ambienti descritti da Krueger nel corso della sua brillante carriera
all’interno dell’artificial reality, suggeriscono un nuovo mezzo d'arte sulla base di
un impegno di interazione in tempo reale tra uomini e macchine.
Tale mezzo artistico è composto da sensori, display e sistemi di controllo.
Accetta input dai partecipanti e genera output riconoscibili come
corrispondenti al loro comportamento. Il rapporto tra input e output è arbitrario e
variabile, progettato in modo tale da permettere all'artista di intervenire tra
l'azione dei partecipanti e i risultati percepiti attraverso gli schermi o esperienze
sonore.
All’interno dei responsive environment di Krueger il movimento fisico del
partecipante può causare suoni, generare immagini grafiche, sovrapposizioni
video che gli consentono di navigare all’interno di uno spazio visivo definito un
computer. È la composizione dei rapporti tra azione e reazione che è importante.
La bellezza della risposta visiva e auditiva degli ambienti che crea, è del tutto
secondaria. La risposta è il mezzo!
L’indagine di Krueger è legata soprattutto alle modalità con cui il medium
diventa strumento in grado di approfondire gli aspetti comportamentali,
psicologici e comunicativi che avvengono all’interno delle esperienze artificiali.
Così come una forma d’arte, i medium di Krueger sono unici. Invece di creare
un dipinto, una scultura, l’artista delle realtà artificiali sta creando una sequenza di
possibilità. Al contrario, il pubblico non è semplicemente l’osservatore distaccato
museale, ma è attivamente coinvolto nella creazione dell’opera d’arte.
Le opere di Krueger sono dei contesti di interazione, in cui i fruitori possono
dare vita, più o meno spontaneamente e collettivamente all’evento artistico, che è
in continuo divenire e sempre mutevole. Il senso dell’opera è costruito
attivamente attraverso l’azione fisica dei partecipanti all’interno dell’ambiente
stesso, ma è soprattutto grazie al mezzo tecnologico che è possibile generare una
fusione tra il corporeo e gli elementi video-grafici dei responsive environments.
Un altro aspetto determinante delle opere di Krueger (data la loro caratteristica
di essere luoghi sensibili al comportamento umano) è che i complessi elementi
120
fondamentali che stanno alla base del loro linguaggio e dei loro meccanismi di
interazione, sono facilmente elaborabili dalla mente del fruitore in modo semplice
ed intuitivo, creando così un continuo scambio di aspettative, illusioni, azioni e
reazioni tra l’ambiente e il partecipante.
Ognuna delle esperienze dei mondi di Krueger è strettamente personale, ed è
legata alle capacità espressive e creative di ogni singolo individuo che vi
partecipa: l’opera, e conseguentemente il suo significato, quindi non è unica, ma
sono tante quanti sono i personaggi che interagiscono con essa.
man-machine interaction is usually limited to a seated man poking at a machine with his
fingers...I was dissatisfied with such a restricted dialogue and embarked on research exploring
more interesting ways for men and machines to relate. (Myron Krueger)
5.4 L’ingresso nel Cyberspazio
L’idea di interagire con un ambiente fisico intelligente, che capisce i nostri
comportamenti, rispondendo di conseguenza, e che proietta la mente umana
all’interno di una nuova forma di esperienza artificiale strettamente collegata allo
spazio in cui si trova il corpo, può essere considerata per molti aspetti
rivoluzionaria. Sebbene i primi approcci alle realtà virtuali tra la fine degli anni
'60 e la prima metà degli anni '70 siano da considerare come i primi “voli” dei
fratelli Wright, avevano comunque tracciato il percorso da seguire per ciò che
avrebbe dovuto essere il futuro. Ivan Sutherland sperimentò i primi dispositivi
Head Mounted e i primi dispositivi di input gestuali (apprendista stregone),
diversamente Myron Krueger aveva concepito un'idea differente di realtà virtuale:
non sarebbero stati gli ingombranti (ed isolanti) marchingegni a condurre l’uomo
all’interno di mondi artificiali, bensì le pareti di una stanza appositamente
studiata.
A Myron Krueger, come abbiamo visto, interessavano gli aspetti artistici,
comportamentali, performativi e comunicativi che potevano essere generati
all’interno di questi ambienti. Inevitabilmente per raggiungere il suo scopo ha
121
dovuto costruire hardware special purpose ed utilizzare tecnologie informatiche
all’avanguardia (come il riconoscimento delle forme, degli input corporei ecc...),
“influenzando”, visti i risultati raggiunti, anche altri pionieri dei mondi artificiali
in quella che era la sua idea di approccio alle realtà virtuali.
La Media Room costruita dai ragazzi dell’Architecture Machine Group (ARCHMAC3) del MIT può essere considerata come il frutto dell’influenza di Krueger
negli ambienti di ricerca più legati all’ARPA e ad un certo tipo di concezione delle
tecnologie.
Era una stanza dalle dimensioni e dall’aspetto simili ad un comune ufficio, al
suo interno però c’erano un mini computer che controllava i display e gli altri
device della stanza, una sedia controller e uno schermo di retroproiezione grande
come una parete. Come negli ambienti di Krueger, questa stanza era un
dispositivo di immersione all’interno di un mondo virtuale, ma differisce da essi
in quanto la personificazione del fruitore con ciò che lo circonda visivamente,
sonoramente, fisicamente, avviene come una navigazione all’interno di uno spazio
di informazioni. La Media Room è il mezzo principale dell’ARCH-MAC per
condurre ricerche nell’ambito di ciò che chiamano Spartial Data-Managment
System o SDMS. Un concetto molto interessante che incominciò lentamente a
prendere forma già a partire dalla fine degli anni '70. Secondo i ricercatori
dell’ARCH-MAC, soprattutto per Richard Bolt e Nicholas Negroponte, i dati
immagazzinati all’interno dei computer potevano essere rappresentati in qualche
forma visibile ed esplorati cognitivamente, eseguendo una specie di navigazione
fisica attraverso il mondo dei dati.
3 Nel 1967 all’interno del MIT grazie anche al sostegno dell’ARPA, Nicholas Negroponte
fonda l’Architecture Machine Group (ARCH-MAC), un laboratorio creativo che aveva come
obiettivo principale lo studio di nuovi approcci all’interazione uomo-computer. I computer,
secondo Negroponte avrebbero potuto accrescere le potenzialità intellettuali e l’immaginazione
degli esseri umani combinando le capacità di rappresentazione cinematografiche con il potere di
elaborazione delle informazioni tipico dei calcolatori.Così come precedentemente accaduto
all’ARC e successivamente al PARC, all’interno dell’ARCH-MAC si voleva inventare il futuro. I
loro esperimenti partirono dall’esplorazione delle tecnologie già disponibili e si indirizzarono su
quelle che sarebbero da li a poco arrivate (riconoscimento vocale, film olografici).I campi di
ricerca dell’ARCH-MAC comprendevano le scienze cognitive, quelle informatiche, quelle
cinematografiche e quelle delle telecomunicazioni. Nel 1985 L’ARCH-MAC diventa MEDIA
LAB, tuttora ancora attivo presso il MIT quale istituto di ricerca sulle tecnologie, il design e il
multimedia.
122
Ciò che loro chiamano appunto Dataland (1979).
Si tratta di un prototipo di mondo virtuale fatto di informazioni computerizzate,
una finestra visiva all’interno dei dati personali dell’operatore (i programmi e i
file che noi oggi chiamiamo electronic desktop). La navigazione in questo
ambiente non è come quella che può avvenire su un computer “normale” dei primi
anni '80, ma è di tipo multimediale (ricca di grafica e suoni) e soprattutto
fisicamente immersiva. L’utente, che era sulla sedia, veniva proiettato grazie ai
monitor e allo schermo-parete all’interno del Dataland, dove poteva letteralmente
“volare” attraverso la rappresentazione bidimensionale di una struttura di dati
tridimensionale.
Era l’ingresso concettuale all’interno del ciberspazio.
Nel 1982 usciva nelle sale cinematografiche americane il film TRON, che
incarnò l’immaginario delle realtà virtuali e introdusse il grande pubblico
all’interno del Dataland dei computer.
Look, just so I can tell my friends, what this dream is about, okay? Where am I? 4
Nel 1984 lo scrittore William Gibson, nel suo romanzo intitolato
Neouromancer,, coniò il termine cyberspace (ciberspazio) e ne descrisse le
peculiarità, come immense strutture di dati nell'allucinazione vissuta
consensualmente in cui milioni di persone partecipavano collegandosi
direttamente con i loro sistemi nervosi.
Una rappresentazione grafica di dati di dati ricavati dai banchi di ogni computer del sistema
umano. Impensabile complessità. Linee di luce allineate nel non-spazio della mente, ammassi e
costellazioni di dati. Come luci di una città che si allontanano... ("Neouromancer" William Gibson,
1984)
L’ingresso nel Dataland era ancora ben lontano dal poter essere realizzato
tecnicamente, ma produsse un movimento culturale che influenzò notevolmente
4
Citazione dal film "TRON" di Kevin Flynn,
123
l’immaginario collettivo sui concetti di information tecnology, cibernetica, high
tech e più in generale su tutto ciò che riguarda il rapporto tra le tecnologie
informatiche e gli esseri umani.
Il Dataland e l’ingresso nel ciberspazio sono gli obiettivi dei ricercatori
dell’ARCH-MAC e forse sono la diretta conseguenza di ciò che Engelbart diceva a
proposito della necessità dell’uomo di trovare altri strumenti, altre tecnologie che
permettano sempre più di far fronte alle complessità degli stessi strumenti che
stavano creando.
La Media Room dell’ARCH-MAC grazie alla sua interfaccia fisica creava un
real space environment, in cui lo spazio virtuale grafico e l’immediatezza
dell’ambiente reale in cui si trova l’operatore, convergevano in un continum
spazio interattivo. La consapevolezza dello spazio reale in cui si trovano gli utenti
è ben evidente nelle modalità di interazione del sistema Put That There (metti
quello lì).
Put That There (1980) era un esperimento all’interno della Media Room
dell’ARCH-MAC, realizzato da Christopher Schmandt ed Eric Hulteen, sotto la
supervisione di Richard Bolt, in cui vennero collegati due sistemi tecnologici
innovativi al fine di creare nuove modalità di interazione con agli ambienti. Il
primo di questi era il riconoscimento vocale, mentre il secondo era un dispositivo
di rilevamento della posizione nello spazio (ROPAMS, Remote Object Position
Attitude Measurement System 5, sviluppato dalla Polhemus Navigation Science,
Inc). Grazie alla combinazione di questi elementi e al display parete della Media
Room, riuscirono a sviluppare un'interfaccia a comando gestuale-vocale. Un
operatore si sedeva sulla sedia di fronte allo schermo (che poteva visualizzare una
mappa generata dal computer piuttosto che un calendario), puntava il dito verso il
target desiderato, pronunciando al alta voce una serie di comandi vocali del tipo
“Put That”, poi spostava il dito verso un qualsiasi altro punto dello schermo e
diceva “...There”. Il computer eseguiva il comando: spostava l’oggetto selezionato
con la punta delle dita nel punto indicato.
5
124
L’aspetto interessante di questo tipo di ambiente virtualizzato ed intelligente è
che si avvale di un linguaggio di interazione naturale che combina gesti e voce,
tipico per esempio, della comunicazione con i bambini. “Metti quello lì” è
un'indicazione umana che non può non prescindere dalla consapevolezza sia di
colui che chiede l’azione (operatore) che di colui che la compie (computer),
dell’essere compresenti all’interno dello stesso ambiente (Media Room) che è da
una parte fisico (la stanza dove l’utente indica e pronuncia i comandi) e dall’altra
virtuale (la proiezione dello spazio artificiale sullo schermo).
Fig. 18 - Esempio del funzionamento di “Put That There”
A partire 1978, parallelamente ai progetti Dataland e Put That There,
all’ARCH-MAC incominciarono a sperimentare i cosiddetti viaggi simulati. Scott
Fisher, all’epoca soprannominato “l’uomo 3D”, esperto della computer grafica e
della creazione di ambienti virtuali tridimensionali, si spostò all’ARCH-MAC per
125
partecipare al progetto. Nel giro di poco tempo riuscirono a creare uno strumento
informativo chiamato Aspen Movie Map (o semplicemente Aspen Map), tutt’ora
riconosciuta da tutti come un importante predecessore della realtà virtuale.
La Movie Map in un certo senso era l’evoluzione naturale del Sensorama di
Morton Heilig degli anni '60. Il prototipo sviluppato da Heilig, così come quello
dell’ARCH-MAC, sebbene con modalità completamente differenti, era in grado di
offrire al fruitore della simulazione di un ambiente tridimensionale convincente
che lo circondava e lo integrava al suo interno. L’utente poteva sentirsi parte di
esso, o meglio, completamente immerso in esso.
Tuttavia l’esperienza simulata di Heilig era una visione di tipo passivo, in
quanto l’utente si limitava semplicemente ad osservare il mondo che si sviluppava
attorno a lui. Vent’anni dopo invece, grazie alle tecnologie informatiche digitali e
il talento di Fisher, il contesto della Aspen Map divenne navigabile. L’utente si
trasforma in operatore attivo, in grado di muoversi più o meno liberamente
all’interno della simulazione.
La Movie Map era un prototipo di Mondo Virtuale diverso, ma decisamente
interessante. Può essere considerato l’ascendente diretto di quello che oggi è il
sistema di map browsering interattivo più famoso e forse più utilizzato online:
Google Street View.
La tecnologia si è gradualmente orientata verso gli ambienti di simulazione personale a basso
costo nei quali lo spettatore è anche in grado di controllare il proprio punto di vista all’interno di
un ambiente virtuale - una possibilità importante che mancava al prototipo del Sensorama. un
esempio in tal senso è la Aspen Movie Map.... Immagini della città di Aspen, in Colorado, sono
state riprese, con un sistema di ripresa speciale montato su un tetto di un’automobile, col quale
sono stati filmati ogni strada ed ogni angolo della città, combinando il tutto con riprese della città
dall’alto di gru, di elicotteri, di aeroplani e riprese degli interni degli edifici. La Movie Map ha
dato agli operatori la possibilità di sedere di fronte ad uno schermo sensibile al tocco e di guidare
nella città di Aspen a proprio piacimento, imboccando tutte le strade che volevano, toccando lo
schermo, indicando quali svolte volevano fare ed in quali edifici volevano entrare. (Scott Fisher)
Se da un lato Myron Krueger e i ricercatori dell’ARCH-MAC sembravano non
amare l’utilizzo di dispositivi di realtà virtuale, come HMD o sistemi di input
126
indossabili, l’obiettivo di Jaron Lanier e della sua VPL Research Inc fu proprio
quello di sviluppare questi nuovi strumenti di controllo, al fine di migliorare le
possibilità di interazione e navigazione all’interno dei mondi generati dal
computer (e creare un vero e proprio business).
Jaron Lanier era un tipo strambo per un’idea apparentemente stramba.
Non si interessò di computer fino a che non si convinse che "l’informazione è
esperienza alienata", non era per nulla contento di come la vita doveva essere
spezzettata in frammenti binari per venire modellata dai computer, ma
visceralmente era attratto da essi in particolare per l’idea che potessero essere
facilmente utilizzati come strumenti musicali.
All’epoca si considerava prevalentemente un musicista.
L’incontro diretto con i primi computer lo ispirarono a pensare a come
modellare mondi, sentiva che quelle immagini che magicamente apparivano sullo
schermo, frutto di decenni di ricerca e di lavoro da parte dei pionieri informatici di
prima generazione (Engelbart, Licklider ecc...), erano piccole realtà che potevano
essere mutate.
Nel 1981, dopo aver abbandonato gli studi e anche le speranze di diventare
compositore, si diresse nel cuore della Silicon Valley, che in quel periodo era il
centro del mondo (informatico), a bordo di un auto “senza tetto, che si metteva in
moto con un cacciavite e che aveva fori di proiettile su un lato” (era
un’automobile abbandonata dai narcotrafficanti).
Cercò di guadagnare qualche soldo realizzando effetti sonori per videogiochi
elettronici e parallelamente imparò l’arte della programmazione.
Trovarsi a metà degli anni '80 nella Silicon Valley nel pieno splendore del
rinascimento elettronico, dove il boom dei personal computer e dei videogiochi
aveva portato alla nascita di società come la Apple Computer o l’Atari (solo per
citarne alcune), ed avere il talento e la visione di chi sapeva che le immagini sugli
schermi erano in realtà mondi plasmabili, poteva sicuramente essere
un'opportunità da non lasciarsi scappare. Bastava cogliere l’occasione giusta,
quella che Jaron Lanier stava cercando e che aveva cercato durante tutta la sua
127
vita (e i suoi viaggi in tutti gli Stati Uniti). Puntualmente, dato il suo talento, la
chance si manifestò sotto forma di lavoro da programmatore di videogiochi per
l’Atari. Nel 1983 realizzò Moondust6. Fu un successo.
Fig. 19 - Rappresentazione di Moondust.
Guadagnò abbastanza soldi da potersi licenziare e tentare la fortuna come
imprenditore. Lanier aveva un’idea ben precisa di come le potenzialità dei
computer potessero generare simulazioni, suoni, immagini e modelli dinamici da
condividere e scambiare con altre persone allo stesso modo in cui questi riescono
a scambiarsi parole dette o scritte. È a partire da tali concetti che Lanier si avviò
allo sviluppo di un nuovo linguaggio di programmazione, completamente diverso
da qualsiasi altro, un linguaggio che sarebbe potuto essere utilizzato anche da non
esperti del settore, e che avrebbe sfruttato immagini e suoni per comunicare con le
funzioni primarie del computer al posto di aridi codici alfanumerici.
L’idea di questo nuovo linguaggio maturò inizialmente dal suo desiderio di
creare nuove forme musicali attraverso strumenti simulati al computer,
6 Moondust è il primo art video game in cui si impersona un astronauta, di notevole
complessità grafica e con punteggio astratto, assegnato tramite un algoritmo.
128
successivamente, in corso d’opera, Lanier capì che tale sistema sarebbe potuto
essere applicato ad un linguaggio di programmazione generico, che sarebbe stato
in grado di fare uso di una notazione puramente simbolica. Il Mandala (il nome
scelto da Lanier per questo progetto) invece delle solite incomprensibili (per i non
esperti) sequenze di istruzioni logiche fatte di “if”, “else”, variabili e numeri,
utilizzava disegni di canguri, cubetti di ghiaccio, uccelli cinguettanti rappresentati
su un pentagramma musicale. Questi simboli erano ugualmente incomprensibili,
ma di gran lunga più affascinanti perché erano il frutto di una simulazione grafica
dinamica delle funzionalità del computer. Erano dei mondi virtuali, una fusione
tra le capacità di linguaggio delle macchine con quello iconico, in grado di
suscitare nell’uomo un più elevato stato di immersione all’interno di essi.
Lanier era convinto che i linguaggi di programmazione fossero in realtà la
forma larvale di qualcosa di gran lunga più interessante, che era ormai prossimo
ad arrivare. Potevano diventare qualcosa di altrettanto importante quanto la
comunicazione simbolica, “una nuova forma di comunicazione sullo stesso livello
del linguaggio parlato e della scrittura”. Definisce questo futuro metalinguaggio
potenziato dal computer “comunicazione post-simbolica”.
Quando scrivi un programma e lo mandi a qualcun altro, specialmente se il programma è una
simulazione interattiva, è come se stessi creando un mondo nuovo, una fusione del regno
simbolico con quello naturale. Invece di comunicare simboli come lettere, numeri, immagini o
note musicali, crei universi in miniatura che hanno i loro propri misteri da scoprire (Jaron Lainer,
intervista di Howard Rehingold)
Con il Mandala nasce più o meno ufficialmente la VPL Research, Inc, ma è
grazie all’incontro del guanto di Thomas Zimmerman (1983), che le realtà virtuali
divennero parte integrante della ricerca e della vita di Jaron Lanier.
Thomas Zimmerman nel 1981, più o meno nello stesso periodo in cui Lanier
arrivò nella Silicon Valley, era alle prese con esperimenti domestici sulla
retroazione dei gesti corporei.
Anche lui come Lanier si interessava di musica e stava cercando un modo
intelligente e pratico per realizzare un dispositivo di input gestuale che fosse in
129
grado di controllare un sintetizzatore musicale. Pensò che la mano potesse essere
lo strumento più adatto al suo scopo, o meglio che attraverso un guanto
appositamente progettato, avrebbe potuto determinare facilmente la flessione delle
dita e i relativi cambiamenti in tempo reale, quindi tramite lo sviluppo di un
software ad hoc, simulare per esempio l’atto di suonare una chitarra senza
necessità di averla fisicamente in mano.
Un po' come quando ci si lascia trasportare dai riff chitarristici e dal ritmo della
musica, simulando di suonare lo strumento contemporaneamente all’ascolto della
canzone. Solo che il guanto di Zimmerman avrebbe prodotto suoni veri.
Strumenti di questo tipo, a dire la verità esoscheletri, costringenti per le mani
più che guanti, erano già stati sperimentati a partire dagli anni '50, ma erano
troppo scomodi e poco precisi, così comprò un guanto da lavoro e componenti per
un valore inferiore ai 10 dollari e iniziò a costruire il primo prototipo.
Nel 1982 Zimmerman brevettò il suo guanto ottico in grado di rilevare la
flessione delle dita. Gli venne assegnato l’US Patent No 4,542,291.
Il sensore del dispositivo era costituito da un tubo flessibile con superficie
interna riflettente ed estremità aperte in modo tale che da un lato di una delle due
estremità possa essere posizionata o una sorgente luminosa e, all’altro capo, un
rilevatore fotoresistivo, oppure in alternativa ad una fonte luminosa generica,
poteva essere utilizzata una fibra ottica (di gran lunga più precisa) in modo tale
che l’intensità e la combinazione dei raggi di luce diretti o riflessi potessero
rilevare quando il tubo flessibile è piegato. Il tubo flessibile può essere di gomma
nera o qualsiasi altro materiale idoneo, mentre la parete interna può essere trattata
con vernice alluminio a spruzzo. Nella posizione di non flessione delle dita il tubo
è dritto, consentendo alla luce emessa dalla sorgente di colpire direttamente il
rivelatore fotosensibile. Quando il tubo viene piegato dal movimento delle dita, la
luce ricevuta sarà una combinazione di luce diretta o riflessa. La quantità di luce
diretta che raggiunge il rivelatore fotosensibile diminuisce man mano che la
flessione del tubo aumenta, fino a raggiungere il momento in cui tutta la luce che
130
raggiunge l’altra estremità del tubo (dove è posizionata la fotoresistenza) è di tipo
riflessa.
La funzione del sensore fotoresistivo è di cambiare la sua resistenza a seconda
dell’intensità luminosa che agisce su di esso. L'effetto combinato del tubo piegato
sul percorso ottico e la fotosensibilità del rivelatore producono un dispositivo che
cambia la sua resistenza elettrica quando viene flesso.
Il sensore in grado di rilevare il cambiamento di intensità della luce poteva
essere un fototransistor, una fotocellula, un dispositivo a fibra ottica, o qualsiasi
altra componente con caratteristiche simili.
Un altro sensore brevettato da Zimmerman è costituito da un tubo flessibile
che, a differenza di quello precedentemente descritto, aveva la parete interna che
poteva essere divisa in due o tre zone longitudinali di colore rosso, verde e giallo.
Le zone di diverso colore del tubo incidono sull'intensità della luce che raggiunge
il rivelatore fotosensibile all'estremità opposta del tubo. A seconda del tipo di
sorgente di luce, se di colore simile o di colore diverso alla parete, veniva riflessa
da quest’ultima in modo più o meno intenso. La sorgente di luce, in questo tipo di
flex sensor, era multipla e in particolare doveva essere costituita da tante sorgenti
luminose colorate quante sono le zone di colore nella parete del tubo (se si
decideva di utilizzare tubi con pareti suddivise in due sezioni longitudinali, una di
colore giallo e l’altra di colore verdi, le fonti luminose dovevano essere due, una
gialla e una verde). Queste fonti luminose multiple (che potevano essere LED,
luci ad incandescenza, neon etc..), a differenza del sensore con una singola
sorgente, venivano emesse ad impulsi (on e off) scanditi da intervalli di tempo
prestabiliti. Il parametro output del rilevatore era perciò campionato
corrispondentemente all’analisi degli stessi spazi temporali.
In questo modo le informazioni che si potevano ottenere permettevano di
determinare non solo il grado di piegatura del dispositivo, ma anche la sua
direzione (dall’alto verso il basso, da sinistra verso destra, ecc...). Più sensori di
luce colorata erano utilizzati e più la precisione del dispositivo aumentava.
131
I flex sensor low cost brevettati da Zimmerman potevano essere collegati su un
tessuto di un guanto, una tuta o un bendaggio elastico ed essere facilmente
utilizzati per determinare elettricamente la posizione di giunture e degli arti, o
ottenere informazioni sulla loro posizione, velocità e accelerazione. I segnali
provenienti da questi sensori possono essere elaborati per applicazioni come: la
cinesiologia7, la fisioterapia, la computer animations, il controllo remoto e nuova
modalità di interfaccia uomo-computer.
La portata di questo brevetto, almeno inizialmente, non fu come lo stesso
Zimmerman poteva aspettarsi, poiché un anno prima di lui (1981) un ricercatore
di nome Gary Grimes che lavorava ai Bell Laboratories, aveva brevettato un
dispositivo di interfaccia molto simile. Il vero punto di svolta avvenne quando
Lanier e Zimmerman si incontrarono qualche anno più tardi ai laboratori
dell’Atari Research. Bastò poco ai due per stringere un accordo. Zimmerman
divenne uno dei fondatori della VPL Research, Inc a cui cedette il suo brevetto e si
mise al lavoro per migliorarlo e renderlo ulteriormente preciso.
A Jaron Lanier venne l’idea di associare al guanto anche un sensore di
posizione assoluta, come quelli utilizzati da Sutherland per l’Head Mounted
Display o per altri dispositivi di input gestuali.
Fu un passo decisivo per la carriera di entrambi e per le sorti della loro azienda.
Il modello migliorato, oltre al sistema di localizzazione spaziale ad ultrasuoni,
sfruttava la più costosa, sottile e precisa tecnologia a fibre ottiche al posto delle
guide luminose di led. Il rivestimento su ogni fascio di fibre era inciso in
corrispondenza di ogni giuntura delle dita. Il grado di flessione di ogni nocca
determinava direttamente quanta luce passava attraverso le precisissime incisioni
prima di arrivare ai sensori di luce, posizionati alla fine del fascio ottico.
Alla VPL Research, Inc decisero che era giunto il momento di associare
all’hardware un sistema di software in grado di trasformare il dataGlove in un
7
132
Scienza che tratta lo studio del movimento umano.
reality engine completamente funzionante e sbarcare definitivamente in quegli
ambienti simulati che Jaron Lanier coniò come Realtà Virtuali.
“Virtual” means something that exists only as an electronic representation, which has no other
concrete existence. Is it as if were there even if it isn’t. It’s not necessary the right world. I like it
better than “artificial”. I like better than “synthetic”, “Shared Dream”, “Telereality” (An Interview
with Jaron Lanier, Wole Earth Review, Kevin Kelly).
Zimmerman, Lanier, Young Harvill (co-creatore del sistema a fibre ottiche del
guanto) e Steven Bryson lavorarono per oltre due anni
cercando di perfezionare il software di collegamento
degli input gestuali del guanto ai mondi generati dai
computer.
L’impresa si rivelò molto ardua, in quanto
dovevano riuscire a far funzionare in modo coordinato
i numerosi segnali elettrici provenienti dai flex sensor
con quelli del sistema di posizionamento assoluto, e
conseguentemente sviluppare un programma in grado
di generare l’output del mondo virtuale tramite le sue
forme visive ed uditive. Jaron Lanier incominciò a
trasformare il Mandala in uno strumento per la realtà
virtuale. Parti del suo progetto originale, insieme ad
altre completamente sviluppate ex novo dallo stesso
Lanier e gli altri programmatori si sono evolute nel
sistema software per virtual reality che la VPL
commercializzò per molto tempo a partire dalla
seconda metà degli anni '80.
Il dataGlove della VPL Research, Inc, venne
Fig. 20 - Esempio di body VLP
caratterizzato da cavi in fibra ottica
che attraversano l’intera tuta e guanti,
producendo un segnale durante una
qualsiasi flessione.
ultimato in tutte le sue parti e commercializzato. Uno
dei maggiori contratti che la VPL sottoscrisse fu con la NASA che già da qualche
tempo stava conducendo esperimenti sui mondi virtuali.
133
Nel 1984, allo Human Factors Research Division del NASA/Ames, Scott Fisher
venne inviato a tenere una conferenza sui display Head Mounted stereoscopici,
sulle ottiche necessarie per visualizzare scenari molto ampi, e della possibilità di
esplorazione di mondi Virtuali. Michael McGreevy era in prima fila. Iniziò ad
interessarsi dei sistemi HMD sviluppati dall’Aviazione degli Stati Uniti che
venivano chiamati VCASS. Assomigliavano vagamente al casco di Darth Vader e
contenevano tecnologie ben più sofisticate dei sistemi sviluppati da Sutherland.
McGreevy era convinto che un sistema di questo tipo sarebbe stato l’ideale base
di partenza per la sperimentazione scientifica sui fattori umani delle realtà virtuali.
Il VCASS usato dall’aviazione, usava tubi catodici miniaturizzati ad altissima
risoluzione appositamente progettati, fibre ottiche e necessitava di grandi quantità
di calcolo: in poche parole non badarono a spese per questo tipo di progetto, fatto
per altro enormemente giustificato dalla possibilità di innalzare le capacità di
sopravvivenza dei piloti e conseguentemente anche la salvaguardia di aeroplani da
mezzo miliardo di dollari.
Quando McGreevy si accorse che il costo del dispositivo avrebbe superato di
gran lunga il budget per il progetto di ricerca (solo il casco costava un milione di
dollari), decise di costruirsene uno per conto proprio.
Disponeva già di un rilevatore Polhemus ed un sistema di visualizzazione
Evans and Sutherland. Per la costruzione il dispositivo HMD decise di utilizzare,
invece dei display a tubi catodici dotati di risoluzione e qualità superiori, display
LCD ben più economici, ma comunque in grado di garantire risultati adeguati allo
scopo. Ben presto grazie a McGreevy la componente “occhiali” della realtà
virtuale della NASA stava diventando disponibile.
Nel 1985, la NASA assunse Scott Fisher che aveva come obiettivo la
costruzione di un laboratorio che fosse il banco di prova per esplorare tutti gli
aspetti di stazioni di lavori virtuali, dalla telerobotica, alla chirurgia.
Scott Fisher iniziò a negoziare con la VPL Research, Inc per aggiungere al
sistema della NASA, denominato VIVED (Virtual Environment Display), il
134
dispositivo di input gestuale che avevano sviluppato. Ciò consentì al VIVED di
collegare i movimenti della mano al mondo generato dal computer.
Nel 1986 era possibile immergersi all’interno dei mondi virtuali del ciberspazio
non solo con lo sguardo, ma anche con le mani.
Potevano toccare ed esplorare mondi artificiali nel modo più naturale possibile:
attraverso le mani e i gesti.
“Quella mano fluttuante era qualcosa di più di una mano. Ero io.”
Se vuoi assicurarti di essere nel mondo reale, sposta la testa molto velocemente da una parte o
dall’altra. Se il resto del mondo non si muove insieme alla tua testa per un paio di centinaia di
millisecondi, ti trovi in Virtualandia. Lo sfasamento temporale è sempre un problema nella
costruzione di sistemi per realtà virtuale e gestire calcoli complicati molto rapidamente è sempre
stato parte del problema ("Realtà Virtuali" Howard Rheingold, 1993)
Il problema principale per un reality engine da questo momento in poi si spostò
sulle possibilità di migliorare, con la speranza un giorno di eguagliare, le più
precise caratteristiche del nostro sistema “mano-dita-occhio-cervello”, in modo
tale da ridurre sempre di più la discrepanza percettiva che può esistere all’interno
dei mondi virtuali.
Fig. 21 - Esempio di tecnologia di rilevamento dei guanti: dataGlove
Nel 1987 un’azienda denominata Abrams-Gentile Enterteinment (AGE), offrì
alla VPL Reserach, Inc, la possibilità di accedere al mercato del mondo dei
giocattoli con una versione appositamente riprogettata del dataGlove. L’obiettivo
era quello di creare un guanto di input gestuale dai costi contenuti che funzionasse
135
come dispositivo di controllo per i popolari videogiochi da consolle Nintendo,
potenzialmente un mercato nell’ordine delle decine di milioni di dollari.
A partire dal 1991 venne commercializzato il PowerGlove a meno di 100
dollari. Il suo funzionamento non era dissimile a quello del dataGlove (che però
costava 6.300 dollari) in quanto possedeva sia sensori di rilevamento della
posizione assoluta che flex sensor per determinare il grado di flessione delle
singole dita della mano. Ciò che lo differenziava erano le tecnologie utilizzate.
Come abbiamo visto in precedenza, il
dataGlove, utilizzava fibre ottiche e sensori
di posizione assoluta ad altissime capacità
performative, il PowerGlove, invece, faceva
uso di un inchiostro elettro-conduttivo
stampato su una striscia di plastica
flessibile che seguiva il dito nei suoi
movimenti e un sistema di rilevazione
basato su sensori ad ultrasuoni.
La precisione del guanto per i videogiochi
non era il massimo, tutt’altro, ma fu
comunque un importante passo nella storia
dei reality engine poiché avviava la
“massa” ad un nuovo modo di giocare e di
concepire l’interazione con gli ambienti
Fig. 22 - Jaron Lanier con dataGlove e
Eyephone, i dispositivi di realtà virtuale ideati
dalla sua azienda, VPL Research..
virtuali generati dall’industria dei giochi
elettronici.
La realtà virtuale, o meglio accenni di essa,
incominciarono a materializzarsi fisicamente al grande pubblico.
Tra il 1988 ed il 1990 la VPL Research, Inc era il fornitore di sistemi di realtà
virtuale pronti all’uso: i laboratori di ricerca non erano costretti a reinventare i
dispositivi HMD e quelli di input, potevano acquistare soluzioni già sviluppate ed
136
ampiamente rodate, facilitando quindi la costruzione dei mondi piuttosto che degli
hardware necessari per navigarli. Il sensore di posizione Polhemus Navigation
System costava 2.500 dollari, il data Glove altri $6.300, L’Eyephone (l’HMD
della VPL) $9.400 e il pacchetto software $7.200, per un totale di 25.400 dollari,
esclusi i costi per l’acquisto dei computer e delle workstation necessarie per far
funzionare il tutto.
La realtà che era possibile ottenere dipendeva molto dalla potenza di calcolo
degli elaboratori a disposizione, ma anche delle capacità di programmazione del
team di sviluppo del mondo virtuale che si voleva costruire. Ben presto i primi
ambienti solidi con accenni di ombre, superfici e grafiche più dettagliate
cominciarono ad essere esplorabili. Il tasso di miglioramento del livello di realtà
dei mondi virtuali fu incredibilmente rapido e continuò a crescere parallelamente
agli sviluppi tecnologici.
La realtà virtuale ha dimostrato, e dimostra tutt’ora, che l’essere umano è in
grado di poter creare qualunque esperienza si possa desiderare. I pionieri del
ciberspazio, fin dai primi esperimenti di immersione all’interno di mondi generati
dal computer (Sutherland, ma ancor prima di Heilig), avevano compreso che
avere il potere di creare l’esperienza significava anche avere il potere di ridefinire
i concetti base che la definiscono come l’identità, la comunità e la realtà.
Questo implica le potenzialità di un cambiamento della natura umana.
Marshall McLuhan nella sua celebre opera “Gli strumenti del comunicare”
indica i mezzi di comunicazione elettronici come strumenti in grado di alterare i
rapporti tra i sensi: la quantità di input uditivi e visivi generati dall’avvento della
radio, dai telefoni e successivamente dalla televisione, modificarono
inequivocabilmente il nostro modo di percepire la realtà.
Vediamo, sentiamo e conseguentemente comprendiamo il mondo in maniera
differente.
Dal momento che il nostro “normale” status di coscienza è per natura una
simulazione iperrealista di ciò che noi consideriamo realtà, “là fuori” (costruiamo
modelli del mondo che ci circonda all’interno della nostra mente, utilizzando gli
137
input provenienti dagli organi sensoriali, opportunamente rielaborati dal nostro
cervello), l’esperienza nel ciberspazio è destinata a trasformarci poiché non fa
altro che fornirci nuovi modelli, nuove simulazioni alternative a quelle a cui
normalmente siamo abituati.
Gli esseri umani sono per natura costruttori per eccellenza di modelli mentali,
così come i computer lo sono diventati nel corso degli anni per nostra volontà.
La capacità delle macchine per pensare di emulare ambienti e situazioni reali è
in costante progresso, come abbiamo visto, strettamente legato a quello della
potenza di calcolo e dell’elaborazione-rappresentazione delle immagini
tridimensionali. Dal momento in cui saranno in grado di generare modelli
talmente realistici da non poter essere distinti dalla realtà non simulata
elettronicamente (modello mentale umano), le nostre più fondamentali definizioni
di ciò che è reale verranno completamente ridefinite.
La realtà è sempre stata troppo piccola per l’immaginazione umana. L’impulso per la creazione
di una “macchina per la fantasia interattiva” è soltanto la manifestazione più recente dell’antico
desiderio di rendere le nostre fantasie palpabili. (Howard Rehingold, 1993)
É altrettanto vero però, che almeno per quanto riguarda la tecnologia
informatica degli anni '90, la realtà sembrava essere (e lo è tuttora) “troppa” da
poter essere sintetizzata all’interno di un mondo computerizzato. All’epoca il più
potente (e costoso) engine per la realtà virtuale era in grado di elaborare circa
duemila poligoni al secondo e generava un mondo ben lontano dalle nostre
aspettative di realtà. Alvy Ray Smith, co-fondatore di Pixar, affermò che “La realtà
inizia ad 80 milioni di poligoni per fotogramma”.
Era una previsione più che accettabile che aveva lo scopo di suggerire la
direzione verso cui si sarebbero dovute muovere la tecnologie di riproduzione
grafica.
La tendenza futura, favorita senza dubbio dalla legge di Moore, da un lato
sembrò dirigersi verso la volontà di raggiungere e sorpassare la soglia indicata da
138
Alvy Ray, dall’altro incominciò a deviare il suo percorso, in direzione di un
potenziamento della realtà piuttosto di una sua simulazione iperrealistica.
6. Augmented Reality
Someone once said that a Boeing 747 is not really an airplane, but five million parts flying in
close formation (citazione di Caudell e Mizzel, 1992)
Essere un operaio specializzato addetto alla manutenzione (quindi smontaggio
e assemblaggio) dei Boeing 747, alla fine degli anni '80, non doveva essere di
certo una passeggiata. Chiunque si occupasse di questo doveva essere in grado di
consultare migliaia di informazioni e istruzioni dettagliate di ciascuna delle
singole componenti del velivolo, solitamente fruibili tramite complessi schemi
CAD su schermo di una postazione collegata ad un elaboratore oppure su
immense stampe (che in quel caso occupavano interi pavimenti dell’hangar).
Alla difficoltà della manodopera quindi si aggiungeva quella della
consultazione dei manuali necessari a svolgere il lavoro.
Il risultato era una procedura troppo macchinosa e troppo lenta.
Nel 1990, negli stessi laboratori di ricerca della compagnia aerospaziale
Boeing, per la prima volta venne utilizzata l’espressione “Augmented Reality” per
indicare un particolare sistema di fruizione dei contenuti, concepito da Thomas
Caudell e David Mizell, in grado di facilitare enormemente le operazioni di
manutenzione dei velivoli.
Il dispositivo sviluppato dai due ricercatori consisteva in un display Head
Mounted (denominato HUDset (Heads-Up Display Head set), concettualmente
simile al prototipo sviluppato da Ivan Sutherland negli anni '60, ma
opportunamente migliorato in dimensioni e portabilità, dotato di ottica a lente
semitrasparente (see-through) e di un sistema di tracking della posizione della
testa all’interno dello spazio di lavoro.
139
Fig. 23 - L’immagine di sinistra rappresenta un operaio al lavoro,con il sistema di display Head Mounted,
progettato da Tom Caudell e David Mizell. A destra un dettaglio della stessa applicazione.
Questa nuova enabling technology consentiva di visualizzare gli schemi di
assemblaggio e le istruzioni operative testuali, direttamente in sovrimpressione
sulle specifiche componenti “fisiche” del Boeing da smontare o riassemblare, che
di volta in volta entravano nel campo visivo dell’operaio.
this technology is used to “augment” the visual field of the user with information necessary in
the performance of current task, and therefore we refer to the technology as “augmented reality”.
(citazione di Caudell e Mizzel, 1992)
L’informazione percepita dalla vista degli addetti veniva “aumentata” dal
dispositivo con un altro livello informativo sovrapposto al reale, in grado di
arricchire di significato ciò che in quel preciso momento stava osservando. In
poche parole oltre a semplificare e velocizzare notevolmente il lavoro degli
addetti alla manutenzione dei giganteschi aeroplani (non dovevano più
interrompere l’assemblaggio per andare a controllare le schede tecniche),
introdusse il mondo informatico ad una nuova era delle Realtà Virtuali, o meglio
ad una loro variante dalle potenzialità non meno affascinanti e suggestive.
L’era della realtà aumentata.
140
6.1 Virtual Reality vs. Augmented Reality
Il concetto di Virtual Reality o VR, coniato nel 1989 da Jaron Lanier (un anno
prima che Tom Caudell e David Mizell definissero la loro tecnologia Augmented
Reality) implicava nella sua accezione la sofisticata tecnologia, sviluppata già a
partire dagli anni '60, che collegava i computer ad una serie di sensori in grado di
stimolare la percezione umana e che consentiva un'interazione immersiva tra un
soggetto attivo e il modello computerizzato generato.
Il termine virtuale però non è da contrapporre al reale.
Il filosofo francese Pierre Lévy8 rifletté a lungo su questo concetto, partendo
dalla considerazione che ogni rappresentazione immateriale è anch’essa reale in
quanto comunque percepibile, arrivando a definire il virtuale semplicemente come
uno dei possibili modi dell’essere e che non ha niente a che vedere con il concetto
di falso o non reale (inteso come un qualcosa che non esiste).
Il termine “virtuale” deriva dal latino virtualis che, nella filosofia scolastica
antica, indicava appunto un qualcosa che esiste in potenza ed è in grado di passare
in atto (per esempio l’albero è virtualmente presente nel seme).
Per Levy il virtuale deve essere contrapposto all’attuale e quindi ciò che è
virtuale esiste, perché possibile, anche senza consistenza materiale e concreta.
I mondi virtuali sono esperienze possibili che possono essere contrapposte o
concordate a quelle del reale, in base al grado di sensazione di immersività e
navigabilità che sono capaci di suscitare nello spettatore.
Tanto più dettagliata sarà la simulazione in atto della realtà, quindi come
abbiamo visto, più poligoni saranno elaborati, e più sensi verranno coinvolti, tanto
più profondo sarà il suo grado di immersione.
8 Il filosofo francese Pierre Lévy (1956) è noto per i suoi studi sul mondo degli ipertesti, sulle
implicazioni culturali dell'informatizzazione e sugli effetti della globalizzazione. Si interessa così
di computer e Internet intesi come strumenti per aumentare le capacità di cooperazione, non solo
della specie umana nel suo insieme, ma anche quelle di collettività come associazioni, imprese,
gruppi locali, etc. Egli sostiene infatti che il fine più elevato di Internet è l'intelligenza collettiva
(come Douglas Engelbart).
141
Il termine virtual reality quindi può essere definito come un ambiente
tridimensionale immersivo generato dal computer. Da questo concetto possiamo
estrapolare tre punti chiave:
1. si tratta di un ambiente generato completamente al computer secondo
modelli tridimensionali ed elaborazioni real time che richiedono prestazioni di
calcolo e grafica elevatissime, per fornire un adeguato livello di realismo;
2. questo modello oltre ad “ingannare” la nostra percezione visiva deve essere
anche interattivo. Deve essere navigabile e reattivo. Il sistema deve reagire alle
azioni dell’utente in modo efficace e credibile;
3. l’utente deve essere completamente immerso sensorialmente all’interno di
questo ambiente;
Uno dei segni distintivi delle realtà virtuali (nella maggior parte delle sue
applicazioni) è l’uso di Head Mounted Display come dispositivo privilegiato di
visualizzazione che isola completamente l’utente dal mondo esterno, in quanto la
sua percezione dipende esclusivamente da ciò che il computer “decide” di
mostrare. L’ esperienza visiva, uditiva e più in generale dei canali sensoriali
propriocettivi9 è sotto il controllo del reality engine che ne determina il grado di
coinvolgimento e il livello di affidabilità. Affinché questa immersione sia
considerata realisticamente valida, almeno per quanto riguarda la sensazione di
presenza (non per i dettagli grafici), il sistema deve necessariamente reagire in
modo coerente ad ogni movimento del soggetto, determinando di volta in volta la
scena così come si sarebbe comportata nella realtà.
Questo senza dubbio risulta essere uno dei problemi più complessi e
difficilmente risolvibili delle realtà virtuali, poiché, come abbiamo visto in
precedenza, non si tratta solo di modellare un mondo graficamente credibile, ma
che reagisca ai nostri sensi percettivi nel modo più realistico possibile.
Ogni movimento o modifica effettuata da parte dell’utente comporta una
conseguente ed appropriata modifica all’interno del mondo virtuale percepito.
Tale sistema è chiuso in sé stesso e non esiste nessuna connessione diretta tra le
9 Capaci di percepire e riconoscere la posizione del proprio corpo nello spazio, grazie alla
ricezione delle informazioni dai sistemi sensoriali.
142
coordinate propriocettive dell’utente e quelle dell’ambiente in cui è immerso. Il
collegamento deve essere creato artificialmente10 tramite dispositivi e tecnologie
di rilevamento degli input sensoriali.
Qualsiasi incongruenza riguardante il sistema di rilevamento delle coordinate,
che ha il compito di determinare il punto di vista della scena virtuale rispetto alla
posizione del corpo dell’utente, viene percepita come un errore di registrazione,
ossia una discrepanza tra quello che ci si aspetterebbe normalmente di vedere e
ciò che effettivamente vediamo.
Tali errori sono riconosciuti come veri e propri conflitti tra il sistema visivo e
quello cinestetico o propriocettivo dell’utente. Tuttavia, a causa della maggiore
influenza della vista rispetto agli altri canali sensoriali (come aveva anche
evidenziato Heilig nei suoi studi per il Teatro dell’Esperienza e il Sensorama), è
possibile che l’utente all’interno di una realtà virtuale accetti o regoli lo stimolo
visivo errato, sostituendo più o meno inconsciamente le discrepanze che si
verificano.
Un dispositivo di realtà aumentata, contrariamente a quello della realtà
virtuale, consente di osservare direttamente la realtà che ci circonda,
aumentandola con informazioni aggiuntive generate dal computer. Non si tratta
perciò di una rappresentazione simulata di un intero mondo in cui si è immersi
sensorialmente, ma di un potenziamento attraverso oggetti virtuali coerentemente
registrati all’interno di quello esistente e reattivi alla fisicità dell’utente. Il senso
di presenza delle applicazioni di realtà aumentata non deve essere ricreato
sinteticamente, poiché l’utente agisce nel contesto reale.
Il vantaggio di questo aspetto è duplice.
In primo luogo, gli ambienti reali contengono una quantità di informazione
tanto più elevata quanto più difficilmente riproducibile in un qualsiasi altro
ambiente simulato. In secondo luogo, se l’obiettivo finale delle applicazioni dei
virtual environment è quello di migliorare le prestazioni umane per un compito
specifico, questo sarà svolto sicuramente in modo più naturale se il soggetto si
10 Azuma
1993
143
sente immerso e a suo agio all’interno dell’ambiente (che riconosce o conosce) in
cui deve svolgere l’attività.
Anche per gli augmented reality engine il problema di mantenere coerente la
visione degli oggetti virtuali con la posizione dell’utente nel contesto reale in cui
sono rappresentati gli oggetti stessi, è un grande e difficile ostacolo da superare.
In questo caso un errore di registrazione non può essere né compensato né
accettato dall’utente, in quanto è compreso tra due stimoli visivi differenti per
natura (realtà osservata direttamente e virtualità di oggetti-testi generati), che sono
fusi all’interno di un'unica scena.
L’osservatore è ben più sensibile a questo tipo di situazioni percettive devianti,
rispetto a quelle che possono riscontrarsi negli ambienti puramente virtuali.
Ciò impone ai progettisti di applicazioni e sistemi augmented una più rigida
attenzione alla risoluzione di queste problematiche.
Sia i sistemi di realtà virtuale che quelli di realtà aumentata devono assicurare
all’utente un senso profondo di immersione all’interno dell’ambiente,
garantendone di conseguenza anche la ricezione di un insieme coerente di input.
Fig. 24 - Tabella in cui vengono riportate tutte le varie tipologie con relative caratteristiche
di augmented display.
144
6.2 Enabling Display Tecnologies
Per mantenere questo status di immersione ibrido tra il virtuale ed il reale, i
sistemi di augmented reality, così come quelli di virtual reality, necessitano di un
dispositivo, o diversi dispositivi comunemente definiti augmented display, in
grado di fondere visivamente i due diversi punti di vista (quello generato dal
computer e quello osservato direttamente) in un'unica visione.
Le tecnologie di display più comuni, o meglio quelli considerabili “storici”, sono i
see-through head-mounted display che grazie a tecnologie video o ottiche
consentono di vedere il mondo reale “aumentato” con oggetti, informazioni, dati
virtuali sovrapposti e perfettamente integrati ad esso. Come indicato dal nome
stesso (head-mounted) si posizionano ovviamente tra le categorie di display
indossabili, ossia head-worn (di cui fanno parte anche i virtual retinal display e
gli head-mounted pjojective display), e offrendo così un buon grado di mobilità e
libertà di azione dell’utente.
Fig. 25 - Schema del funzionamento di un dispositivo video see-through.
Oltre ad essere la tipologia di head-mounted display più economica e semplice da
realizzare, il video see-through è anche il dispositivo di visualizzazione per la
realtà aumentata tecnicamente più simile a quelli dedicati per l’esplorazione degli
ambienti totalmente virtuali (quelli sviluppati dalla NASA o dell’EyePhone
sviluppato da Lanier).
145
Generalmente è costituito da una o due videocamere, poste in corrispondenza
degli occhi che sostituiscono appieno la vista dell’utente, generando un feed video
digitalizzato della realtà. Quest’ultimo, opportunamente combinato in real time
con la scena virtuale corrispondente (prodotta dal sistema grafico
dell’applicazione AR in base alle coordinate della posizione della testa e del punto
di vista), viene proiettato sul monitor situato di fronte agli occhi dell’utente,
permettendo così di ottenere una percezione aumentata dell’ambiente circostante.
L’utente quindi non osserva la realtà direttamente, ma ciò che osserva è mediato
dall’utilizzo delle telecamere.
Questa tecnica nella sua semplicità offre alcuni vantaggi interessanti.
Dal momento che la realtà osservata è “digitalizzata”, così come le immagini
generate virtualmente, risulta molto più facile manipolarne i contenuti,
aggiungendo o rimuovendo elementi da essa. Ciò consente inoltre di avere sia un
miglior risultato visivo, grazie al controllo pressoché totale sui parametri di
luminosità, tonalità, saturazione e contrasto delle immagini acquisite, sia una
maggiore precisione nel tracking degli oggetti e dei movimenti della testa
dell’utente.
Tuttavia a queste facilitazioni, che potrebbero tranquillamente rendere i video
see-through una tecnologia largamente utilizzata nel campo delle realtà
aumentate, bisogna aggiungere altrettanti svantaggi, ad iniziare proprio dalla
bassa risoluzione con cui necessariamente agisce. La realtà ripresa attraverso le
telecamere perde inevitabilmente risoluzione e conseguentemente qualità. Per
quanto fedele possa essere al reale, un'immagine ripresa attraverso un dispositivo
di video capture, sarà comunque inferiore rispetto a ciò che i nostri occhi sono in
grado di percepire. Non è solamente una questione pixel, ma di una serie di
caratteristiche fisiche del sistema occhio-mente che nessuna telecamera riuscirà
mai ad eguagliare. Alcune di queste features riguardano, per esempio, la gestione
del punto di vista, della visione periferica e della messa a fuoco.
Il punto di vista percepito dall’utente del sistema video HMD (dato
principalmente dal posizionamento della fonte di input video), seppur
146
migliorabile, risulta essere decisamente limitato e poco fedele a quello reale,
causando nell’utente disorientamento e sforzi troppo significativi per cercare di
“aggiustare” a livello percettivo la visualizzazione. Limiti che sono da segnalare
anche per quanto riguarda la visione periferica e la messa a fuoco che di certo non
consentono un uso prolungato di questo tipo di dispositivi.
A differenza di quelli video, gli HMD see-through ottici sfruttano le innovative
tecniche di beam-splitting (sperimentate già da Sutherland con il three
dimensional head-mounted display del 1968) per riflettere e sovraimprimere la
realtà aumentata direttamente negli occhi dell’utente. Le scene virtuali, generate
dal sistema grafico, vengono sovrapposte a quelle provenienti dal punto di vista
reale dell’utente, mediante l’utilizzo di appositi optical combiners che hanno la
peculiarità di essere in parte sia trasmissivi che riflessivi. Questo particolare
sistema di lenti lascia passare le immagini provenienti dalla realtà (come se
l’utente indossasse un paio di occhiali da sole) e contemporaneamente riflette in
direzione degli occhi le immagini corrispondenti alla scena, generate
virtualmente.
Fig. 26 - Schema in cui viene rappresentato il funzionamento dei display optical see through.
I display head-mounted see-through non solo hanno il vantaggio di mantenere
intatta la risoluzione del mondo reale, ma risultano anche più sicuri e privi di
aberrazioni visive da risolvere (come per esempio accade nei dispositivi HMD che
utilizzarono telecamere per riprodurre l’ambiente reale)
147
Un’altra categoria molto interessante da prendere in considerazione nella
nostra breve analisi, riferita agli augmented display, è quella dei cosiddetti handheld display, ossia tutti quei dispositivi di visualizzazione video o ottici che
devono essere letteralmente “tenuti in mano”. A differenza degli head-worn sono
utilizzati ad una distanza superiore (circa la distanza di un braccio appunto), il
livello di immersività dell’esperienza che
assicurano non è elevato e sono sicuramente
più “ingombranti”. Tuttavia attualmente sono
la migliore soluzione per introdurre la realtà
aumentata nel mercato di massa a causa dei
bassi costi di produzione, della notevole
Fig. 27 - Esempi di più recenti display headworn. A sinistra il prototipo di display retinale
monocromatico della MicroVision. A destra i
“famosi”Google Glasses (Sergey Brin)
facilità d’uso e soprattutto della discrezione con
la quale agiscono. Fanno parte di questa
categoria gli smartphone, cellulari
multifunzione, che proprio grazie alla loro versatilità e alle tecnologie di cui sono
dotati (GPS, magnetometro, accelerometro, giroscopio, connessione WiFI, 3G,
Bluetooth ecc...),rappresentano forse lo strumento ideale per sviluppare a costi
contenuti applicazioni di realtà aumentata.
Sulla base di quanto preso in considerazione fino ad ora, possiamo definire con
precisione il concetto di realtà aumentata. Come ci suggerisce Ronald T. Azuma11
un sistema AR12, per essere considerato tale, deve:
1. combinare assieme oggetti reali e virtuali all’interno di un real environment;
2. essere interattivo ed in tempo reale;
3. allineare correttamente oggetti reali e virtuali con gli altri elementi
dell’ambiente.
11
Ha costruito il primo sistema di realtà aumentata funzionante, grazie all'allineamento tanto
curato tra oggetti 3D reali e virtuali che l'utente percepiva la coesistenza con gli oggetti nello
stesso spazio ("Per questo lavoro mi sono concentrato esclusivamente sul problema di
registrazione, sulla tracciabilità, la calibrazione e il lavoro di sistema necessari per raggiungere
questo obiettivo con un ottica see-through head-mounted display"). Ci sono stati precedenti sistemi
di AR ma avevano errori di registrazione di notevoli dimensioni.
12
148
Iniziali di Augmented Reality (Realtà Aumentata)
L’aspetto importante della definizione proposta da Azuma è che non limita
l’augmented reality né ad una particolare tipologia di display (come ad esempio
gli HMD che, come abbiamo visto, ne esistono molte tipologie con caratteristiche
e possibilità diverse), né limita la sua applicazione alla sola esperienza visiva, in
quanto può potenzialmente essere applicata a tutti i sensi che compongono la
complessità della percezione umana (udito, tatto e olfatto). Inoltre con il termine
“augmented” si intende in generale la capacità di potenziare l’esperienza
sensoriale dell’uomo, non soltanto aggiungendo ad una determinata scena oggetti
virtuali che aiutano a comprendere meglio ciò che ci circonda, ma anche
rimuovendo da essa all’occorrenza oggetti reali. Sebbene questa pratica sia meno
diffusa e venga chiamata Mediated Reality o Diminished Reality, è comunque un
interessante sottoinsieme delle tecnologie Augmented Reality.
6.3 I continuum di Paul Milgram
Nel 1994 Paul Milgram, in collaborazione con Fumio Kishino, Akira Utsumi e
Haruo Takamura, pubblica un documento dal titolo “Augmented Reality: A class
of displays on the reality-virtuality continuum”, in cui definisce la tassonomia
delle correlazioni esistenti tra gli ambienti Virtual, quelli Augmented ed i relativi
display.
L’opinione diffusa di una Virtual Reality, come abbiamo visto in precedenza, è
quella in cui il partecipante-osservatore è completamente immerso all’interno di
un mondo sintetico, che può o non può imitare le proprietà di un ambiente reale,
di uno già esistente o di uno di pura fantasia, ma che per certi versi può anche
essere superiore, per esempio superando le leggi della fisica che regolano la
gravità, il tempo e le proprietà materiali. Al contrario, un ambiente strettamente
collegato al reale dovrà per forza rispettarle.
149
Fig. 28 - Reality Virtuality Continuum di Paul Milgram (1994).
A partire da questa semplice distinzione Milgram pone i concetti di “reale” e
“virtuale” come antitesi di un Reality-Virtuality Continuum (fig. 28) in cui agisce
una Mixed Reality, ossia tutto l’insieme degli ambienti generici misti, composti da
oggetti ed immagini sia del mondo reale che di quello virtuale e rappresentati
contemporaneamente all’interno di un unico display.
La Mixed Reality è un qualsiasi punto tra i due estremi del continuum Reality
Virtuality, come può esserlo per esempio la Realtà Aumentata (AR).
L’estremità a sinistra del continuum definisce qualsiasi ambiente costituito
esclusivamente da oggetti reali (Real Environment) e include tutto ciò che è
possibile percepire direttamente tramite i canali sensoriali. L’estremo a destra
invece rappresenta l’opposto, ossia un ambiente costituito unicamente da oggetti
virtuali generati attraverso simulazioni grafiche computerizzate (Virtual
Environment) e fruibili mediante l’utilizzo di dispositivi Head Mounted immersivi
o semplici display.
Augmented Reality augmenting natural feedback to the operator with simulated cues
(conference papers by Millgram and Kishino, 1994)
L’Augmented Reality nello schema del continuum di Milgram si posiziona a
fianco del Real Environment da cui ne è direttamente dipendente, in quanto è
predominante in questo caso la percezione del mondo reale, che diventa
“aumentata” grazie ad informazioni generate dal computer e inserite all’interno
del contesto. L’Augmented Virtuality include tutti quei sistemi che sono
150
prevalentemente sintetici, ma che annoverano la presenza di immagini attinte dal
mondo reale. Proprio per questa sua caratteristica è relazionata ai Virtual
Environment.
Il continuum Reality-Virtuality di Milgram del 1994, sebbene si tratti di
un’estensione del concetto di Mixed Reality e delle relazioni esistenti tra gli
ambienti reali e quelli virtuali (e conseguentemente tra le tecnologie che le
rendono possibili), a causa della sua struttura monodimensionale non può
includere tutte le variabili di cui questi ambienti sono pregni, risultando quindi fin
troppo semplice per una corretta distinzione tra i sistemi Augmented Reality e
Augmented Virtuality da altri. Milgram quindi definisce una tassonomia specifica
con cui i mondi misti e quelli virtuali possono essere rappresentati sulla base delle
loro proprietà essenziali (tecnologie di visualizzazione), grazie a un continuum
multidimensionale formato da tre assi: Reproduction Fidelity (Riproduzione
Fedeltà, RF)), Extent of Presence Metaphor (Estensione della Metafora della
Presenza) e Extent of World Knowledge (Estensione della Conoscenza del
Mondo).
Fig. 29 - Reproduction Fidelity Continuum.
Molte delle discussioni sugli ambienti virtuali (intesi come le parti che agiscono
all’interno del Reality-Virtuality continuum), riguardano prevalentemente gli
strumenti (computer, display) e le tecniche grafiche con cui si possono generare
oggetti virtuali dalla qualità sufficientemente elevata da farli apparire “reali”. Il
Primo asse che Milgram identifica è appunto relativo a questi aspetti di
151
riproduzione più o meno fedeli alla realtà: le immagini generate sono classificate
nel continuum RF a partire da semplici immagini wireframe (Ivan Sutherland e la
sua “Spada di Damocle”) fino a quelle di 3D Animation fotorealistica.
In questo contesto i fattori che influenzano un’applicazione di realtà aumentata
o virtualità aumentata nel posizionarsi in un qualsiasi punto lungo l’asse del
continuum RF, sono essenzialmente legati alla loro capacità hardware di elaborare
e riprodurre le informazioni/immagini in tempo reale (per visualizzare immagini
wireframe in tempo reale la potenza di calcolo necessaria sarà di gran lunga
inferiore a quella per immagini ad alta definizione), ma anche alla tecnologia del
display di rappresentazione delle scene generate (per immagini wireframe sarà
sufficiente un display monoscopico, viceversa per una riproduzione
tridimensionale un display 3D HDTV).
Altre discussioni sugli ambienti virtuali invece si concentrano sui fattori
relativi alla sensazione di “presenza” che suscitano all’interno del mondo
computerizzato. Il continuum Extent of Presence Metaphor analizza proprio questi
fattori, misurando il livello di immersione dell’utente all’interno di un Virtual
Environment o Mixed reality. Anche in questo caso la classificazione è
strettamente legata alla tecnologia di visualizzazione utilizzata dal sistema.
Ognuna di queste conferisce un grado diverso di immersione che può variare da
un senso di presenza minima, dato da immagini monoscopiche su monitor WoW
(Window on the World) , fino ad un coinvolgimento totale, dato dalla vista
Realtime imaging attraverso particolari e sempre meno invasivi display head
mounted che lentamente incominciano ad assomigliare a normali occhiali o
futuristici retinal display13.
13 Il display retina è un display ad alta definizione con una quantità di pixel quattro volte
superiore rispetto ai modelli precedenti. La densità di pixels, 326 ppi (pixel-per-inch, pixel per
pollice) è maggiore rispetto al limite di risoluzione dell'occhio umano (ovvero la minima distanza
tra due punti tale che sia ancora possibile distinguerli) che è di 300 ppi. Lo schermo appare così
come "stampato" con i colori delle immagini in completa continuità, come se si osservasse un
foglio di carta.
152
Fig. 30 - Extent of Presence Metaphor.
Per esempio gli Artificial environment di Myron Krueger (che abbiamo avuto
modo di analizzare nel paragrafo 5.3) possono essere posizionati circa a metà del
continuum EPM, poiché fanno uso di immagini panoramiche su schermi grandi
che hanno il potere e il fascino di avvolgere letteralmente lo spettatore all’interno
di una realtà artificialmente generata, garantendo anche libertà di movimento ed
azioni all’interno di essa.
Le tecnologie di visualizzazione utilizzate nei sistema di realtà aumentata
invece sfruttano la vista diretta degli utenti sul mondo reale. L’immersione degli
utenti in questo ambiente avviene semplicemente tenendo gli occhi aperti ed
osservando ciò li che circonda.
Un altro importante elemento che molto spesso viene ignorato nella definizione
di questi environment (VR, AV o AR), è il grado di conoscenza del mondo
(EWK), in pratica quanto sappiamo degli oggetti e del mondo virtuale in cui questi
sono esposti.
Fig. 31 - Extent of World Knowledge
153
L’estremo di sinistra del continuum EWK, World Unmodelled, che rappresenta
il caso in cui l’utente non conosce nulla del mondo remoto che sta osservando, si
caratterizza come una serie di scene fatte da immagini ed informazioni non
modellate (se non per migliorarne la qualità), che sono esplorate “alla cieca” e
visualizzate tramite l’ausilio di appositi display. Fanno parte di questa categoria
per esempio i sistemi di telemanipolazione, in particolare quelli che sono effettuati
in ambienti ostili all’uomo o semplicemente difficili da raggiungere, come
l’esplorazione subacquea o di altri pianeti.
Man mano che ci si sposta verso l’altra estremità della dimensione EWK
invece, troviamo il mondo completamente modellato. É questo il caso delle
virtual reality nel senso tradizionale (e storico) del termine, ossia di ambienti
totalmente virtuali che possono essere generati solamente se il Reality Engine
dispone di una conoscenza completa su ogni aspetto del mondo che sta
elaborando: la posizione degli oggetti, quella della vista dell’osservatore e, nel
caso in cui si tratti di esplorazione attiva (quindi con possibilità di interazione sul
mondo da parte dell’utente), anche delle azioni che il soggetto compie per
manipolare gli oggetti.
La definizione di Azuma di Augmented Reality, quella di Mixed Reality e dei
continuum multidimensionali descritti da Paul Milgam (nei testo pubblicato nel
lontano 1994), hanno portato ad un’idea ben precisa dei concetti e delle tecnologie
che sono alla base degli ambienti virtuali, siano essi più affini al reale (Augmented
Reality) o completamente distaccati da esso (Virtual Reality). I continui sviluppi
innovativi nel campo della rappresentazione (display), dell’elaborazione
multimediale (computer) e della mediazione dei contenuti (interfacce ed input
sensoriali) hanno altresì contribuito enormemente ad incentivare la
sperimentazione e l’esplorazione all’interno dei mondi sinteticamente modificati,
in particolare di quelli maggiormente legati alla realtà (AR) e ai suoi rapporti con
la percezione e i comportamenti umani causati dal suo utilizzo.
L’inerzia dello sviluppo delle augmented reality è attualmente nel pieno della
sua potenza, anzi se possibile, ancor più amplificata grazie all’esplosione
154
dapprima di nuovi mezzi comunicativi (internet) e successivamente dai nuovi
strumenti smart di fruizione ed elaborazione delle informazioni (smartphone,
tablet).
6.4 Che cos’è la Realtà Aumentata? E di cosa si occupa?
Ma che cos’è la realtà aumentata? In che modi si distingue dalle altre
tecnologie? E quali sono le sue applicazioni pratiche? Sono tutte domande
legittime riguardanti le nuove possibilità offerte dallo sviluppo dell’AR, a cui
cercheremo, in questo ultimo paragrafo, di dare una risposta.
La realtà aumentata è una tecnologia “ancestrale”che fonda le sue radici nel
lavoro pionieristico di Ivan Sutherland del 1968, salvo poi trovare nuovo lustro e
un’identità ben precisa (come abbiamo visto in precedenza), differenziandosi dalla
realtà virtuale di concezione tradizionale, a partire dagli anni '90, con la
realizzazione del primo dispositivo AR funzionante presso i laboratori della
Boeing e le successive definizioni di Milgram e di Azuma. La realtà aumentata si
presenta alla percezione del senso comune come un’idea estremamente potente (e
per certi versi anche troppo rivoluzionaria) e, come tutte le altre idee potenti che
hanno fatto la storia dell’informatica (la internet, le realtà virtuali ecc...) e non
solo, si presta ad una facile mitizzazione e ideologizzazione. É un “mito del
presente14” come lo definirebbe Roland Barthes (1915-1980), già ben strutturato
nelle sue caratteristiche, funzionalità e modi espressivi, benché sia appena nato.
Occorre tuttavia demistificarlo, sottraendo da esso il fascino e la potenza
dell’innovazione tecnologica quasi “magica” che porta con sé, al fine di farne
risaltare esclusivamente gli aspetti specifici di cui è impregnato: in particolare
quello di essere un mezzo che non solo ha il potere di agire nei discorsi della
società, ma anche nei discorsi sulla società (meta-sociali) e nei modi in cui la
cultura rappresenta se stessa.
14 Presentava come “naturali” delle situazioni e delle qualità che erano in realtà storicamente
determinate.
155
In questo ambiente comunicativo nuovo, la realtà aumentata istituisce una
diversa forma di lettura-scrittura del reale, ossia una nuova modalità di
significazione e di testualità che si differenzia enormemente rispetto a quelle
tradizionali (come successe negli anni '60 con l’invenzione dell’ipertesto), proprio
perché strettamente collegata alla fisicità di un oggetto o di un determinato
ambiente in cui essa agisce.
Sotto questo aspetto l’AR può essere definita come un dispositivo intertestuale
sincretico, ovvero un insieme eterogeneo di significanti (elementi testuali e
contenuti) che convergono in un’unica esperienza fruitiva attraverso diverse
modalità sensoriali (visive, uditive, gestuali, spaziali ecc...). Per esempio come
accade nella realtà aumentata di Tom Caudell e David Mizell per gli operai addetti
alla manutenzione della Boeing oppure nelle sue forme più evolute, o ancora sulle
più attuali applicazioni per dispositivi smartphone come Wikitude15, Google
Goggles16 oppure Soundhood17 (solo per citarne alcuni).
In queste applicazioni gli elementi del reale sono strettamente collegati al
mondo virtuale multimediale, che agisce nella percezione umana attraverso i
canali sensoriali per determinare nuove modalità cognitive ed espressive.
Tuttavia gli aspetti di intertestualità e sincretismo non sono sufficienti a
distinguere la realtà aumentata per esempio da un gioco interattivo su schermo,
dalla navigazione quotidiana su internet o da un film. Anche in questi casi si è di
fronte a testi complessi, che fanno uso di linguaggi differenti e che sono
imprescindibili da esperienze e rimandi multimediali e multisensoriali,
interconnessi tra loro secondo una serie di citazioni e rimandi continui a volte
impliciti, altre volte espliciti. Una realtà aumentata come quella generata dal
sistema brevettato nel 1998 da Sportvision e battezzato 1st & Ten, è l’esempio
15
Applicazione per smartphone che sfrutta a pieno la realtà aumentata, permettendoci di
sapere in tempo reale cosa c’è intorno a noi con relative indicazioni su come arrivare a
destinazione e la distanza stimata.
16 Applicazione per smartphone che consente di utilizzare, per esempio, codici a barre,
copertine dei libri o immagini come chiavi di ricerca verbali su google.
17 Applicazione per smartphone che consente di riconoscere e visualizzare facilmente i dettagli
informativi testuali (titolo canzone, autore, casa discografica) o iconici collegati (copertina disco,
video, immagini ecc..) di una canzone, a partire dalla sua melodia.
156
forse più opportuno per dimostrare come gli aspetti intertestuali e sincretici delle
AR siano parte integrante delle tecnologie già assimilate nell’immaginario sociale,
quindi per nulla innovative se osservate senza tenere in considerazione le modalità
in cui il prodotto finale (cioè l’immagine risultante dalla fusione delle fonti reali
con quelle virtuali) è stato generato.
Il 1st & Ten fu il primo sistema AR ad essere utilizzato nei broadcasting
televisivi per aumentare di contenuti testuali e visivi utili al pubblico un evento
sportivo trasmesso in diretta, ed è tuttora considerabile come uno dei pochi
esempi concretamente operativo su larga scala mediatica (ancora in uso) e
perfettamente aderente alla definizione scientifica di AR proposta da Azuma
solamente un anno prima in A Survey of Augmented Reality18.
Le immagini virtuali (first-down line, linea del fuorigioco, tempo dei piloti in
una gara, pubblicità ecc...) inserite nel contesto reale (campo di gioco, circuito)
sono accuratamente registrate secondo le tre dimensioni (i segmenti della linea
virtuale calpestati dai giocatori scompaiono così come fanno le linee reali di
demarcazione del campo) e tracciate utilizzando differenti punti di vista
(molteplici telecamere), quindi sono sincronizzate con lo streaming video live
attraverso un leggero delay che consente di eliminare qualsiasi tipo di
problematica relativa alla registrazione.
Fig. 32 - A sinistra il sistema 1st & Ten, ideato da Sportvision. La linea gialla è “aggiunta” alle
riprese in diretta. A destra un altro esempio di augmented reality nei broadcasting televisivi. Il
cartellone pubblicitario è virtuale.
18 Augmented
Reality (AR) is a variation of Virtual Environments (VE), or Virtual Reality [...]
AR allows the user to see the real world, with virtual object superimposed upon or composited
with the real world [...] AR systems that have the following charateristics: 1) Combines real and
virtual 2) Interactive in real time 3) Registered in 3-D.
157
Tecnicamente e concettualmente una linea aggiunta su un campo da football
non differisce per esempio dagli effetti speciali dei film. In entrambi i casi gli
elementi “virtuali” interagiscono con altrettanti reali secondo una perfetta
sincronia, creando l’illusione di presenza fisica all’interno della scena e
“ingannando” lo spettatore (o meglio i suoi sensi). Nei film tuttavia questa
“magia” è frutto di un lavoro di post produzione che può essere più o meno lungo
e/o di qualità a seconda dei risultati che si vogliono ottenere. In un sistema AR le
immagini, i testi-oggetti virtuali sono sia perfettamente inseriti nel contesto reale
mediante una generazione automatica, sia in tempo reale quindi fedeli al punto di
vista dell’osservatore (nel caso di 1st & Ten le telecamere posizionate per
riprendere l’evento), sia si comportano esattamente come elementi fisicamente
presente in scena.
L’augmented reality a differenza di altre esperienze può, e deve, essere
soprattutto indirizzata alla generazione di contenuti a livello user o crowd,
implementabili quindi soggettivamente e/o collettivamente. Sotto questi aspetti
molte delle più interessanti applicazioni AR disponibili per smartphone si basano
proprio sulla possibilità di “aumentare” la realtà attraverso contenuti
personalizzati all’interno dell’ambiente circostante, apponendo fisicamente dei
marker (ARcode o QRcode19) agli oggetti, testi e mondi fisici per connetterli
direttamente con i rispettivi virtuali, oppure, così come avviene per esempio in
TagWhat20 , applicare in un dato luogo una tag che lo identifica e lo trasporta in
una nuova dimensione, conferendo all’utente la possibilità di lasciare un
messaggio proprio come su una bacheca tridimensionale.
Sebbene quella di “taggare” sia un’accezione derivata dalle piattaforme
comunicative tipiche del web 2.0 (social network) e quindi non distintivo della
19 Abbreviazione inglese di "quick response" (risposta rapida), derivata dal fatto che il codice è
stato sviluppato per garantire una veloce decodifica del suo contenuto. E' un codice a barre
bidimensionale composto da moduli neri disposti all'interno di uno schema di forma quadrata,
impiegato per memorizzare informazioni destinate alla lettura tramite un telefono cellulare o uno
smartphone.
20 App che offre la possibilità di elaborare delle mappe personalizzate, basate su proprie
fotografie, su cui collocare le più svariate informazioni: testo, immagini, video e link. Dei veri e
propri ipertesti fortemente contestualizzati.
158
realtà aumentata, implica comunque interessanti sviluppi nel campo di ciò che è
stato definito internet of things21, in cui appunto la fisicità degli oggetti e delle
cose viene collegata con il sapere della Rete. Una rete fatta di cause ed effetti in
cui il dialogo tra soggetti ed oggetti avviene in modo istantaneo, generando così
uno scenario in cui la simulazione non è più tale, non è più una semplice aggiunta
(augmentation)o sottrazione (diminishing) o trasformazione, ossia mediazione
rispetto alla realtà, ma diventa realtà stessa già nel momento in cui è figurata,
immaginata, percepita. Uno scenario in cui il simbolico confluisce nelle things
(cose) che diventano quindi il principale device di comunicazione.
il web non è più un insieme di pagine HTML che descrivono qualcosa. Il web è diventato il
mondo stesso e ognuno in questo mondo riflette un' ombra di informazioni22, un set di dati che
vengono catturati e processati in maniera intelligente dai dispositivi, dai sensori, da codici
offrendo notevoli opportunità. (O’Reilly & Battelle 2009)
Quindi se definiamo l’internet delle cose come l’estensione naturale della Rete
al mondo degli oggetti e dei luoghi concreti, e indichiamo la realtà aumentata
come uno degli strumenti in grado di connettere tali oggetti e luoghi alla rete,
allora device come gli smartphone, grazie alle loro tecnologie sempre più
sofisticate (GPS, giroscopio, magnetometro, accelerometro, fotocamera rete WiFI,
3G ecc...), possono essere considerati la finestra, o meglio gli occhi e le orecchie,
con la quale possiamo osservare e soprattutto generare il nuovo mondo e i nuovi
modi di pensare.
É interessante notare come la prima esplosione “mediatica” del concetto di AR,
favorita senza dubbio dal rilascio di ARToolKit23 (1999) e successivamente di
21
"Internet delle cose" citata per la prima volta da Kevin Ashton, nel 1999.
22 Secondo Tim O’Reilly (2009) ogni persona possiede informazioni che sono come la sua
ombra e si riflettono nelle sue caselle e-mail, nei contatti skype, nei post del blog o su facebook,
nei cinguettii di Twitter, nelle foto, nei video... In poche parole in ogni aspetto della sua essenza
online.
23
Una libreria software open-source che permette al programmatore di sviluppare applicazioni
AR, utilizzando un algoritmo di visione per calcolare la reale posizione e orientazione della
telecamera relativamente al marker, permettendo così al programmatore di disegnare oggetti
virtuali sulla scena reale.
159
FLARToolKit24 (2004), sia stata meno penetrante rispetto a quella che è
attualmente in atto, incentivata soprattutto dalla diffusione massiccia degli smart
device. La diffusione di questi dispositivi è iniziata già a partire dal 2009 e non ha
ancora subìto rallentamenti o brusche frenate, anzi secondo le recenti ricerchestatistiche sta addirittura accelerando: negli Stati uniti oltre il 50% degli
“utilizzatori” di internet in mobilità accede alla rete utilizzando uno smartphone25
(circa 84 milioni), mentre in Italia è appena avvenuto il sorpasso di questi
dispositivi sui cellulari tradizionali (oltre 20 milioni) 26.
La loro diffusione massiccia è il simbolo della nuova rivoluzione digitale,
l’ennesimo passo verso la simbiosi sognata da Licklider tra l’uomo e le
tecnologie. Gli smartphone ad oggi sembrano essere il terreno più fertile della
sperimentazione sulle realtà aumentate e sulle loro possibilità interattive tra gli
ambienti, oggetti, testi e gli esseri umani.
Sicuramente uno dei primi step verso l’internet delle cose alla portata di tutto e
tutti.
Il potere di collegare il reale al virtuale, l’attuale al possibile (e viceversa),
tipico delle applicazioni AR, è prevalentemente un atto di potenziamento
informativo e percettivo, non tanto riferito alla realtà in sé, quanto all’esperienza e
ai nuovi modi di interazione che il soggetto acquisisce con essa.
Difatti ciò che viene aumentato grazie alle applicazioni dell’Augmented Reality
non è la realtà in sé, ma piuttosto la percezione che gli utenti hanno del mondo
che li circonda (tramite informazioni virtuali che altrimenti sarebbero state
impossibili da visualizzare attraverso i propri sensi) e le possibilità di interazione
con esso (le informazioni trasmesse dagli oggetti virtuali aiutano gli utenti ad
eseguire le attività del mondo reale). Sono queste le caratteristiche che rendono
l’Augmented Reality veramente interessante, l’esempio specifico della Man24 Versione Actionscript (v3) di ARToolKit in grado di riconoscere un marker visuale da
un'immagine in input e calcolare sia l'orientamento che la posizione della telecamera nel mondo
3D, per poi sovrapporre grafiche virtuali sull'immagine video reale.
25
blog.nielsen.com/nielsenwire/?p=31688
26 www.nielsen.com/it/it/news-insights/comunicati-stampa/2011/continua-a-crescere-lanavigazione-da-mobile-in-italia-.html
160
Computer Symbiosis teorizzata da Licklider e della tecnologia immaginata da
Engelbart in grado di potenziare l’intelletto umano.
Si tratta di un processo di augmentation che può avvenire secondo due
modalità: il primo è di tipo qualitativo, ossia avviene tramite l’aggiunta di
contenuti più dettagliati e approfonditi, il secondo è di tipo quantitativo, cioè
semplicemente tramite l’aggiunta di più contenuti.
Per esempio un sistema AR che permette di applicare un marcatore virtuale sul
luogo in cui è parcheggiata la macchina, rappresenta un accrescimento qualitativo
dell’esperienza (Augmented Car Finder), mentre le applicazioni che permettono
di recuperare, a partire da un oggetto, le informazioni legate ad esso (prezzo,
modelli disponibili, produttore ecc...) sono da considerare come augmentation
quantitative, quindi essenzialmente di natura cognitiva.
Il dominio di applicazione di una realtà aumentata in cui il livello di
intensificazione ed estensione, inteso come accrescimento qualitativo
dell’esperienza, tanto elevato quanto necessario,
è sicuramente quello medico. Già agli albori del
concetto di augmented reality iniziarono i primi
interessanti esperimenti sull’effettiva possibilità
di estendere grazie all’AR le capacità dei medici
durante semplici analisi “scopiche” di controllo,
o veri e propri interventi di chirurgia assistita e
microinvasiva.
Uno dei primi sistemi di controllo in ambito
Fig. 33 - Esempio di sistema medico per
visualizzare in tempo reale le immagini 3D del
feto all’interno del grembo materno.
medico venne progettato a partire dal 1992, presso
l’University of Noth Carolina a Chapel Hill. Un gruppo di ricercatori condusse
diverse sessioni di prova con un dispositivo ad ultrasuoni per scansionare il ventre
di una donna incinta. L’obiettivo del progetto era quello di creare un vero e
proprio “3-D stethoscope” che riuscisse a conferire al medico la capacità di
visualizzare tramite un See-Through Head Mounted Display, le immagini
161
tridimensionali in tempo reale del feto (sviluppo e posizione) all’interno del
grembo materno.
Vedere ciò che ad occhio nudo non era possibile osservare e farlo nel modo più
naturale possibile.
Ben diversa invece può essere considerata l’applicazione dell’augmented
reality in situazioni più complesse come gli interventi chirurgici.
Il sistema immaginato a questo scopo prevedeva l’uso di un modello
tridimensionale delle anatomie del paziente (generato attraverso una raccolta di
immagini 3-D, ricavate da risonanza magnetica o sistemi di rilevamento
ecografico), che avrebbe permesso di mappare l’esatta posizione delle formazioni
maligne da rimuovere o analizzare. Il modello, opportunamente combinato in Real
Time con il paziente e con “mockup” di istruzioni, avrebbe guidato la mano del
chirurgo (e/o dell’apprendista) alle corrette operazioni da eseguire.
Indubbiamente un sistema di questo tipo profila scenari decisamente suggestivi
e futuristici, ma la sua concreta realizzazione era (ed è tuttora) considerata di
difficile praticabilità, anche se applicativi AR di simulazione e training per
operazioni chirurgiche, di natura molto simile a quella appena descritta, sono in
realtà in via di sperimentazione (simulatore Canada National Research Council27
e Mini-Virtual Reality Encanced Mannequin for self-directed learning28). Sebbene
questi esempi non siano concretamente attivi, rappresentano comunque l’idea di
AR come strumento in grado di potenziare significativamente le capacità
percettive dell’uomo, quindi di migliorare sensibilmente le sue possibilità di
azione all’interno delle situazioni della vita di tutti i giorni: da quelle lavorative,
27
Simulatore neurochirurgico che utilizza l'innovativa tecnologia NRC per ricreare l'atmosfera
da sala operatoria, consentendo ai medici di "allenarsi" per prove complesse, come operazioni al
cervello, prima di eseguire l'intervento chirurgico vero e proprio.
28 Ambiente
digitale di formazione in cui si riproducono, attraverso la sovrapposizione tra
elementi reali e digitali, situazioni e azioni complementari a quelle che possono verificarsi nello
svolgersi della loro professione medico-sanitaria. Per creare questo contesto immersivo, vengono
posizionati sui polsi del personale medico in formazione due marker che permettono la
visualizzazione delle azioni, direttamente sul monitor. Contemporaneamente il sistema permette
anche il monitoraggio delle azioni (compressioni toraciche e ventilazioni di salvataggio) e dei gesti
eseguiti, per avere un riscontro immediato sulle procedure fatte ed una auto-valutazione del lavoro
eseguito, consentendo una correzione degli eventuali errori commessi.
162
dove sono richiesti interi sistemi dedicati, a quelle ludiche in cui è sufficiente
semplicemente un app da scaricare ed installare sul proprio smartphone.
Oltre a queste possibili augmentation qualitative o quantitative dei contenuti
tipici dei sistemi AR, occorre analizzare un'ulteriore caratteristica già più volte
indicata come elemento chiave nella riuscita di esperienze aumentate del mondo
reale e più in generale degli ambienti che fanno parte del Reality-virtuality
Continuum.
Tale tratto distintivo è legato al fattore “immersione”, cioè la possibilità di
creare simulazioni di ambienti in modo tale che risultino percettivi e reattivi (cioè
in grado di rispondere coerentemente e in modo intelligente ai mutamenti di
postura, punto di vista, orientamento, gestualità ecc...) specificatamente indirizzati
ad uno schema corporeo. Ovviamente il grado di immersione nelle realtà
aumentate è a sua volta legato al tipo di tecnologia utilizzata (difatti Milgram nel
continuum EPM associa direttamente il livello di immersione al dispositivo di
visualizzazione) e alle necessità dell’applicazione
L’esempio più eclatante in merito ad un'immersione pressoché completa di
questo tipo di facilitazioni, tralasciando le centinaia di applicazioni per
smartphone (che per evidenti limiti tecnici sono da considerare come i sistemi
“poveri” dell’augmented reality),è rappresentato dall’utilizzo dei complessi
sistemi AR dedicati in ambito militare.
Diversamente dal dominio medico (che abbiamo visto in precedenza), quello
militare, è sempre stato terreno fertile per la nascita, lo sviluppo e l’affermazione
delle nuove tecnologie. Successe con i computer, con internet, con le Realtà
Virtuali (HMD, simulatori per addestramento ecc...) e naturalmente anche con le
Realtà Aumentate.
L’esercito già nei primi anni '90 utilizzava (e utilizza ancora) display
augmented che presentano al pilota, direttamente sulla visiera o sul vetro della
fusoliera del velivolo, dati ed informazioni che possono essere sia di natura
tecnica (equipaggiamenti disponibili, autonomia carburante, altezza di volo,
inclinazione ecc...) che di tipo operativo, cioè direttamente collegate alla zona in
163
cui sta agendo in quel momento il pilota (presenza di nemici o alleati, obiettivi,
allarmi etc..).
A partire da questi dispositivi la Tanagram Partner, grazie anche al contributo
del DARPA, sta attualmente sviluppando una tecnologia militare in AR, che se
dovesse rispettare quanto promesso nei prototipi, senza dubbio cambierebbe
completamente gli scenari di guerra per come li conosciamo noi oggi.
L’Intelligent Augmented Reality Model (IARM) è stata presentata nel giugno del
2010 in occasione del meeting-workshop sulle Augmented Reality a Santa Clara,
in California, dal CEO Joseph Juhnke ed è stata accolta con enorme entusiasmo
da tutto l’ambiente. La mission di Tanagram Partner è quella di dotare i soldati di
fanteria di un dispositivo intelligente, in grado di aumentare la percezione degli
ambienti e migliorare lo scambio di informazioni tra le truppe: immerge
completamente i militari nella visione potenziata della realtà che li circonda.
IARM sarà dotato di sensori leggeri e display che raccolgono e forniscono dati
da e per ogni singolo soldato nel campo di battaglia. L’equipaggiamento
tecnologico include un computer, una videocamera a 360 gradi, sensori UV e
infrarossi, telecamere stereoscopiche e goggles display OLED 29 trasparenti.
I soldati saranno messi in condizione di comunicare direttamente con la base
operativa e tra di loro, trasmettendo informazioni importanti e utili
all’ottimizzazione delle loro azioni, attraverso l’utilizzo di un linguaggio testuale
o iconico specifico (simboli e colori potrebbero essere utilizzati per indicare la
pericolosità di una determinata zona oppure la presenza di nemici, pericoli,
cecchini lungo un determinato percorso) o attraverso gesti e posture corporee
specifiche.
IARM in poche parole intende migliorare i processi di decision making dei
singoli soldati rispetto agli obiettivi della missione, grazie soprattutto alla
possibilità di “arricchire” collaborativamente in tempo reale di oggetti-testi,
29
Dispositivo dall'aspetto di un paio di occhialini, ma con il display in oled situato a lato di
una delle lenti. Fornito inoltre di fotocamera frontale che permetterà l'utilizzo di app di AR, mentre
i comandi verranno impartiti tramite input cinetico o vocale. L'hardware sarà probabilmente un
single core da 1ghz e una quantità di ram tra i 256 e i 512 MB. Inoltre sono dispositivi autonomi,
quindi potremo reperire le informazioni di AR direttamente dalla rete.
164
informazioni e nuovi significati la mappa dell’ambiente in cui essi agiscono.
Sebbene questo tipo di applicazione sia legato a specifici usi strategici militari,
incarna perfettamente quello che è il concetto di immersività all’interno di un
ambiente aumentato da testualità e possibilità comunicative strettamente connesse
gli uni alle altre. Non è da escludere che nel prossimo futuro strumenti come
questi possano essere utilizzati nella quotidianità e nei rapporti sociali: il progetto
Tanagram prevede infatti di dotare di questi equipaggiamenti anche forze civili,
come pompieri e unità di soccorso.
Fig. 34 - Illustrazioni del dispositivo progettato dalla Tanagram Partners.
Un’altra caratteristica essenziale delle applicazioni AR, come per molte altre
tecnologie, è legata alla possibilità dell’utente di generare il proprio testo, di
intervenire non solo sul significato, ma anche a livello del significante,
modificandolo aggiungendo, sottraendo collegando e scollegando elementi da
esso. Una tendenza questa della ricombinazione degli elementi che è uno dei tratti
forti della cultura digitale, ma rappresenta anche il fondamento su cui si basa in
generale tutta l’attività culturale dell’uomo. In particolare nelle applicazioni di
augmented reality non si tratta tanto di creare il proprio testo attraverso un
165
intervento diretto, ma piuttosto fare in modo che il testo si crei da sé, secondo un
processo generativo che si avvale della comunicazione come principale forza
trainante e trasformatrice che avviene come risposta a determinate e specifiche
sollecitazioni semantiche e gestuali degli utenti.
La realtà aumentata può essere intesa come modi diversi di percepire la realtà,
tanti quanti sono i layer di contenuti-testi che sono stati generati, siano essi frutto
di processi e mappe autogenerative che ricreano
il percorso esperienziale dell’utente in base a ciò
di cui ha bisogno oppure di precise
augmentation sviluppate collaborativamente o
singolarmente per qualsiasi finalità specifica
(marketing, advertising, lettura interattiva,
istruzione, ecc...). Ogni livello rappresenta un
particolare aspetto di ciò che si osserva, un
punto di vista differente sul mondo e il suo
comportamento. Ciò rende l’AR uno strumento
particolarmente adatto a riappropriarsi dei propri
spazi, soprattutto nei contesti urbani, ormai da
tempo deturpati dalle pubblicità, che possono
essere rimodellati, arricchiti o depotenziati.
Il concetto di realtà aumentata per esempio può
portare alla costruzione di edifici come l’N
Building a Tachikava (Tokio), grazie alla
Fig. 35 - N’building
collabrazione tra il gruppo Teradadesign e
Qosmo. Si tratta di un palazzo commerciale
intelligente che nella sua unica facciata visibile (rivolta verso i passaggi pedonali)
integra un sistema di controllo climatico e gestione della luce solare, con uno
design neutro (privo di insegne luminose, cartelloni pubblicitari ecc...) e un
sistema di comunicazione basato appunto sull’augmented reality.
166
In realtà tutta la facciata dell’edificio è una gigantesca composizione di
“finestre” QRcode, che hanno la funzione di mascherare alla vista tutto ciò che
riguarda il contenuto interno dell’edificio, spogliandolo di fatti di qualsiasi tipo di
espressività. Tuttavia utilizzando un dispositivo in grado di interpretare i disegni
dei marker, il palazzo comunica con l’esterno mostrando tutta la sua vitalità, si
scoprono quindi promozioni, saldi, informazioni, ma anche messaggi, tweet e
possibilità di interazione con l’edificio stesso o chi c’è al suo interno.
L’N building è il risultato della sovrapposizione di più layer: uno fisico
(materiale con cui è costruito), uno tecnologico (controllo climatico) e uno
appunto informativo-interattivo virtuale (realtà aumentata). La sua stretta
interconnessione tra il mondo reale e quello informatico (virtuale) lo rende un
concreto (ed interessante) esempio di internet delle cose applicata ad un edificio,
ma ciò che forse è ancora più interessante è rappresentato dal fatto che: da un lato
gli utenti possono sperimentare attivamente l’aumento delle capacità sensoriali
osservando qualcosa che non è visibile ad occhio nudo, dall’altro l’ambiente fisico
urbano viene privato di tutte quelle informazioni accessorie che hanno il potere di
saturare le nostre capacità cognitive (pubblicità, promozioni, etc...), trasferendole
nella virtualità.
Riappropriarsi degli spazi urbani è anche l’obiettivo di molti artisti o gruppi
collettivi che sfruttano proprio l’AR per “correggere” la realtà inquinata
visivamente dalle campagne di advertising.
While other media outlets such as television and the Internet have founds ways to provide users
with the ability to filter their informational intake, public space remains the elusive frontier in
which commercial interests govern the discourse In an effort to highlight the individual’s lack of
autonomy in this arena [...] have begun to explore the potential of augmented reality to
reappropriate outdoor commercial singage in order to transform, filter, and democratize the
messaging in public space [...] (gruppo anti-advertising Public Ad Campaign)
Utilizzando uno dei più popolari browser AR, Junaio, il gruppo Public ad
Campaign ha creato un canale denominato AR | AD Takeover in cui alcune
campagne pubblicitarie vengono utilizzate come marker per essere riconosciute e
167
sostituite in realtà aumentata con opere d’arte. L’intento, come esplicato nel
manifesto, è proprio quello di riappropriarsi degli spazi urbani, monopolizzati dai
brand commerciali, quindi della realtà in modo tale da democratizzarla, filtrarla ed
eventualmente rimodellarla secondo nuove modalità. Il consumatore si riappropria
del suo territorio e torna a percepire il mondo per com’è davvero, sottraendo da
esso i miti e falsi miti indotti dalla pubblicità.
Se da un lato il futuro degli spazi urbani e delle AR sembra indicare la via della
purificazione, dall’altro l’augmented reality è sicuramente considerata la nuova
frontiera della pubblicità, se possibile, ancora più persistente e per certi versi
anche più “pericolosa”, in quanto fortemente incentrata sulla singola persona, sui
suoi gusti, georeferenziata e sempre più presente, coinvolgente e persuasiva.
In pratica un terreno ancora vergine tutto da conquistare.
I concept video di Keiichi Matsuda, Augmented (Hyper) Reality: Domestic
Robocop e Augmented City sono proprio questa realtà: mondi di pubblicità che
invadono tutti i nostri spazi virtuali (quasi) fino a soffocarci, tanto da doversi
dotare di schermi “respingenti” anche solo per camminare in città.
É evidente che gli scenari di Matsuda siano ben lontani dall’essere
possibilmente attuabili, ma manifestano quello che è il concetto chiave: la realtà
aumentata è un mondo di contenuti significanti e significati, siano essi testuali o
multimediali, che instaurano legami sempre più profondi e inscindibili con il
nostro sé, man mano che le tecnologie-dispositivi di visualizzazione e delle
interfacce divengono sempre più human freindly e trasparenti, nonché socialmente
accettabili.
Il prototipo del Sixth Sense, sviluppato da Pranav Mistry (come progetto di
dottorato di ricerca in Fluid Interfaces al Media Lab del MIT) e presentato al TED
nel novembre del 2009, rappresenta proprio questa tendenza.
É un anteprima di ciò che potrebbe riservare il futuro.
Un futuro a dire la verità non troppo lontano.
Il Sixth Sense è un dispositivo di interfaccia gestuale wearable (indossabile)
che “aumenta” il mondo fisico di informazioni digitali e consente alle persone di
168
utilizzare movimenti e gesture naturali della mano per interagire con le
informazioni e i contenuti virtuali.
Il prototipo del dispositivo di Mistry è composto da: un proiettore
miniaturizzato (pico projector), uno specchio, una mini camera e un dispositivo di
mobile computing tascabile.
Fig. 36 - Pranav Mistry alla presentazione del suo dispositivo augmented reality indossabile,
Sixth Sense.
Le immagini, informazioni e i testi-contenuti sono proiettate su enabling
surfaces utilizzate come interfaccia, ossia qualsiasi parete o oggetto fisico attorno
al soggetto che indossa il dispositivo. La mini camera riconosce gli oggetti fisici e
traccia i gesti dell’utente attraverso l’utilizzo di fiducials colorati posti sulla punta
delle dita. I movimenti di questi ultimi vengono elaborati ed interpretati dal
software e fungono da istruzioni di interazione per le interfacce delle applicazioni
previste. Il numero massimo di fiducials, quindi di gestures multitouch, è
ovviamente limitato al numero delle dita. Il sistema Sixth Sense implementa
diverse applicazioni che ne dimostrano la vitalità, l’utilità e la flessibilità. Per
esempio l'app delle mappe consente all’utente di navigare in una mappa
169
visualizzata su una superficie vicina con i semplici gesti delle mani, consentendo,
similmente a quanto accade sui dispositivi multitouch (smartphone, tablet), di
interagire con essa ingrandendola, rimpicciolendola o ruotandola. Sixth Sense
inoltre permette di disegnare sulle superfici e di controllare l’interfaccia del
sistema, attraverso l’utilizzo di particolari gesture o tramite il riconoscimento di
simboli disegnati con le dita nello spazio di fronte al raggio d’azione della
telecamera. Per esempio disegnando una lente di ingrandimento sarà attivata
l’applicazione delle mappe, disegnando il simbolo “@“ sarà possibile controllare
la posta. Il sistema Sixth Sense aumenta gli oggetti fisici nella realtà con la quale
l’utente interagisce, proiettando sopra di essi informazioni che li riguardano. Per
esempio un giornale cartaceo può mostrare direttamente video, notizie live o
informazioni dinamiche attinte dalla rete, oppure disegnando virtualmente un
cerchio sul polso permette di visualizzare la proiezione sul proprio braccio di un
orologio analogico. In poche parole il Sixth Sense è veramente un sesto senso, o
meglio, è un potenziamento di tutti i sensi umani che grazie alle tecnologie
riescono a manifestare e ad interagire con oggetti, spazi, ambienti arricchiti di
informazioni, di nuovi contenuti e significati. In un futuro non troppo lontano
quindi potrà essere possibile, incontrando una persona di nostra conoscenza,
vedere proiettate sul suo corpo o intorno ad esso tutte le informazioni che la
riguardano, tutti i dati della sua vita online e offline che ha deciso di condividere.
A questo punto della nostra analisi è giusto chiedersi se l’augmented reality è
destinata a durare nel tempo, quindi affermarsi come tecnologia stabile, oppure se
rappresenta una moda passeggera, “un mito del presente” che terrorizza e attira
allo stesso tempo, e che senza il giusto mix di contenuti e utilità potrebbe essere
un soltanto ennesimo hype tecnologico destinato a scomparire.
L’hype cycle30 diffuso da Gartner nel luglio del 2012 colloca la realtà
aumentata al cosiddetto “Peak of inflated expectations”, ossia quella fase del ciclo
di esposizione mediatica di un emergente tecnologia in cui si iniziano a produrre
30 Letteralmente significa "il ciclo di eccitazione", è il modello di analisi per verificare
l’esposizione mediatica rispetto all’introduzione di una qualsiasi nuova tecnologia. Messo appunto
dalla società di consulenza tecnologica americana Gartner.
170
articoli, commenti ed analisi generalmente positivi che attivano aspettative
“gonfiate” rispetto a quelle reali. Ciò indica anche una possibilità di adozione
definitiva entro i prossimi 5 anni.
Fig. 37 - L’hype cycle delle reltà aumentate nel 2012 conferma la tendenza di crescita rispetto ai
precedenti anni.
Nella stessa analisi condotta nel 2008 (figura 38) l’AR veniva considerata al
primo stadio del ciclo (Technology trigger, sostanzialmente l’inizio di un lieve
interesse mediatico), con possibile adozione oltre i 10 anni. Solamente l’anno
successivo (2009), in contemporanea con l’esplosione degli smartphone, l’AR
incomincia a scalare l’hype cycle e la sua adozione passa da più di 10 anni a meno
di 10 (tra i 5 e i 10 per l’esattezza).
Da un punto di vista dello sviluppo, i dispositivi e le applicazioni AR non solo,
come abbiamo visto nei precedenti paragrafi, hanno tutte le caratteristiche
tecnologiche e sociali (dispositivi portatili di visualizzazione, affidabilità,
semplicità e immediatezza d’uso, utilità pratica, possibilità comunicative tutte da
esplorare) per poter essere largamente utilizzati, ma implicano anche un impatto
171
Fig. 38 - Confronto dell’hype cycle delle realtà aumentate redatto da Gartner tra il 2008 e il
2011.
172
Motivazioni e obiettivi del progetto _____________________179
Descrizione del progetto we.are.able_____________________182
Risultati raggiunti ___________________________________192
Conclusione ________________________________________201
Bibliografia
Sitografia
7
un'esigenza sempre più forte di socializzare, quindi di rimare in rete (Nomofobia o
disturbi da Social Addiction o Friendship Addiction).
Le rivoluzioni tecnologiche portano così ad un progresso umano e quindi
all'esplorazione di nuovi orizzonti. Si fanno i primi passi verso il mondo in Realtà
Virtuale e in Realtà Aumentata.
Uno dei primi fu Heiling che diede vita al Sensorama Simulator, un'esperienza
multisensoriale mai provata prima. Susseguirono Sketchpad e The Ultimate
Display, entrambe di Sutherland, in cui pose le basi per l'avvento della realtà
virtuale.
Nel 1968 completato l'Head Mounted Three Dimensional Display (spada di
Democle), Sutherland e il suo staff svilupparono il matrix multiplier e il clipping
divider.
A differenza di Shuterland, Myron Krueger concepì un'idea diversa di realtà
virtuale: non sarebbero stati ingombranti ed isolanti marchingegni a condurre
l'uomo in mondi artificiali, ma una stanza appositamente studiata. Nascono così
parallelamente altri esperimenti di realtà virtuale, come Put that there (1980),
sotto la supervisione di Richard Bolt, con interfaccia a comando gestuale-vocale,
come Aspen Movie Map, una sorta di evoluzione del Sensorama di Hollerith e
ascendente dell'attuale Google Street View (immersività), come Moondust, ideato
da Janor Lanier.
Nel 1981 si assaggiò quello che oggi definiamo wearable computer. Difatti
Thomas Zimmerman, appassionato di musica come Lanier, ideò Dataglove
("quella mano fluttuante era qualcosa di più di una mano. Ero io"), un guantosensore impiegato nella realtà virtuale.
Si respirava così una nuova aria. Un'aria di una nuova era dalle potenzialità
non meno affascinanti e suggestive: l'era della Realtà Aumentata.
Nata per agevolare l'uomo (manutenzione Boeing 747), prese subito campo
mediatico. Brevettato da Sportvision, 1st & Ten è il primo esempio di AR ad
essere utilizzato nei broacasting televisivi.
Si ha così la prima esplosione mediatica del concetto AR.
Esplosione favorita dall'uscita di ARToolKit e successivamente di FLARToolkit
(2004), grazie alle quali si potevano creare applicazioni in AR (alcuni esempi
sono il 3-D stethoscope per l'ambito medico, IARM per quello militare e
N'Building per quello architettonico).
Anteprima di ciò che ci potrebbe riservare il futuro, è data da Pranav Mistry,
con la creazione del dispositivo augmented reality wearable, Sixth Sense. Questo
dispositivo di interfaccia gestuale wearable aumenta il mondo fisico di
informazioni digitali, attraverso l'utilizzo di movimenti e gesture naturali della
mano per interagire con i contenuti virtuali.
Si ritorna così,dopo un excursus di migliaia di anni, alla mano, da strumento
calcolatore a strumento di realtà aumentata.
Mano che avrà un ruolo anche nella seconda parte del mio elaborato, quella
dedicata al progetto.
10
13
1.1 La mano, il primo computer “digitale”
Le nostre mani senza dubbio rappresentano la prima forma, seppur primitiva,
di amplificatore dell’intelletto (e non solo): sono la chiave che ha aperto all’essere
umano la porta dell’evoluzione, distinguendolo così dagli altri esseri viventi.
La mano ci ha permesso di: costruire utensili e strumenti di caccia, riprodurre
graficamente e simbolicamente ciò che i nostri occhi o la nostra mente vedevano
(grotte di Lascaux), e soprattutto di calcolare.
Grazie all’uso della dattilonomia3 i nostri antenati potevano fare calcoli
aritmetici e, tramite sistemi di rappresentazione, potevano visualizzare numeri
complessi semplificando notevolmente il lavoro che la mente (diversamente da
questa tecnologia) avrebbe dovuto compiere. Sebbene non ci siano prove concrete
e le sue origini siano del tutto oscure, del sistema dita-mente si hanno tracce in
diverse epoche storiche.
Quintiliano (35-96 d.C.), maestro di retorica e oratore romano, per esempio,
afferma che un oratore sarebbe stato considerato ignorante se avesse sbagliato un
calcolo o se avesse utilizzato gesti con le dita in modo errato mentre era
impegnato nella risoluzione del medesimo.
Gli Arabi (abilissimi matematici) chiamavano la dattilonomia “aritmetica dei
nodi”4 , ampiamente utilizzata per tutto il Medioevo Islamico. Tale tecnica venne
inserita tra i cinque metodi di espressione umana e preferita a qualsiasi altro
sistema di calcolo perché non richiedeva materiali né strumenti particolari oltre
che a un arto. Si hanno tracce anche nel Medioevo Europeo dove il teologo
anglosassone Beda (672-735 a.C, monaco divenuto santo inglese), nel primo
capitolo del “De computa vel loquela digitorum”, dimostra la possibilità di
esprimersi ed eseguire calcoli con numeri da 1 a 9999 utilizzando la mano.
3 Arte
ormai (quasi del tutto) abbandonata del conteggio aritmetico tramite l’uso delle dita,
adoperando invece dei caratteri le varie inflessioni e movimenti di quest’ultime in modo da
rappresentare cifre e calcoli complessi.
4 Aritmetica basata sull'utilizzo di un insieme di cordicelle, annodate tra loro, di diversi
colori,che rappresentavano dei numeri e dalla loro reciproca posizione se ne potevano ricavare le
unità, le decine, le centinaia e le migliaia.
16
e a lungo necessitava di maggiore precisione e forza, ma ciò non toglie il fatto che
la macchina calcolatrice realizzata da Pascal, segnò l’inizio di una corsa
inarrestabile che porterà fino ai moderni calcolatori.
Il principio meccanico della Pascalina non è molto diverso dalla suddetta
macchina di Antikythera e fondamentalmente si basa, come per gli abachi, sul
sistema di numerazione posizionale, in cui i simboli (cifre) usati per scrivere i
numeri, assumono valori diversi a seconda della posizione che occupano nella
notazione. La Pascalina era in grado di computare solo semplici addizioni e
sottrazioni, un limite che nel 1670 Gottfried Wilhelm von Leibniz7 cercò di
superare grazie al prototipo della sua macchina a scatti, dotata di tecnologia per
eseguire anche calcoli più complessi, come moltiplicazioni e divisioni.
Fig. 2 - La Pascalina
1.4 Leibniz e il sistema binario
Nonostante fosse un enorme progresso rispetto alla Pascalina, la macchina a
scatti risulta essere un’innovazione che passa in secondo piano se confrontata a
quello che lo stesso Leibniz, dal punto di vista teorico-matematico, stava
introducendo al mondo.
Per molti anni infatti Leibniz dedicò i suoi studi all’aritmetica binaria 8 (1701),
compiendo così uno dei passi più importanti e significativi nella storia delle
macchine elaboratrici: oltre a codificare un alfabeto appropriato per la logica
7 Gottfried Wilhelm von Leibniz (1646-1716) era un matematico tedesco, oltre che scienziato e
filosofo, noto più come precursore dell'informatica e del calcolo automatico.
8 Il sistema numerico binario è definito un sistema numerico posizionale in base 2, cioè che
utilizza 2 simboli, tipicamente 0 e 1, invece dei 10 del sistema numerico decimale tradizionale.
19
telaio di Jacquard rappresenta comunque uno stadio evolutivo tecnologico di
interessante rilievo e di notevole importanza per le future applicazioni. Un
esempio da seguire.
1.6 I primi computer meccanici
Ascendenti dirette invece possono essere definite e considerate a tutti gli effetti
come i primi computer meccanici della storia, le macchine di Charles Babbage
(1791-1871), matematico inglese e scienziato proto-informatico.
Rispetto ai suoi predecessori che hanno sempre cercato di costruire macchine
calcolatrici capaci essenzialmente di eseguire le quattro operazioni principali
(addizione, sottrazione, divisione, moltiplicazione), il matematico inglese voleva
creare calcolatori universali dotati di memoria, di una parte operativa e di un’unità
di controllo (concettualmente e “architetturalmente” molto simili a quelli
moderni), capaci di svolgere sequenze di calcoli determinati dall’esecuzione di
uno specifico programma. I calcolatori numerici presentati da Babbage hanno
introdotto il concetto per la quale una macchina può imitare molto da vicino
alcune azioni umane, semplicemente istruendole tramite apposite tavole di
istruzioni programmate.
to “programme a machine to carry out operation A” means to put the appropriate instruction
table into the machino so that it will do A ("Computing Machinery and Intelligence" A.M. Turing,
1950)
Al tempo di Babbage i tabulati numerici (prevalentemente ad uso astronomico)
erano calcolati da operatori umani che venivano chiamati “computers”(che
significa dall'inglese “colui che calcola”, così come il termine “conductor”
significa “colui che guida”) e naturalmente erano soggetti ad un elevato tasso di
errori. Il suo obiettivo divenne quindi quello di annullare tali imprecisioni tramite
l’utilizzo di macchine calcolatrici.
22
concorso indotto dal United States Census Office (ufficio censimenti degli Stati
Uniti) e finalizzato alla costruzione di una macchina in grado di classificare e
contare automaticamente le schede necessarie per il controllo censitorio del paese.
Hollerith utilizzò l’ormai consolidata idea delle schede perforate del sistema
Jacquard-Babbage, non per specificare un programma da eseguire, ma per
indicare alla macchina i dati da elaborare. Le risposte degli individui venivano
interpretate e codificate su apposite schede da operatori umani secondo la logica
binaria, mediante la rappresentazione di fori o non fori (per esempio un individuo
“maschio” poteva essere rappresentato tramite un foro, mentre una “femmina”
con l’assenza di foro). Per ogni foro la macchina attivava un circuito elettrico,
altrimenti spento in sua assenza, che a sua volta metteva in funzione un complesso
sistema di contatori in grado di immagazzinare ed interpretare le informazioni
relative alle risposte fornite dall’individuo nel questionario del censimento.
La tabulatrice di Hollerith16 divenne il primo dispositivo di calcolo a fare uso
dell’elettricità. Completò il suo lavoro di conteggio e analisi schede in 50 giorni,
(ci vollero 8 anni per portare a termine il precedente censimento senza l’uso di
questo tipo di tecnologia) alla media di circa 800 schede al minuto.
Una vera e propria rivoluzione per l’epoca.
1.7 Alan Turing
La prima metà del XX secolo richiama alla mente da una parte il ricordo di
distruzione e morte dettato dalle due grandi guerre mondiali, dall’altra lo
straordinario progredire delle tecnologie informatiche. Guerra e ricerca
tecnologica fanno parte in questo contesto di un sistema simbiotico, sono gli
ingredienti essenziali che hanno scandito nell’ultimo periodo storico l’evoluzione
che ci ha portato fino ai computer per come li conosciamo e li utilizziamo ancora
16 La macchina tabulatrice era congegnata su un meccanismo molto semplice: un insieme di fili
metallici venivano sospesi sopra il lettore di schede, poste in corrispondenza di appropriate
vaschette di mercurio; una volta che i fili venivano spinti sulla scheda, essi permettevano di
chiudere elettricamente il circuito solo in corrispondenza dei fori praticati durante la rilevazione. Il
circuito elettrico attivato consentiva l’avanzamento del relativo contatore, avvertendo l’operatore
della lettura avvenuta.
25
femmina. Nell’eventualità che una macchina si sostituisse ad A o B, e se i risultati
forniti da C fossero statisticamente identici alla situazione precedente, allora la
macchina poteva essere considerata pensante.
The reader must accept it as a fact that digital computers can be constructed, and indeed have
been constructed, according to the principles we have described, and that they can in fact mimic
the actions of a human computer very closely. ("Computing machinery and intelligence"
A.M.Turing, 1950).
Turing riconosce la difficoltà sulla fattibilità delle sue idee, ma non la loro
impossibilità. È convinto che presto saremo in grado di innestare all’interno delle
macchine il dono del pensiero, predicendo di fatto che entro la fine del secolo
(XX secolo) chiunque potrà parlare di macchine pensanti senza aspettarsi di
essere contraddetto.
La questione “Can machine think?” è rimasta insoluta ancora oggi (e forse una
soluzione non la avrà mai), ma senza dubbio progresso tecnologico e decenni di
ricerca nel campo delle intelligenze artificiali hanno aumentato le nostre
possibilità di risposte al quesito proposto da Turing oltre 60 anni fa.
the only way by which one could be sure that machine thinks is to be the machine and to feel
oneself thinking ("Computing machinery and intelligence" A.M.Turing, 1950).
1.8 “As We May Think” secondo Vannevar Bush
Il 1945 oltre ad essere ricordato come l’anno della fine del secondo conflitto
mondiale, è anche l’anno in cui lo scienziato e tecnologo statunitense Vannevar
Bush (1890-1974) pubblica un articolo dal titolo “As We May Think”. Sebbene i
due eventi abbiano una portata in termini di rilevanza storica ben diversa, in
qualche modo sono entrambi segnali, speranze e motivo di enormi ennesimi
cambiamenti sociali, economici, politici, culturali e tecnologici. Il dopoguerra ha
28
C’è abbondanza di aiuti meccanici con i quali effettuare trasformazioni nei documenti
scientifici [...] Per il pensiero evoluto non esiste nessun sostituto meccanico. Ma il pensiero
creativo e il pensiero essenzialmente ripetitivo sono cose molto differenti. Per il secondo esistono,
e possono esistere, potenti aiuti meccanici. (“As We May Think” Vannevar Bush, 1945)
2. La “visione” utopistica di Engelbart e Licklider
“As We May Think” e l’intuizione del Memex del 1945 sono passaggi
fondamentali che hanno notevolmente influenzato i fautori della prima
rivoluzione informatica, avvenuta tra gli anni ‘60 e ‘70 e che ci ha condotto fino ai
giorni nostri. Leggere il testo di Bush e immaginare il Memex come lo strumento
capace di amplificare le conoscenze umane è, facendo le dovute proporzioni (e
senza voler ricadere nella blasfemia), come osservare Mosé che indica al suo
popolo la strada verso la terra promessa (computer).
Le condizioni tecniche e tecno-logiche affinché si possa raggiungere erano
tuttavia ancora proibitive (occorreva attraversare il Mar Rosso).
2.1 I “Giant brain” degli anni ‘40
Colossus (completato nella sua prima versione nel 1943) era completamente
elettronico, funzionava attraverso 1500 valvole per la logica (2400 nella seconda
versione del 1944) e cinque lettori a nastro perforato, capaci di leggere fino a
5000 caratteri al secondo. Sebbene fosse il primo calcolatore elettronico
programmabile della storia e fosse tra le tecnologie più avanzate dei primi anni
‘40, aveva comunque molte limitazioni rispetto agli standard a cui siamo abituati
(a parte chiaramente la potenza di calcolo).
In primo luogo non è dotato di nessun tipo di programma pre installato:
affinché potesse eseguire altre operazioni occorreva intervenire direttamente sul
cablaggio e sulle valvole. Colossus inoltre non è definibile come computer
General-purpose22 poiché progettato esclusivamente per compiti crittoanalitici.
22 Identifica hardware e software che risolvono problemi generali e quindi non sono dedicati ad
una specifica funzione.
31
Ciò che aveva immaginato Bush andava ad intaccare proprio quel sistema
elitario, poiché mirava ad un rapporto più diretto, personale ed immediato con le
macchine elaboratrici. Non sorprende quindi il fatto che tali idee abbiano avuto
credito e (molta) stima solo parecchi anni dopo, grazie all’avvento della
miniaturizzazione delle tecnologie di base e soprattutto ad altre menti altrettanto
brillanti e profetiche, che hanno rivoluzionato il mondo creandone di nuovi:
Douglas Carl Engelbart, Joseph Carl Robnett Licklider e David Edward
Sutherland(di quest’ultimo ci occuperemo più approfonditamente nel terzo
capitolo).
2.2 Engelbart e il potenziamento dell’intelletto umano
Engelbart nel 1945 era un giovane radarista della Marina statunitense (1925),
impegnato in gran parte delle sue giornate a distinguere le minacce rappresentate
dai puntini sugli schermi. Poco prima della fine della guerra si imbatte
nell’articolo di Bush “As We May Think” e ne rimane davvero affascinato.
“Sopravvissuto” al conflitto, trova lavoro in una piccola ditta di elettronica a
Mountain View (che nel giro di pochi anni si sarebbe trasformata da frutteto a
cuore pulsante e trainante della Silicon Valley), si compra una casa e si sposa.
All’età di trent’anni compresi che avevo raggiunto tutti gli obiettivi della mia vita [...] mi chiesi
che cosa avrei fatto da quel momento in poi e compresi che si trattava di una decisione importante.
("Realtà Virtuali" Howard Rheingold, citazione di Douglas Engelbart, 1983)
Nel 1950 mentre attraversava i frutteti della valle per recarsi (come tutti i
giorni) al lavoro, incominciò a pensare al futuro. Non solo il suo, ma quello di
tutti. Cercava di capire quali opportunità avrebbe potuto cogliere per rendere il
mondo migliore. Gli ritornò alla mente quanto letto dall’articolo di Bush in merito
alla tecnologia e alla sua possibilità di essere d’aiuto per la collettività, e subito si
rese conto che gli scenari che cercava di immaginare si imbattevano sempre sugli
stessi ostacoli: i problemi dell’uomo diventavano ogni giorno sempre più
34
cervello seguendo due tipologie di processi: conscio e inconscio. Il primo si
occupa di tutte quelle azioni che coinvolgono in qualche modo la nostra volontà
(come riconoscere una forma, ricordare, visualizzare, astrarre, dedurre etc.),
mentre il secondo implica la mediazione delle informazioni ricevute dai sensi e
quelle rielaborate dal sistema conscio. La capacità di mediazione degli input
sensoriali generati consciamente e inconsciamente è inoltre dettata anche dal
background culturale ed esperienziale che contraddistingue ogni individuo.
In determinate situazioni complesse l’individuo tende ad ignorare questo tipo
di informazioni, cercando di privilegiare le sue capacità innate derivate dal suo
bagaglio di conoscenze.
For instance, an aborigine who possesses all of our basic sensory-mental-motor capabilities,
but does not possess our background of indirect knowledge and procedure, cannot organize the
proper direct actions necessary to drive a car through traffic, request a book from the library, call a
committee meeting to discuss a tentative plan, call someone on the telephone, or compose a letter
on the typewriter ("Augmenting Human Intellect: A Conceptual Framework" D. C. Engelbart,
1962)
Ogni processo del pensiero ed agire umano, a partire dalle cose più semplici
fino ad arrivare a quelle più complesse, è costituito da sotto-processi strutturati
gerarchicamente e indipendenti tra loro, la parte integrate di un bagaglio, un toolkit di capacità che tutti devono conoscere, imparare ad usare al meglio ed
amplificare. Fanno parte di questo repertoire hierarchy tutte le abilità di base
(definite Explicit Human: movimenti muscolari, utilizzo dei sensi etc.), quelle
acquisite dall’uso di oggetti (definite Explicit Artifact) e quelle composte dalla
combinazione di entrambe le competenze (Composite).
Engelbart definisce questo tipo di sistema attraverso un modello denominato
H-LAM/T26 in cui il linguaggio umano, gli oggetti, la metodologia e la
specializzazione nel loro utilizzo sono gli ingredienti essenziali del
comportamento umano, dell’intelletto e della percezione del mondo.
26
Human using Lauguage, Artifacts, Methodology, in which he is Trained
37
Per scrivere accuratamente un testo, seguendo questa premessa, occorrerà
scrivere più grande e magari premere maggiormente per rendere più nitido,
preciso e leggibile il tratto. Come prima conseguenza ci sarà un dispendio di
energie maggiore, ma anche una produzione di documenti di dimensione
nettamente più voluminose. Le modalità di archiviazione (che consentono
l’organizzazione del commercio e del governo) e i calcoli (che consentono lo
sviluppo delle scienze) assumeranno una forma molto diversa rispetto alla nostra.
Un’altra conseguenza diretta sarà un progressivo rallentamento della
produzione scritta di testi a causa dei libri troppo grandi e più in generale della
cultura, scoraggiando notevolmente le persone dall’apprendere e dal comprendere.
I concetti all’interno di questa civiltà si evolveranno diversamente e la
simbologia per rappresentarli sarà dissimile rispetto alla nostra.
It thus seems very likely that our thoughts and our language would be rather directly affected
by the particular means used by our culture for externally manipulating symbols, which gives little
intuitive substantiation to our Neo-Whorfian hypothesis ("Augmenting Human Intellect: A
Conceptual Framework" Douglas Engelbart, 1962)
Tramite l’uso di computer appositamente progettati, dotati cioè di schermo di
visualizzazione (output) e strumenti di interazione uomo-macchina adatti (input),
e un linguaggio appropriato fatto di immagini e segni, l’uomo è in grado di
rappresentare facilmente i concetti che vuole manipolare, oltre ad organizzarli
(direttamente davanti agli occhi), trasformarli, immagazzinarli e ricordarli. Ogni
individuo così potrà adoperare gli strumenti di cui il computer sarà composto (non
sono posti limiti al riguardo): potrà creare immagini estremamente sofisticate,
grafici, scrivere testi secondo nuove modalità più affini ai flussi del pensiero ed
eseguire una vasta quantità di processi non più legati alla semplice elaborazione
numerica. Comunicherà con il computer mediante interazioni minime in grado
però di produrre risultati dal potenziale immenso.
40
Secondo lo scienziato americano, la cooperazione tra l’intelletto-capacità
umane e le componenti elettroniche dovranno consentire in primis di facilitare
l’esternazione dei pensieri così come ora consentono la risoluzione dei problemi
formulati, e secondariamente di avere un maggiore controllo decisionale in merito
a situazioni complesse senza la dipendenza da programmi predeterminati.
Si tratta di un concetto biologico più che tecnico. La simbiosi dei due
“organismi” diversi tra loro (computer e uomo) si ottiene tramite un'intima
collaborazione, finalizzata alla costruzione di conoscenza così come avviene in
natura nelle società simbiotiche (Blastophaga grossorum e albero di fico).
“living together in intimate association, or even close union, of two dissimilar organisms” (“ManComputer Symbiosis” Joseph Licklider, 1960)
Tra non molti anni, secondo le speranze di Licklider, i cervelli umani ed i
calcolatori saranno associati molto strettamente tra loro e il sodalizio che ne
risulterà avrà capacità intellettuali che nessun essere umano ha mai avuto,
elaborerà dati in un modo a cui nessuna delle macchine per la manipolazione delle
informazione che attualmente conosciamo riesce ad avvicinarsi.
I computer di prima generazione (come abbiamo visto) erano progettati per
risolvere problemi pre-formulati e processare dati tramite procedure predeterminate. Ad ogni imprevisto o risultato inatteso, l’intero processo si fermava
finché non veniva sviluppata l’estensione necessaria per risolvere le
complicazioni riscontrate nella risoluzione del problema principale. Una
collaborazione di questo tipo può essere considerata tutt’altro che simbiotica.
Il cervello umano deve pre-disporre un programma specifico ad ogni necessità,
sottoporlo alla macchina assieme ai dati utili ed attendere che il computer, una
volta terminato il processo, ne restituisca il risultato.
Tuttavia il requisito della pre-formulazione per la maggior parte dei problemi
che l’uomo deve affrontare (in ambiti di ricerca scientifico-tecnologico) non può
essere considerato l’approccio più corretto in quanto le formulazioni, i dati e le
43
loro sogni e trascinare, assieme ad altri “illuminati” tecnologici, il mondo verso il
nuovo mondo.
Nel 1957, dopo aver cercato senza successo di far conoscere la propria idea di
computer, Engelbart trova lavoro presso lo Stanford Research Institute in qualità
di “semplice” ricercatore. Questo gli permette di mettere a punto un modo per far
capire alla gente di cosa stava parlando nella sua “visione”. Dedica gran parte del
suo tempo libero ad elaborare formalmente la struttura concettuale di cui aveva
bisogno (quello che poi diventerà “Augmenting Human Intellect”).
Nello stesso periodo Licklider, affermato professore-ricercatore al
Massachussetts Institute of tecnology, incominciava ad intuire qualcosa circa la
possibilità di delegare parte dei lavori da scienziato alle macchine.
Engelbart e Licklider non si conoscevano ancora, ma lentamente i loro percorsi
incominciarono ad avvicinarsi. Per farli convergere fu necessario un evento
avvenuto dall’altra parte del mondo. Una "causa scatenante" capace di aprire le
menti di molti scienziati e ricercatori (all'epoca ben più importanti ed influenti di
Doug e Lick) dallo stallo culturale e tecnologico che si insinuò a decorrere dalla
fine della Seconda Guerra Mondiale. Non è che dal 1945 la tecnologia si fosse
fermata, anzi tutt'altro, accelerò notevolmente ma sempre verso un'unica
direzione: potenziare sempre più i computer affinché elaborino sempre più
informazioni e più velocemente possibile. Ad eccezione di pochi isolati casi, il
computer, o meglio il suo scopo, era sempre quello ereditato dagli anni '40.
Engelbart e Licklider sono i simboli di quei "isolati casi" che negli anni '60
avrebbero reso possibile la nascita del computer per come lo conosciamo noi oggi.
Gli occhi di tutta l’umanità in questo (ennesimo) delicato momento storico
carico di tensioni, pronte a sfociare in una nuova guerra, è rivolto principalmente
in direzione delle due super-potenze artefici di questo status: da una parte gli Stati
Uniti e dall’altra parte la Russia. Siamo in piena Guerra Fredda e la corsa agli
armamenti, oltre ad aver pericolosamente “arricchito” le due parti di testate
nucleari, ha anche incentivato notevolmente il progresso tecnologico-scientifico.
46
della Rand Corporation, dell’Università dello Utha e dei più affermati gruppi di
ricerca degli Stati Uniti. Aveva mosso l’interesse collettivo verso un progetto di
futuro che ormai in molti iniziarono a condividere ed ammirare. Tra i tanti
“convertiti” alla visione di Licklider ci fu un certo Robert William Taylor (1932).
Bob Taylor in quel periodo era un giovane direttore di ricerca della NASA che
stava sostenendo progetti scientifici di un certo rilievo storico e culturale (si
occupava del programma Apollo33, che di lì a poco avrebbe mandato, e fatto
ritornare vivi, un equipaggio umano). Come Licklider aveva interessi in
psicoacustica (argomento del suo progetto di laurea) e condivideva l’approccio
alle nuove tecnologie esplicato in Man-Computer Symbiosis del 1960.
Più o meno nello stesso periodo, Taylor ebbe modo di incontrare anche
Engelbart nel suo laboratorio allo Stanford Research Institute, ed entusiasmato dal
futuro che riusciva ad immaginare e a far immaginare, decise di finanziarne
direttamente le ricerche teoriche, le stesse che saranno presenti in Augmenting
Human Intellect del 1962.
Le strade di Licklider e di Engelbart confluirono definitivamente nel 1964
grazie all’aiuto di Taylor, che raccomandò a Licklider Engelbart il suo team di
ricerca dell'SRI.
Licklider aveva gli strumenti, sopratutto economici, per sviluppare nuove idee,
Engelbart aveva le idee, i progetti giusti e un team di ricerca avanzato.
Un gruppo di finanziatori dell’ARPA si recò allo Stanford Research Institute e
promise ad Engelbart attrezzature informatiche di ultima generazione e fondi (1
milione di dollari all’anno) per creare gli amplificatori dell’intelletto che aveva
concepito nella sua “visione” e descritto nel suo testo pubblicato circa 2 anni
prima.
Finalmente Engelbart aveva tutti gli elementi necessari a realizzare ciò che
aveva immaginato nel lontano 1950: aveva i progetti, una ricerca lunga un
decennio e adesso anche i mezzi tecnologici ed economici.
I piani di Engelbart erano chiari e semplici.
33
Programma americano spaziale che portò allo sbarco dei primi uomini sulla Luna.
49
trattava ancora di una vera e propria bit-map, ma Sutherland aveva intuito il modo
più efficace per far funzionare computer relativamente poco potenti come quello
del Lincoln Laboratory con il display a tubo catodico. Aveva fatto qualcosa di
incredibile (Sketchpad) tanto da meritarsi l'appellativo di programma più
importante della storia. Grazie a Sketchpad chiunque poteva vedere che i
computer potevano essere utilizzati anche per scopi ben diversi dalla semplice
elaborazione dati. Vedere Sketchpad all’opera, voleva dire convincersene
fortemente.
Si poteva disegnare un’immagine sullo schermo con la penna ottica - e poi riportarla nella
memoria del computer. In questo modo infatti si potevano salvare molte immagini. [...] C’erano
già stati schermi grafici e penne ottiche nell’esercito, ma Sketchpad era storico nella sua semplicità
- una semplicità, occorre aggiungere, che era stata deliberatamente costruita da un intelletto capace
-e nel fatto che non rendeva necessaria nessuna competenza specifica [...] Era, per farla breve, un
programma semplice che mostrava come potrebbe essere semplice il lavoro dell’uomo se ci fosse
un computer tale da essere veramente d’aiuto. ("The Home Computer Revolution" Ted Nelson,
1977)
Il Fall Joit Computer Conference del 9 dicembre del 1968 e più in particolare
la sessione denominata “A research center for Augmentig Human Intellect”, erano
il luogo e il momento ideale per osservare il futuro. Engelbart e il suo ARC erano
pronti a presentare al mondo le innovazioni che avrebbero cambiato la storia dei
computer. Venne ricordata come “The mother of all demos”.
La dimostrazione che Engelbart compie del suo sistema NLS (oN Line System)
lascia tutti senza fiato. Vennero introdotte features come: il mouse, la video
conferenza, l’ipertesto, il software per l’elaborazione di testi e il concetto di
collaborazione in tempo reale a distanza. Praticamente stavano dimostrando il
futuro. Improvvisamente, agli occhi dei 1000 professionisti del settore presenti
fisicamente alla conferenza, qualsiasi altro computer sembrò obsoleto. Non poteva
essere altrimenti, guardare Engelbart che si muoveva all'interno dei dati, li
organizzava, li condivideva, li memorizzava, li rielaborava, in poche parole che
52
così come il cervello umano, riesce a “sopravvivere” anche se alcuni nodi sono
danneggiati.
Un’altra brillante idea suggerita da Baran e ripresa successivamente da
Leonard Kleinrock 35 (1934) e Donald Watts Davies 36 (1924-2000) , è il concetto
di commutazione a pacchetto. Baran suggerisce infatti di: suddividere le
comunicazioni in entità elementari di lunghezza specifica (pacchetti di dati),
trasmetterle in seguito assieme alle informazioni necessarie sulla composizione
delle informazioni ed instradarle individualmente e in modo indipendente (tramite
percorsi e tempi differenti), per essere successivamente ricomposte nel punto di
destinazione.
Questo tipo di comportamento, a differenza di quello a trasmissione continua,
consente da un lato di limitare perdite di informazioni (se un pacchetto non arriva
a destinazione o arriva danneggiato o corrotto, il sistema provvede a inviare
nuovamente la parte mancante) e dall’altro di garantire una maggiore velocità di
comunicazione in quanto ogni pacchetto tenderà sempre a seguire il percorso
(momento per momento) meno saturo.
Le idee di Baran inizialmente non trovarono riscontro presso la comunità
scientifica dell’ARPA, salvo poi essere riconsiderate grazie ai successivi
esperimenti e ricerche di Kleinrock e Davies.
Basically, what I did for my PhD research in 1961-1962 was to establish a mathematical theory
of packet networks [...] (L. Kleinrock)
La commutazione a pacchetti e il concetto di rete distribuita erano le
fondamenta su cui la futura Rete avrebbe dovuto poggiare.
35
Informatico statunitense, noto per essere stato il primo a stabilire la comunicazione tra
computer nell'ottobre del 1969.
36
Informatico gallese, ritenuto uno dei primi inventori della commutazione a pacchetto.
55
accuratamente in un memorandum del 1959 dal titolo “A Time Sharing Operator
Program for our Projected IBM 709”. Questo tipo di sistema fu l’essenziale
precursore che ha permesso lo sviluppo del Computer Networking. Licklider
assimilò il concetto di time-sharing per sviluppare un’idea altrettanto importante
per quanto riguarda il futuro dell’interazione uomo-computer. Non pensò (almeno
per il momento) di dotare ogni individuo di un computer dedicato (costi troppo
elevati), pensava piuttosto a sistemi centralizzati, cui tutti potevano accedere
attraverso un terminale remoto. Questo tipo di applicazione avrebbe consentito,
oltre un utilizzo più intelligente delle risorse (in termini di uomini e di macchine)
distribuite nei vari centri affiliati al progetto ARPA, anche comunicazione ed
interscambio di informazioni. Il concetto di time-sharing, dove una grossa
macchina divideva le sue capacità di calcolo per un certo numero di utenti ad
intervalli di operazioni regolari, è l’idea chiave alla base dei programmi scientifici
dell’IPTO di Licklider. L’obiettivo principale ben presto divenne quello di
costruire una macchina multi-user che fosse in grado di eseguire programmi
software in parallelo. Licklider riteneva che nel giro di pochi anni il sogno di
creare una macchina dalle potenzialità spiccatamente interattive e in grado di far
comunicare le persone a distanza e in un modo del tutto differente dal telefono,
si sarebbe concretizzato. Inoltre notò anche che la rete intergalattica che di lì a
poco si sarebbe sviluppata, avrebbe potuto affermarsi solo se tali macchine
interattive sarebbero state alla portata di tutti.
Twenty years from now, some form of keyboard operation will doubtless be taught in
kindergarten, and forty years from now, keyboards may be as universal as pencils, but at present
good typists are few. ("One-Line Man Computer Communication", Licklider, Welden E. Clerck,
August 1962)
Nel 1963 Licklider scrive una serie di appunti interni al progetto ARPA dal
titolo “Memorandum For Members and Affiliates of the Intergalactic Computer
Network” in cui espone profeticamente i concetti, i problemi da risolvere al fine di
creare l’Intergalactic Network voluto dall’ARPA e collegare così in una rete gli
elaboratori a disposizione nei vari centri. Il periodo di Licklider al comando
58
Sai, Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una
busta"41
È bene sottolineare a questo punto la duplice importanza che ha avuto, e che ha
tuttora, l’idea della commutazione a pacchetto (elemento cardine che ha permesso
la nascita e lo sviluppo della Rete), per il mondo non tecnico: in primo luogo ha
permesso la creazione di un sistema comunicativo decentralizzato (senza un
controllo centrale), in cui ogni nodo di smistamento sa dove e come fare arrivare
le informazioni richieste a destinazione; in secondo luogo, l’idea dei “pacchetti”
garantisce la possibilità non solo di trasportare semplici messaggi, ma anche di
dislocare tutto ciò che gli uomini sono in grado di percepire e le macchine di
elaborare (voci, suoni, video, immagini ecc...). Fattore determinante per
l’esplosione della Rete come mezzo di comunicazione universale e multimediale.
Parallelamente ai primi esperimenti di time-sharing degli anni '60 nei laboratori
affiliati all’ARPA che consentivano a molti individui di interagire direttamente
con il computer centrale per mezzo
di un punto di accesso (terminale),
invece di aspettare il loro turno per
presentare i programmi agli
operatori informatici, vennero
sviluppate anche altri tipi di
risorse che diventeranno il cardine
della nuova rete. Come suggerisce
Howard Rehingold 42 (1947) nel
libro "Comunità virtuali", dal
momento che si costruisce un sistema
Fig. 10 - Illustrazione di Leonard Kleinrock
dei nodi della Rete ARPANET nel 1972
di elaborazione che consente a
cinquanta-cento programmatori di interagire direttamente e individualmente con
41
Leonard Kleinrock tramite un commento ironico al suo amico Larry Roberts fa notare la
somiglianza della rete ad una busta.
42
Critico letterario statunitense noto per aver coniato il termine "comunità virtuali".
61
Il computer di nuova generazione (che Licklider ed Engelbart avevano
immaginato e che stavano contribuendo a creare) capace di combinare nuove
modalità di rappresentazione delle immagini alle tecnologie di comunicazione, se
messo a disposizione di tutti, avrebbe rappresentato lo strumento di
collaborazione più potente che sia mai stato inventato.
Condividere informazioni, passare da livelli di macro analisi a livelli più
dettagliati delle stesse, assemblare e costruire nuovi modelli di pensiero, tagliare
ed incollare dati, sono tutte potenzialità concepite dai nuovi mezzi informatici con
i quali è possibile costruire forme di comunicazione fluide e dinamiche,
completamente differenti a qualsiasi altra forma collaborativa resa possibile con i
precedenti ausili tecnologici.
Se a questo ci aggiungiamo anche le capacità di collegare tale conoscenza
generata dal lavoro di un gruppo, di una comunità locale, di un centro di ricerca o
università attorno ad un computer, con altre geograficamente distribuite,
otteniamo una crescita esponenziale delle potenzialità dell’intelletto collettivo.
[...] Allo stato attuale vi sono forse non più di una dozzina di comunità che operano con
computer interattivi multi-accesso. Si tratta di comunità socio-tecniche pionieristiche, e pre diverse
ragioni molto più avanti del resto del mondo che ha a che fare con i computer [...] Essere collegati
sarà un privilegio o un diritto? Se la possibilità di sfruttare il vantaggio dell’amplificazione
dell’intelligenza sarà riservata a un’élite privilegiata, la rete non farà che esasperare le differenze
tra le opportunità intellettuali. Se invece l’idea della rete dovesse risultare, come noi speravamo
progettandola, un ausilio per l’istruzione, e se tutte le menti vi dovessero reagire positivamente, di
certo il beneficio per il genere umano sarà smisurato. ("The Computer As Communication Device"
J.C.R. Licklider and Robert W. Taylor, 1968)
La rete immaginata da Licklider sconvolge il paradigma della comunicazione
tipico dei media, come il telefono e la televisione. Non c’è una più un sistema
composto da una sola fonte, un solo canale di trasmissione e un solo ricevente. La
comunicazione mediata dal computer nella Rete assume forme più instabili e
mutevoli che sono sempre nuove.
I partecipanti alle comunità in Rete sono soggetti attivi che costruiscono di
volta in volta il proprio mondo di significati e di modelli costantemente
64
Il computer è un medium! L’avevo sempre considerato uno strumento, forse un veicolo [...]
Quello che McLuhan voleva dire è che se il computer è un nuovo vero mezzo di comunicazione,
allora il suo uso effettivo dovrebbe addirittura cambiare gli schemi di pensiero dell’intera civiltà.
(Alan Kay)
Nel 1973 il team dello Xerox PARC progettò e costruì per uso interno, come
strumento di esplorazione delle nuove tecnologie e progettazione di sistemi
sempre più avanzati, il primo Personal Computer della storia: lo Xerox ALTO. s
Lo sviluppo di ARPANET continuò ad essere costante fino al 1983 quando si
sdoppiò in ARPANET (utilizzata per la ricerca) e MILNET (utilizzata per scopi
militari). Entrambe le reti continuavano ad essere geograficamente distribuite,
disponevano, tra i vari nodi, di linee di connessione ad alta velocità e ad alta
portata di utenza. Sempre nello stesso anno venne realizzata da alcuni
programmatori dell’ARPA una nuova versione di Unix (sistema operativo
altamente utilizzato in ambienti accademici e universitari) compatibile con i
protocolli di comunicazione della Rete (TCP/IP45 ) e distribuito ad un prezzo
accessibile. Ben presto ARPANET incominciò ad espandersi di sottoreti locali a
temi di discussione specifiche interne agli ambienti accademici ed universitari,
diventando sempre più una Rete di reti. Più cresceva e più le persone volevano
entrare a far parte di questo network di intelligenze che si scambiano conoscenze,
informazioni e dati in ogni parte degli Stati Uniti.
A partire dagli anni '80 fu chiamata dapprima ARPA Internet e successivamente
solo INTERNET.
Il progetto iniziato negli anni '60 dall’IPTO di Licklider divenne nel giro di
vent’anni la rete intergalattica che aveva ipotizzato e sognato, i suoi sforzi, così
come quelli di tutti i ricercatori, hanno reso possibile la nascita del più potente
mezzo di comunicazione e condivisione che l’uomo abbia mai inventato.
Il luogo ideale per amplificare l’intelletto.
45
Transfer Control Protocol / Internet Protocol
67
70
Queste riflessioni lo portarono a definire il concetto di entropia1, o meglio a
ridefinirlo secondo un nuovo punto di vista2, strettamente legato alla
comunicazione. Shannon osservò che l’incertezza in ogni sistema è dovuta alla
mancanza dell'informazione, quindi se prendiamo in considerazione la
comunicazione tra due persone, oppure la decifrazione di un messaggio
alfanumerico, osserviamo che man mano che diminuisce la casualità delle
informazioni, si riduce anche l’incertezza. Il messaggio, o parte di esso, diventa
quindi più chiaro e comprensibile ai nostri sensi. E' proprio grazie alla possibilità
di eliminare o escludere completamente il rumore dal messaggio, che riusciamo a
ricavare informazioni. In conclusione, sintetizzando quanto espresso da Shannon
nel documento del 1948 “A Mathematical Theory of Communication”, è possibile
affermare che l’informazione è riduzione dell’incertezza.
Shannon oltre a queste osservazioni identifica quelli che sono gli elementi di
base di un sistema di comunicazione, qualunque esso sia e qualunque sia la
tecnologia su cui regge. Questi elementi, generalmente identificabili e descrivibili
con facilità, sono:
1. una fonte di informazione, che può essere rappresentata come una persona o
una macchina (oggetto), in ogni caso si tratta di un dispositivo di diffusione
dell’informazione (messaggio), in grado di trasformarla in un formato adatto ad
essere veicolato. É la cosiddetta fase di codifica del messaggio, che avviene
mediante precise caratteristiche dettate appunto da chi lo trasmette (fonte);
1 E' un concetto attinto dalla fisica, risalente alla seconda legge della termodinamica, elaborata
nel XIX secolo. Secondo questa legge, l’entropia è il grado di casualità che esiste in ogni sistema,
e tende ad aumentare per effetto dell’incontro tra molecole, rendendo incerta l’evoluzione del
sistema stesso.
2
La probabilità relativa che si verifichi un evento tra tutti quelli possibili (per esempio, che si
indovini una lettera dell’alfabeto), dipende dal numero totale di casi nella popolazione degli eventi
(le lettere dell’alfabeto) e dalla frequenza dell’evento specificato (numero di domande con risposta
si - no necessarie per trovare la risposta corretta). Quindi per una lettera dell’alfabeto, occorre
ridurre il valore di incertezza, che in questo caso è pari a 20 (il numero delle lettere dell’alfabeto).
Per farlo è sufficiente porre semplici domande a cui si possa rispondere affermativamente o
negativamente (si, no), per esempio si potrebbe chiedere se la lettera viene dopo la “L” (lettera che
ipoteticamente divide a metà l’alfabeto), e così via fino ad escludere ad ogni domanda i valori
possibili riducendo l’incertezza. Nel caso preso in esame l’incertezza potrebbe essere ridotta ad un
valore di cinque.
Secondo Shannon l’ entropia di un sistema è rappresentata quindi dal logaritmo del numero di
possibili combinazioni di stati in quel dato sistema. Il logaritmo rappresenta il numero delle
domande per ridurre l’incertezza.
73
l’evoluzione del computer, da semplice strumento di calcolo a manipolatore di
simboli, fino ad arrivare a potentissimo mezzo relazionale, quindi di
comunicazione. Nel saggio "The computer as communication device" di Licklider
e Taylor (che abbiamo analizzato nel paragrafo 3.4) sono già implicati una serie di
concetti che saranno di fondamentale importanza per lo sviluppo delle teorie sulla
CMC. Ciò che viene descritto nel loro testo, non è un elaboratore tipico,
“tradizionale”, era qualcosa di più: era un computer pensato come mezzo di
comunicazione, ossia come vero e proprio medium sociale in grado di sviluppare
relazioni creative tra gruppi di lavoro, che se svolte attraverso le nascenti reti,
avrebbero trasformato definitivamente lo stesso computer in uno spazio di
comunicazione.
Dopo gli studi di Licklider e Taylor, negli anni '80 grazie soprattutto
all’evoluzione e la proliferazione di quelli che furono i primi sistemi
computerizzati, l’interesse e lo studio della CMC diventa sempre più di attualità e
utile nella progettazione e organizzazione strategica di reti di comunicazione
all’interno delle aziende. In questo contesto nasce l’esigenza di valutare gli
strumenti informatici sia da un punto di vista tecnico (legato alla produttività) sia
da quello socio-psicologico (legato agli effetti della comunicazione e interazione
con le macchine). Gli studiosi focalizzarono il loro interesse soprattutto nella
comprensione degli effetti che avrebbe provocato un tipo di una comunicazione
semplice e rapida, capace di raggiungere istantaneamente qualsiasi luogo. Altre
importanti considerazioni avrebbero implicato i potenziali effetti derivati dalla
natura prevalentemente testuale della CMC, quindi priva di situazioni e
comportamenti tipici della comunicazione e dei codici non verbali, e gli effetti
dovuti alla mancanza di informazioni relative all’identità degli interlocutori con
una conseguente notevole accentuazione dell’anonimato.
Nel tentativo di trovare riscontri alle problematiche che questo tipo di
comunicazione avrebbe potuto causare alle/nelle persone e nei rapporti sociali, si
svilupparono diversi approcci di studio, che possiamo categorizzare in: CMC
76
Burgoon (1992), sostiene che la comunicazione mediata dal computer può
veicolare la stessa socialità di una qualsiasi altra comunicazione face to face se chi
ne fa parte dispone del tempo strettamente necessario per svilupparla. Secondo i
due studiosi infatti gli esseri umani, a prescindere dal mezzo con cui comunicano,
sviluppano il bisogno di ridurre l’incertezza che può scaturire in situazioni in cui
il messaggio è impoverito di tutti gli aspetti sociali-emozionali, al fine di
raggiungere una certa affinità nei confronti degli altri individui. Gli utenti della
CMC tendono a soddisfare questi bisogni ancestrali adattando le proprie strategie
comunicative al medium utilizzato. Quindi la CMC Social information processing
non è meno efficace nelle interazioni sociali rispetto ad una comunicazione faccia
a faccia, ma è semplicemente meno efficiente, ossia occorre più tempo agli
interlocutori per veicolare lo stesso tipo di sensazioni.
Questi nuovi modelli hanno messo in evidenza l’importanza del contesto
sociale in cui si svolge la comunicazione. All’inizio, come abbiamo visto, la CMC
si svolgeva prevalentemente nei luoghi di lavoro, quindi risultava più fredda e
impersonale, ma a partire dagli anni '90, parallelamente alla diffusione capillare
anche in situazioni domestiche della tecnologia telematica, incominciò a
“sovraccaricarsi” di contenuti sociali, tanto da poter essere definita
Hyperpersonal3. Socialmente attiva.
Le interazioni diventano sia ad un livello conscio che inconscio attive e più
stereotipate (rispetto alla comunicazione faccia a faccia), ossia si tende a
categorizzare socialmente l’interlocutore, e in mancanza d'informazioni sulla sua
persona, si tende a farlo in modo stereotipato, basandosi esclusivamente su ciò che
si ha a disposizione (nickname, firma del messaggio, homepage, blog ecc...).
Ognuno quindi ha la possibilità di curare attentamente la presentazione del sé
online, progettando accuratamente l’immagine che desidera dare di se stesso agli
altri, nascondendo o potenziando le caratteristiche che ritiene più o meno
socialmente utili in quel determinato contesto comunicativo.
3
Iperpersonale, Walter 1997
79
situazione. Può esistere quindi una sola personalità per un solo corpo. L’individuo
che manifesta personalità multiple è difatti tracciato come patologico, disturbato
o, nel migliore dei casi, considerato semplicemente bizzarro. Nella rete invece,
non solo l’identità multipla è possibile, ma difatti è l’unica modalità possibile di
presentazione, poiché se ciò che scriviamo ci identifica, allora la soggettività di
ognuno è il personaggio del racconto che si vuole raccontare agli altri.
Internet offre la possibilità di presentarsi intenzionalmente in un'infinita varietà
di modi differenti (è possibile avere un’altra età, sesso, storia, aspetto fisico
ecc...), esternando difatti la rappresentazione della molteplicità che ogni essere
umano incarna nella vita reale (si è figli, ma anche genitori, si lavora o si studia, si
è vicini di casa, amici, parenti ecc... e chiaramente per ognuna di queste possibilità
si attuano comportamenti differenti). Questi diversi aspetti del sé in rete possono
essere dissociati (si possono presentare solo alcuni aspetti, quelli ritenuti più
opportuni al contesto), potenziati (migliorare al massimo una propria caratteristica
o un proprio interesse specifico) o integrati (versione completa di se stessi).
L’aspetto dell’intenzionalità è sicuramente una delle componenti principali
che riguardano questi processi comunicativi, e la CMC, date le sue caratteristiche,
rende il controllo e la gestione del proprio “Io online” più facile. Come abbiamo
visto, su internet e più in generale nel mondo della comunicazione mediata dal
computer, non esistono discriminazioni, ognuno può presentarsi per quello che è
oppure può costruirsi un'identità differente.
La costruzione di un'identità online avviene innanzitutto con la scelta di un
nome, dove a differenza della vita reale, rispecchia una grande importanza sociale.
Il nome o meglio il nickname è il punto d'ingresso all’interno del mondo della
rete, il contatto diretto tra il nostro essere reale e il nostro essere digitale.
Non è un'aggiunta al nome anagrafico, ma è una sua sostituzione,
l’incarnazione della nuova identità dell’individuo online.
Questa possibilità consente infatti di dare luogo a relazioni sociali stabili e
significative che non sarebbero state possibili se la comunicazione fosse stata
completamente anonima. Inoltre, la tendenza a mantenere l’identità piuttosto
82
determinate circostanze può provocare il distacco dal sociale e far cadere gli
individui nella solitudine e depressione.
Internet e i Social Network al pari dell’alchool, del fumo e delle droghe
possono creare forme di dipendenza più o meno gravi. Si tratta di veri e propri
disturbi della persona(lità) e come tali vanno curati. Questi possono essere l’IAD
(Internet Addiction Disorder), la Social Network Disorder, la Friendship
Addiction e la Nomofobia.
Si manifestano principalmente in soggetti “predisposti”, ossia che trascorrono
molte ore sul web senza praticamente mai riuscire a staccare il collegamento e
comportano prevalentemente un ossessivo controllo dei nuovi messaggi, notifiche,
aggiornamenti, oltre che una ricerca senza sosta di nuove amicizie.
L’individuo soffre lo status di disconnessione dalla vita online, tanto da
desiderare il momento in cui finalmente potrà accedere ed immedesimarsi al suo
Io virtuale. Ovviamente questo pensiero costante influisce sulla propria vita
privata e lavorativa. Oltre a questo stato di assuefazione al web, che prelude alla
necessità di restare collegato al mondo virtuale per un certo periodo di tempo e
cresce man mano che trascorrono le ore, sono presenti veri e propri disagi fisici
(mal di testa, disturbi del sonno, stanchezza, apatia etc...).
Il web rappresenta nella modernità un mondo sicuro e controllabile dove è
possibile instaurare facili rapporti sociali, senza rischi, poiché questi non
richiedono, come nella vita reale, un contatto diretto faccia a faccia, che per molti
può rappresentare un vero e proprio ostacolo. I Social Network per esempio
rispondono in modo efficace ad alcuni dei bisogni fondamentali dell’essere
umano:
1. bisogni di sicurezza: le persone con cui tendiamo a comunicare nei social
network sono “amici“, non estranei (come in realtà sarebbero da considerare
nella maggior parte dei casi), ed è nel potere di ciascun individuo di decidere
chi è amico e chi no, chi seguire e chi ignorare. É possibile quindi controllare
ciò che egli mostra di sé, della sua vita e condividere con lui esperienze,
commenti etc. ;
85
88
CAPITOLO TERZO:
Dalle Realtà Virtuali alle Realtà Aumentate
5. L’Ultimate Display e i primi passi in Realtà Virtuale
Le rivoluzioni tecnologiche (come abbiamo visto nel primo capitolo) non
avvengono semplicemente perché il progresso umano è un processo inevitabile
che sistematicamente (nel corso dei secoli) avviene portandoci verso nuovi
orizzonti culturali, sociali e tecnici. I veri cambiamenti di paradigma tecnologici
hanno bisogno di incastri e situazioni ben precise. Uno o più visionari devono
avere la disponibilità e l'accesso alle tecnologie di base che rendano possibili le
loro “visioni” e devono incontrare finanziatori che li sostengano economicamente.
Se queste condizioni non vengono rispettate, difficilmente l’idea giusta, anche
fosse la più importante e geniale di tutte, diventa parte integrante di una nuova
tecnologia.
Un esempio di questa “legge” dei paradigmi tecnologici può essere ritrovato in
Engelbart e Licklider. Entrambi hanno avuto idee visionarie: pensare al computer
non come calcolatore, ma come strumento capace di aumentare l’intelletto umano
tramite una collaborazione simbiotica. Licklider trovò subito nell’ARPA un
finanziatore generoso per sviluppare le sue idee, mentre Engelbart dovette
aspettare parecchi anni prima di trovare nello stesso Licklider (IPTO) il sostegno
economico necessario a realizzare la sua visione di computer.
5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di Heilig.
Se Morton Leonard Heilig avesse avuto un supporto finanziario adeguato,
forse le realtà virtuali avrebbero potuto essere sperimentate a fondo già a partire
dagli anni '60 e non grazie all’ausilio tecnologico delle macchine per pensare
bensì alle possibilità offerte dal cinema. Hollywood avrebbe potuto essere la forza
trainante dello sviluppo del nuovo paradigma tecnologico della realtà virtuale.
91
temperatura, la pressione e le texture, sono tutti gli organi che compongono “the
building bricks, which when united create the sensual form of man’s
consciousness”.
Individua anche il grado d'influenza sulla percezione del reale dei vari sensi,
identificando nella vista quello che monopolizza maggiormente la nostra
percezione (70%), mentre l’udito (20%), l’olfatto (5%), il tatto (4%) e il gusto
(1%) sono considerati meno influenti, anche se è dall’insieme di tutti che
possiamo percepire il mondo come reale. Considerare solo la vista come la
principale delle nostra abilità di percezione, sarebbe riduttivo.
L’obiettivo di Heilig era quello di replicare la realtà per ciascuno di questi sensi
all’interno di un teatro appositamente progettato, che chiama appunto Teatro
dell’Esperienza.
[...] La bobina cinematografica del futuro sarà un rotolo di nastro magnetico suddiviso in tracce
separate per ogni modalità sensoriale importante [...] Lo schermo non riempirà solo il 5% del
vostro campo visivo come gli schermi dei cinema rionali, o il mero 7,5% del Wide Screen o il 18%
dello schermo “miracle mirror” del Cinemascope, o il 25% del Cinerama - ma il 100%. Lo
schermo si curverà accanto alle orecchie dello spettatore da entrambi i lati ed oltre il suo limite
visivo sopra e sotto [...] Saranno concepiti mezzi ottici ed elettronici per creare profondità illusoria
senza occhiali. (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da
Morton Heilig, 1955 - traduzione italiana "La Realtà Virtuale" di Howard Rehingold, 1993)
Heilig per la sua idea di cinema del futuro trovò estimatori disposti ad investire
in Messico, ma sciaguratamente poco tempo dopo aver iniziato a sperimentare
alcune proiezioni con lenti ottiche particolari, l’investitore morì in un incidente
aereo. Rientrato negli Usa cercò nuovi finanziamenti e persone disposte ad
aiutarlo nella sua impresa, ma anche in questo caso la cattiva sorte giocò un ruolo
da protagonista: il direttore di una grossa azienda di proiettori interessata al
progetto morì in un incidente aereo. Non se ne fece più nulla.
Heilig decise che se voleva trovare investitori doveva far provare loro
direttamente l’esperienza. Tutto quello che aveva erano solo delle idee e degli
schizzi. Troppo poco per far capire esattamente quello che voleva essere la sua
94
Fu una vera e propria rivoluzione che influenzò notevolmente i percorsi nella
delle future tecnologie dell’interazione tra le macchine e le menti umane.
Con "Sketchpad: A Man-Machine Graphical Communication System" (questo
era il titolo completo della sua tesi di dottorato, supervisionata da Claude
Shannonn) nasce difatti la computer grafica ed il primo sistema di CAD
(computer aided design).
Sketchpad non era soltanto uno strumento per disegnare. era un programma che obbediva alle
leggi che si voleva fossero vere. per disegnare un quadrato si tracciava una linea con la penna
ottica, poi si davano al computer pochi comandi [...] Sketchpad prendeva la linea e le istruzioni e
via! Un quadrato appariva sullo schermo. ("La Realtà Virtuale" Howard Rehingold, 1993,
citazione di Alan key sul software Sketchpad)
Sutherland aveva appena incominciato ad esplorare la soglia di un nuovo
mondo, il mondo della grafica computerizzata, e ben presto sentì l’esigenza di
varcare quella soglia, calandosi letteralmente all’interno di essa.
Voleva portare all’estremo il concetto di contatto intimo tra intelletto umano e
computer che Licklider aveva profetizzato nel suo saggio "Man-Computer
Symbiosis" del 1960.
Nel 1965 Sutherland, succeduto proprio a Licklider al “comando” dell’IPTO,
scrive "The Ultimate Display", un breve saggio in cui espone lucidamente e
profeticamente l’avvento di un nuovo modo di rappresentare le informazioni
generate dai computer.
Il mondo in cui viviamo è un “physical world” in cui le sue proprietà e
caratteristiche fondamentali diventano a noi note solo con l’esperienza. In
particolare i nostri sensi ci danno la capacità di comprendere e prevedere i
comportamenti all’interno di questo mondo. Per esempio, possiamo facilmente
intuire dove un oggetto cadrà, che tipo di forma ha un determinato angolo che non
riusciamo a vedere oppure quanta forza ci occorre per vincere la resistenza di un
oggetto e spostarlo. Quello che ci manca, secondo Sutherland, è la familiarità con
concetti di natura più scientifica ed astratta, difficilmente collegabili
all’esperienza sensoriale diretta.
97
A partire dal 1966 (dopo aver lasciato la direzione dell’IPTO a Robert Taylor)
all’interno del Lincoln Laboratory del MIT, Sutherland e il suo staff iniziarono a
condurre i primi esperimenti sulle tecnologie necessarie a realizzare un sistema
coordinato, che consentisse all’utente di camminare e calarsi completamente
all’interno dei (dati generati da un) computer.
Occorreva creare tutto dal nulla.
L’idea fondamentale che è alla base del display tridimensionale è di presentare all’utente
un’immagine in prospettiva che cambia in base ai suoi movimenti. L’immagine retinica degli
oggetti che vediamo, è dopo tutto, soltanto bidimensionale. Perciò potendo porre due immagini
bidimensionali appropriate sulle retine dell’osservatore, possiamo creare l’illusione della vista di
un oggetto tridimensionale [...] L’immagine rappresentata dal display tridimensionale deve
cambiare esattamente nello stesso modo in cui cambierebbe l’immagine di un oggetto reale a causa
di movimenti della testa dello stesso tipo. ("Realtà Virtuali" Howard Rehingold, 1993, citazione di
Ivan Sutherland sul Three dimensional head mounted display)
Fig. 13 - Due immagini della “spada di Damocle” (il Three dimensional head mounted display)
di Ivan Sutherland del 1968.
L’Head Mounted Three Dimensional Display, completato in ogni sua parte nel
1968 e denominato dagli “addetti ai lavori” spada di Damocle, era composto da
sotto-sistemi interconnessi, molti dei quali costruiti proprio durante la prima fase
di sperimentazioni del MIT: “occhiali” speciali contenenti due tubi a raggi
100
“lavoro” era svolto dall’hardware matrix multiplier e clipping divider, tuttavia essi
recuperavano le informazioni da elaborare direttamente dal sistema di rilevamento
della posizione dell’utente. Quindi se l’obiettivo di Sutherland era quello di calare
le persone all’interno di un mondo virtuale che si comporti prospetticamente in
modo “credibile”, allora era necessario che tutto il sistema, ed in particolare il
dispositivo di tracking, fosse preciso, veloce e quindi affidabile.
Per questo motivo Sutherland decise di sperimentare diverse soluzioni di
rilevamento, in particolare si concentrò su un sistema ad ultrasuoni sperimentale e
su un altro di tipo meccanico.
Il sistema ad ultrasuoni era in grado di rilevare, grazie alla combinazione di tre
trasmettitori ad onde continue, posti direttamente nel dispositivo head mounted,e
4 ricevitori posizionati sul soffitto in corrispondenza dei quattro angoli della
“stanza”, l’esatta posizione della testa dell’utente e i suoi movimenti all’interno di
uno spazio prestabilito. Forniva al fruitore dell’esperienza virtuale un grado di
libertà di movimento superiore rispetto al sistema meccanico, ma era poco
affidabile perché soggetto ad interferenze che compromettevano la lettura corretta
delle coordinate spaziali dell’utente. La tecnologia ad ultrasuoni sperimentata da
Sutherland era ancora ad uno stato embrionale per questo tipo di applicazioni in
cui era necessaria la massima precisione. I risultati raggiunti durante gli
esperimenti comunque facevano ben sperare per il futuro.
Il sistema meccanico invece venne realizzato appositamente per garantire
misurazioni accurate e in tempo reale della posizione della testa. Consisteva in
una coppia di tubi che si agganciavano mediante appositi giunti al dispositivo
head mounted e ad una serie di binari sul soffitto. Il mechanical head position
sensor costringeva l’utente in una morsa vincolante ad un volume di pochi
movimenti della testa: 180 centimetri lateralmente e poco meno di un metro in
altezza. L’utente comunque era libero di muoversi, voltarsi, inclinare lo sguardo in
alto o in basso fino a 40°.
103
cala gli astanti in un’atmosfera di stregoneria ed è alla base per il suo nome Apprendista Stregone.
("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers)
L’Apprendista stregone aumentò sensibilmente il senso di presenza percepito
dall’utente all’interno del mondo virtuale poiché implicava un coinvolgimento
attivo da parte di altri sensi. Rendeva possibili azioni magiche come far apparire
oggetti, allungare, rimpicciolire, ruotare, far scomparire, fondere e separare.
Tutto grazie a pochi semplici comandi.
scoprimmo che il senso di presenza aumentava quando aggiungevamo la bacchetta. Più sensi
vengono coinvolti, più completa è l’illusione ("La Realtà Virtuale" Howard Rehingold, 1993,
Daniel Vickers)
La possibilità di interagire con il mondo che ci circonda è il fattore
determinante che ci permette di conoscere ed esprimere il nostro potenziale e
quello di ciò che ci sta attorno.
5.3 Ambienti Virtuali interattivi: Myron Kreuger
I concetti di immersione e navigazione all’interno di uno spazio
computerizzato non implicano che essi siano per forza generati tramite l’uso di
tecnologie specifiche. Le visioni che creano il coinvolgimento sensoriale
all’interno dello spazio possono essere plasmate attraverso l’uso di mezzi ottici,
elettronici o entrambi. Gli input gestuali che permettono l’esplorazione
dell’ambiente in cui si è immersi sono tendenzialmente legati all’uso di dispositivi
indossabili, quali Head Mounted Display piuttosto che occhiali, bacchette
magiche, tastiere e guanti speciali in grado di rilevare la posizione e i movimenti
delle mani (di questi ultimi ce ne occuperemo nel prossimo paragrafo).
Tuttavia non sono l’unico modo per poter entrare dentro il computer.
Le realtà virtuali, o meglio quelle pratiche tecnologiche che sarebbero
diventate le realtà virtuali, a cavallo tra gli anni '60 e '70 erano ancora in una fase
sperimentale in cui venivano abbozzate le tecnologie del futuro. Sutherland e i
106
In realtà GLOWFLOW era un progetto Universitario disegnato appositamente
per studiare il rapporto tra arte e tecnologie, a cui Krueger era stato invitato a
partecipare.
GLOWFLOW non faceva uso di grafica computerizzata ma creava effetti
visivi tramite l'utilizzo di altre tecnologie. Una semplice rete di tubi riempiti con
fluidi fosforescenti collegati sapientemente ad un sistema computerizzato e a
sintetizzatori sonori, rendevano uno spazio buio in qualcosa che nessuno aveva
mai visto prima.
Grazie alla presenza di pannelli sensibili alla pressione incastrati nel
pavimento, il pubblico semplicemente camminando all'interno della stanza
interagiva inconsciamente con essa. Le pareti dell'ambiente GLOWFLOW erano
rivestite da colonne verticali opache e tubi di vetro trasparente orizzontali. Le
particelle fosforescenti erano sospese nell'acqua contenuta all'interno dei tubi che
veniva pompate velocemente da una parte all'altra della stanza ad ogni input
generato dal pavimento. Passando attraverso le colonne opache (che al loro
interno contenevano una luce nascosta) i fosfori venivano attivati
temporaneamente, generando così vettori di luce che schizzavano nello spazio per
poi ritornare nell'oscurità. Simultaneamente all'effetto visivo, venivano eseguiti
suoni sintetizzati elettronicamente. Le possibili configurazioni sonore e visive si
accendevano e si spegnevano in base ad una serie di istruzioni provenienti dal
minicomputer nascosto, che elaborava gli input e ne determinava un conseguente
output più o meno casuale.
La gente reagiva all'ambiente in modo sorprendente: si formavano gruppi di persone fra loro
estranee. Giochi, battimani e canti nascevano spontaneamente. La stanza sembrava soggetta a
sbalzi di umore, a volte piombava in un silenzio di tomba, a volte era rumorosa e disordinata.
Ognuno si inventava un proprio ruolo. [...] Altri si comportavano da guide, spiegando che cosa
erano i fosfori e che cosa stava facendo il computer. Sotto molti punti di vista la gente all'interno
della sembrava primitiva, intenta ad esplorare un ambiente che non comprendeva, tentando di farlo
corrispondere a ciò che già sapeva o si aspettava. [...] molti erano preparati a sperimentare questo
aspetto e se ne andavano convinti che la stanza aveva reagito alle loro azioni in modi determinati,
mentre in realtà non era così. ("La Realtà Virtuale" Howard Rehingold, 1993)
109
L'ambiente progettato da Krueger era composto da due strutture situate in
edifici diversi: una stanza METAPLAY (dove avviene la partecipazione) e una
dedicata alla regia. Una parete della stanza METAPLAY era occupata da un
enorme schermo di retroproiezione (250 cm x 300 cm) in cui veniva proiettato
l'otuput visivo. Una videocamera, posizionata davanti allo schermo, era puntata
direttamente verso i partecipanti e consentiva di acquisirne in tempo reale
l'immagine video.
All'interno del centro di controllo, situato a circa quattrocento metri di distanza,
c'era l'artista (che non per forza doveva essere tale) che poteva disegnare
attraverso una tavoletta grafica e visualizzare il risultato su un sistema special
purpose. Una seconda videocamera acquisiva le immagini generate dall'artista, le
inviava ad un mixer che le combinava assieme a quelle generate dalla
videocamera nella stanza METAPLAY.
Sia le immagini computerizzate che le quelle convertite erano sotto il controllo
diretto dell'operatore che aveva il compito ed il potere di sovrapporre le immagini
computerizzate tracciate con la tavoletta grafica alle immagini del pubblico
dell'altra sala. Alcuni comandi erano stati programmati in modo tale da consentire
all'artista di manipolare le immagini, rimpicciolirle, espanderle, applicare ad esse
effetti speciali.
I partecipanti potevano guardare lo schermo ed osservare le proprie immagini
video; talvolta quelle immagini video venivano arricchite dalle immagini grafiche
generate dall'artista nel centro di controllo. Gli interruttori sensibili alla pressione,
che erano nascosti nel pavimento sotto una superficie di polietilene nero,
consentivano ai partecipanti di interagire con gli output visivi e sonori mediati
dall'operatore del un centro di controllo.
Con l'obiettivo di provocare una reazione in uno dei primi gruppi in visita al
METAPLAY, Krueger scelse uno dei partecipanti ed utilizzò la tavoletta grafica
per sovraimporre un contorno luminoso alla sua mano. Quando il partecipante
muoveva la mano, Krueger velocemente disegnava un nuovo contorno della mano
nella sua nuova posizione. Poi il partecipante rovesciò la situazione trasformando
112