WE.ARE.ABLE, social wearable augmented reality
Transcript
WE.ARE.ABLE, social wearable augmented reality
2 Accademia Di Belle Arti Di Carrara Scuola di Nuove Tecnologie dell'Arte Biennio di Net Art e Culture Digitali WE.ARE.ABLE social wearable augmented reality candidato: Antonino Cartisano relatore: Massimo Cittadini co-relatore: Massimiliano Menconi a.a. 2011-2012 Sessione di tesi del 5 ottobre 2012 INTRODUZIONE _____________________________________9 CAPITOLO PRIMO: Dal computer calcolatore al computer “comunicatore” 1. La macchina di Anticitera e i padri dell’informatica “moderna” 1.1 La mano, il primo computer “digitale” _________________16 1.2 Il primo calcolatore analogico ________________________17 1.3 La prima macchina aritmetica ________________________18 1.4 Leibniz e il sistema binario __________________________19 1.5 XIX secolo: Rivoluzione Tecnologica__________________21 1.6 I primi computer meccanici__________________________22 1.7 Alan Turing ______________________________________25 1.8 “As We May Think” secondo Vannevar Bush____________28 2. La “visione” utopistica di Engelbart e Licklider 2.1 I “Giant brain” degli anni ‘40 ________________________31 2.2 Engelbart e il potenziamento dell’intelletto umano _______34 2.3 Licklider e la simbiosi uomo computer _________________41 2.4 La dimostrazione dell’esistenza dei sogni di Engelbart e Licklider ___________________________________________45 3. La Rete nata dalle reti 3.1 La commutazione di pacchetto di Paul Baran e Leonard Kleinrock ___________________________________________54 3.2 Il time-sharing e l’Intergalactic Network _______________56 3.3 Arpanet per un milione di dollari______________________59 3.4 “The Computer as a Communication Device” ___________62 5 3.5 Lo Xerox Parc e la nascita di internet __________________65 CAPITOLO SECONDO: Socializzare al tempo della “Rete” 4. Comunicazione e condivisione del Sé in Rete 4.1 La Teoria dell’informazione e della comunicazione _______72 4.2 La comunicazione mediata dal computer e Identità in rete __75 4.3 Nomofobia e disturbi da social addiction _______________83 CAPITOLO TERZO: Dalle Realtà Virtuali alle Realtà Aumentate 5. L’Ultimate Display e i primi passi in Realtà Virtuale 5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di Heilig. _____________________________________________91 5.2 L’Ultimate Display di Ivan Sutherland._________________96 5.3 Ambienti Virtuali interattivi: Myron Kreuger ___________106 5.4 L’ingresso nel Cyberspazio _________________________121 6. Augmented Reality 6.1 Virtual Reality vs. Augmented Reality ________________141 6.2 Enabling Display Tecnologies _______________________145 6.3 I continuum di Paul Milgram _______________________149 6.4 Che cos’è la Realtà Aumentata? E di cosa si occupa?_____155 CAPITOLO QUARTO: Il progetto we.are.able: social wearable augmented reality Introduzione________________________________________177 6 Motivazioni e obiettivi del progetto _____________________179 Descrizione del progetto we.are.able_____________________182 Risultati raggiunti ___________________________________192 Conclusione ________________________________________201 Bibliografia Sitografia 7 8 INTRODUZIONE La prima parte dell'elaborato tratta l'evoluzione della tecnologia, dai primi strumenti di calcolo, succeduti alla mano come primo calcolatore, ai più attuali dispositivi elettronici che, oltre ad aver contribuito al progresso umano con un nuovo tipo di comunicazione (Internet), hanno fornito l'interazione con un nuovo mondo, parallelo al nostro. Il mondo della Realtà Aumentata. "Il primo computer digitale" è attribuito alla mano (dattilonomia). Non sorprende quindi il fatto che il termine inglese "digit" (cifra), utilizzato nel linguaggio di moderni computer, derivi dalla parola latina "digitus" (dito). Il suo utilizzo però, dopo millenni di calcoli, si fece da parte, grazie allo sviluppo dei primi strumenti di calcolo analogici, come la Macchina di Antikythera, la Pascalina e la Macchina a Scatti di Leibniz. Si arriva difatti ad introdurre il mondo ad un nuovo punto di vista teoricomatematico, quello dell'aritmetica binaria di Leibniz (1701) e dell'utilizzo di schede perforate (Telaio Jacquard ). Nascono così i primi computer meccanici, ideati per agevolare l'uomo nel risolvere calcoli, tra cui la Macchina Differenziale di Charles Babbage (1820) e la Tabulatrice di Hollerith (1890). Una vera e propria rivoluzione per l'epoca. Grazie allo straordinario progredire delle tecnologie informatiche nel XX secolo, come la Macchina di Turing e Colossus, Bush riuscì a risollevare il paese, segnato dalla fine del secondo conflitto mondiale, con As We May Think e il Memex. I computer iniziarono così ad essere visti non più come macchine in sé ma come strumenti per aumentare l'intelletto. Gli anni '60 furono infatti caratterizzati dalla simbiosi tra l'uomo e i computer, dettata da Licklider, e dalla creazione dell'ARPA (ARPANET, 1967 con Licklider e Bob Taylor, antenata dell'attuale Internet), potenziata dal time-sharing di Bob Berner e dalla commutazione a pacchetto di Kleinrock e Davies ("Sai Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una busta"). Parallelamente alla nascita di queste idee geniali, nel 1968 Engelbart vive la sua storica conferenza "Madre di tutte le demo" ed Alan Key con Smart-Talk (1968-1972) introduce il desktop, il primo mondo virtuale in cui l'uomo si può immergere e navigare. Il progredire tecnologico porterà così alla creazione di Xerox ALTO (1973), il primo personal computer della storia, e la nascita di INTERNET (1980), in cui chiunque può crearsi un'identità online (che può rispecchiare o meno la vita reale), fornirsi di una propria homepage o attaccare un post sui Social Network. Questo avvento delle nuove tecnologie e l'abbattimento dei costi, oltre ad avere un aspetto più che positivo, mostra anche l'aspetto negativo, provocando 9 un'esigenza sempre più forte di socializzare, quindi di rimare in rete (Nomofobia o disturbi da Social Addiction o Friendship Addiction). Le rivoluzioni tecnologiche portano così ad un progresso umano e quindi all'esplorazione di nuovi orizzonti. Si fanno i primi passi verso il mondo in Realtà Virtuale e in Realtà Aumentata. Uno dei primi fu Heiling che diede vita al Sensorama Simulator, un'esperienza multisensoriale mai provata prima. Susseguirono Sketchpad e The Ultimate Display, entrambe di Sutherland, in cui pose le basi per l'avvento della realtà virtuale. Nel 1968 completato l'Head Mounted Three Dimensional Display (spada di Democle), Sutherland e il suo staff svilupparono il matrix multiplier e il clipping divider. A differenza di Shuterland, Myron Krueger concepì un'idea diversa di realtà virtuale: non sarebbero stati ingombranti ed isolanti marchingegni a condurre l'uomo in mondi artificiali, ma una stanza appositamente studiata. Nascono così parallelamente altri esperimenti di realtà virtuale, come Put that there (1980), sotto la supervisione di Richard Bolt, con interfaccia a comando gestuale-vocale, come Aspen Movie Map, una sorta di evoluzione del Sensorama di Hollerith e ascendente dell'attuale Google Street View (immersività), come Moondust, ideato da Janor Lanier. Nel 1981 si assaggiò quello che oggi definiamo wearable computer. Difatti Thomas Zimmerman, appassionato di musica come Lanier, ideò Dataglove ("quella mano fluttuante era qualcosa di più di una mano. Ero io"), un guantosensore impiegato nella realtà virtuale. Si respirava così una nuova aria. Un'aria di una nuova era dalle potenzialità non meno affascinanti e suggestive: l'era della Realtà Aumentata. Nata per agevolare l'uomo (manutenzione Boeing 747), prese subito campo mediatico. Brevettato da Sportvision, 1st & Ten è il primo esempio di AR ad essere utilizzato nei broacasting televisivi. Si ha così la prima esplosione mediatica del concetto AR. Esplosione favorita dall'uscita di ARToolKit e successivamente di FLARToolkit (2004), grazie alle quali si potevano creare applicazioni in AR (alcuni esempi sono il 3-D stethoscope per l'ambito medico, IARM per quello militare e N'Building per quello architettonico). Anteprima di ciò che ci potrebbe riservare il futuro, è data da Pranav Mistry, con la creazione del dispositivo augmented reality wearable, Sixth Sense. Questo dispositivo di interfaccia gestuale wearable aumenta il mondo fisico di informazioni digitali, attraverso l'utilizzo di movimenti e gesture naturali della mano per interagire con i contenuti virtuali. Si ritorna così,dopo un excursus di migliaia di anni, alla mano, da strumento calcolatore a strumento di realtà aumentata. Mano che avrà un ruolo anche nella seconda parte del mio elaborato, quella dedicata al progetto. 10 La seconda parte dell'elaborato tratta il concetto di wearable computer. Verrà utilizzato difatti un guanto,attraverso il quale si potrà interagire in augmented reality e si potranno scambiare informazioni e dati, tramite dispositivi NFC. Informazioni che riguarderanno il nostro status emotivo oppure dati sull'ambiente che ci circonda (es. temperatura, luminosità), tracciate dai sensori disposti sull'apposito guanto. Tutte informazioni reali, dettate dal nostro corpo e da ciò che ci circonda, non caratteristiche di false personalità come per lo più accade nei Social Network. Questo mio progetto vuole così portare il "sociale" che è in rete, in quello in cui "tutti si è amici di tutti", nella vita reale. Quindi, siccome lo scambio di dati si effettuerà solo tramite contatto fisico, utilizzando un guanto, quale migliore contatto c'è che una sincera stretta di mano tra "amici virtuali"? 11 12 13 14 CAPITOLO PRIMO: Dal computer calcolatore al computer “comunicatore” 1. La macchina di Anticitera e i padri dell’informatica “moderna” In senso Engelbartiano1 un computer, oltre che digitale o analogico, può essere inteso come strumento in grado di “aumentare” l’intelletto, accrescere cioè le capacità umane nella risoluzione e comprensione di complesse problematiche e situazioni (professionali, scientifiche, sociali, politiche ecc..) che inevitabilmente si (ri)presentano nella vita di tutti i giorni. By "augmenting human intellect" we mean increasing the capability of a man to approach a complex problem situation, to gain comprehension to suit his particular needs, and to derive solutions to problems. ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962) Si tratta di una “way of life” dove le intuizioni umane, i presentimenti e le capacità di sentire le situazioni (feel for situations) coesistono simbioticamente ad un più complesso sistema-mondo fatto di tecnologia ed aiuti ad alto potenziale cognitivo. In poche parole, un sistema dove le macchine per pensare2 e l’intelletto umano si integrano perfettamente. Secondo questa concezione per rintracciare nella storia dell’umanità quello che può essere indicato come il primo computer, occorre guardare ad una tecnologia remota ed innata, ma in uso ancora oggi: la mano. 1 Termine che deriva da Douglas Carl Engelbart (Portland, 30 gennaio 1925), inventore statunitense e pioniere dell'interazione uomo-macchina. 2 La macchina ci permette di lavorare con la conoscenza, allargando l'area delle capacità umane. 15 1.1 La mano, il primo computer “digitale” Le nostre mani senza dubbio rappresentano la prima forma, seppur primitiva, di amplificatore dell’intelletto (e non solo): sono la chiave che ha aperto all’essere umano la porta dell’evoluzione, distinguendolo così dagli altri esseri viventi. La mano ci ha permesso di: costruire utensili e strumenti di caccia, riprodurre graficamente e simbolicamente ciò che i nostri occhi o la nostra mente vedevano (grotte di Lascaux), e soprattutto di calcolare. Grazie all’uso della dattilonomia3 i nostri antenati potevano fare calcoli aritmetici e, tramite sistemi di rappresentazione, potevano visualizzare numeri complessi semplificando notevolmente il lavoro che la mente (diversamente da questa tecnologia) avrebbe dovuto compiere. Sebbene non ci siano prove concrete e le sue origini siano del tutto oscure, del sistema dita-mente si hanno tracce in diverse epoche storiche. Quintiliano (35-96 d.C.), maestro di retorica e oratore romano, per esempio, afferma che un oratore sarebbe stato considerato ignorante se avesse sbagliato un calcolo o se avesse utilizzato gesti con le dita in modo errato mentre era impegnato nella risoluzione del medesimo. Gli Arabi (abilissimi matematici) chiamavano la dattilonomia “aritmetica dei nodi”4 , ampiamente utilizzata per tutto il Medioevo Islamico. Tale tecnica venne inserita tra i cinque metodi di espressione umana e preferita a qualsiasi altro sistema di calcolo perché non richiedeva materiali né strumenti particolari oltre che a un arto. Si hanno tracce anche nel Medioevo Europeo dove il teologo anglosassone Beda (672-735 a.C, monaco divenuto santo inglese), nel primo capitolo del “De computa vel loquela digitorum”, dimostra la possibilità di esprimersi ed eseguire calcoli con numeri da 1 a 9999 utilizzando la mano. 3 Arte ormai (quasi del tutto) abbandonata del conteggio aritmetico tramite l’uso delle dita, adoperando invece dei caratteri le varie inflessioni e movimenti di quest’ultime in modo da rappresentare cifre e calcoli complessi. 4 Aritmetica basata sull'utilizzo di un insieme di cordicelle, annodate tra loro, di diversi colori,che rappresentavano dei numeri e dalla loro reciproca posizione se ne potevano ricavare le unità, le decine, le centinaia e le migliaia. 16 Non sorprende quindi il fatto che il termine inglese “digit” (cifra), utilizzato comunemente nel linguaggio dei moderni computer, derivi dalla parola latina “digitus” (dito). Per calcoli di natura più complessa e problematiche sempre più pressanti, l’uomo nel corso della sua storia ha cercato di costruire strumenti “per pensare” sempre più tecnologicamente avanzati, allo scopo sia di automatizzare che di velocizzare determinati processi, sollevando così la mente dal compiere azioni ripetitive considerate di basso livello (calcoli aritmetici), lasciandola cioè libera di comprendere meglio e di operare su scelte decisionali e valutative. L’aumento dell’intelletto diventa così maggiore libertà nelle scelte da compiere e maggiore possibilità di prendere decisioni corrette e più in fretta. Nascono quindi strumenti con logiche e caratteristiche più articolate, atte alla risoluzione di problematiche e situazioni sempre più difficili (che possiamo collocare nella preistoria dell’informatica), come: gli antichi abachi, la scrittura e successivamente le prime macchine ad ingranaggi per il calcolo astronomico. La più famosa di quest’ultime è la macchina di Antikythera5. 1.2 Il primo calcolatore analogico Definita come il primo calcolatore analogico della storia, la macchina di Fig. 1 - Scansione a raggi-X degli ingranaggi che compongono il frammento principale della macchina di Anticitera. Antikythera risulta essere qualcosa di veramente unico nel suo genere. Secondo uno dei suoi più autorevoli studiosi, il 5 Nota anche come meccanismo di Antikythera, (150-100 a.C). Si tratta di un sofisticato planetario mosso da ruote dentate, che serviva per il calcolo delle fasi lunari, del sorgere del sole ed altri eventi astronomici (eclissi, movimenti dei pianeti allora conosciuti ecc...). Trae il nome dall'isola greca di Anticitera (Cerigotto) presso cui è stata rinvenuta. È conservata presso il Museo archeologico nazionale di Atene. 17 prof. Michael Edmunds, insegnante di astrofisca presso l'Università di Cardiff, siamo di fronte ad un “device straordinario” in cui l’assoluta precisione meccanica ed astronomica è talmente elevata, considerando la datazione presunta dell’oggetto (I secolo a.C.), da “lasciare letteralmente a bocca aperta”. La minuziosità e complessità dei suoi elementi costruttivi è paragonabile agli orologi costruiti dai maestri del XIX secolo. La sua logica di funzionamento risulta essere di gran lunga superiore a qualsiasi altra tecnologia similare e contemporanea alla sua creazione: basti pensare che con pochissime modifiche avrebbe potuto funzionare come calcolatore matematico e che la stessa tecnologia sarà utilizzata molti secoli dopo nei calcolatori meccanici. 1.3 La prima macchina aritmetica ...The first arithmetic machine presented to the public was from Blaise Pascal, born in Clermont, Auvergne on June 19, 1623; he invented it at the age of 19 [...] Pascal's machine is the oldest one; it could have served as model to all the others; this is why we preferred it. ("Encyclopedia" Diderot e D'Alembert, 1751) Il primo calcolatore aritmetico meccanico, come si legge nell'Encyclopedia6, è la “Pascalina”, ideata dal genio di Blaise Pascal (1623-1662), matematico e filosofo francese, all’età di 19 anni come dispositivo che alleviasse il carico di lavoro che il padre (intendente della finanza) doveva affrontare quotidianamente. L’esempio perfetto del mezzo meccanico (frutto dell’ingegno umano) che viene in aiuto per operazioni e compiti ripetitivi, lasciando alla mente l’onere di valutare i risultati prodotti e confrontarli, inserendoli in contesti e situazioni reali. Per la sua realizzazione Pascal ha dovuto combattere oltre che con la sua salute anche contro l’ignoranza del suo tempo. Come spesso accade alle grandi idee rivoluzionarie anche l’invenzione di Pascal si dimostrò prematura rispetto alle possibilità economiche, tecniche e meccaniche dell’epoca. Per funzionare meglio 6 L' Encyclopaedia è una vasta enciclopedia in lingua francese, pubblicata da un consistente gruppo di intellettuali, sotto la direzione di Diderot e D'Alembert, e rappresenta un significativo punto di arrivo di un percorso teso a creare un compendio universale del sapere. 18 e a lungo necessitava di maggiore precisione e forza, ma ciò non toglie il fatto che la macchina calcolatrice realizzata da Pascal, segnò l’inizio di una corsa inarrestabile che porterà fino ai moderni calcolatori. Il principio meccanico della Pascalina non è molto diverso dalla suddetta macchina di Antikythera e fondamentalmente si basa, come per gli abachi, sul sistema di numerazione posizionale, in cui i simboli (cifre) usati per scrivere i numeri, assumono valori diversi a seconda della posizione che occupano nella notazione. La Pascalina era in grado di computare solo semplici addizioni e sottrazioni, un limite che nel 1670 Gottfried Wilhelm von Leibniz7 cercò di superare grazie al prototipo della sua macchina a scatti, dotata di tecnologia per eseguire anche calcoli più complessi, come moltiplicazioni e divisioni. Fig. 2 - La Pascalina 1.4 Leibniz e il sistema binario Nonostante fosse un enorme progresso rispetto alla Pascalina, la macchina a scatti risulta essere un’innovazione che passa in secondo piano se confrontata a quello che lo stesso Leibniz, dal punto di vista teorico-matematico, stava introducendo al mondo. Per molti anni infatti Leibniz dedicò i suoi studi all’aritmetica binaria 8 (1701), compiendo così uno dei passi più importanti e significativi nella storia delle macchine elaboratrici: oltre a codificare un alfabeto appropriato per la logica 7 Gottfried Wilhelm von Leibniz (1646-1716) era un matematico tedesco, oltre che scienziato e filosofo, noto più come precursore dell'informatica e del calcolo automatico. 8 Il sistema numerico binario è definito un sistema numerico posizionale in base 2, cioè che utilizza 2 simboli, tipicamente 0 e 1, invece dei 10 del sistema numerico decimale tradizionale. 19 binaria che permette di scrivere tutti i numeri con due sole cifre (0 e 1), descrisse compiutamente anche le regole che la governano. Il matematico tedesco introdusse, dettandone le norme principali, il mondo alla soglia del nuovo mondo (abbozzando quello che oggi costituisce il linguaggio ufficiale dell’informatica), ma anche ad una sua visione differente. La concezione binaria infatti è riconducibile alle sue ricerche di natura filosofica dualista, dove vide una spiegazione matematica della creazione di tutto l’universo fisico a partire dal nulla (0) e da Dio (1): "Omnibus ex nihilo ducendis sufficit unum" 9. Le regole che governano la natura sono le stesse che verranno successivamente utilizzate per il linguaggio dell’informatica, dove è dalla somma di energia e non energia, materia e non materia, di 1 e di 0, che si crea tutto. Il passo che Leibniz aveva compiuto si rivelò precursore e quindi determinante per il futuro del pensiero tecnologico, tuttavia le sue idee rivoluzionarie rimasero nel dimenticatoio per molti anni. Furono infatti riscoperte e rivitalizzate solo nel 1847 dal matematico inglese George Boole (1815-1864), il fondatore della logica matematica. Nel suo libro “The Mathematical Analysis of Logic” Boole descrive un sistema algebrico (oggi conosciuto come algebra booleana10) basato sulla logica binaria ,derivata dal lavoro di Leibniz e suoi predecessori, in cui una serie di istruzioni (yes-no e on-off) e operazioni di base Fig. 3 - Il medaglione “Imago Creationis” disegnato da Leibniz (AND, OR e NOT) consentono di codificare in un linguaggio più prossimo alla macchina qualsiasi tipo di funzione logica. 9 "Per trarre tutte le cose dal nulla basta l'Uno". Così è scritto su una medaglia intitolata “Imago Creationis”, disegnata da Leibniz nel XVII secolo, per “Mostrare alla posterità, in argento” la sua scoperta del sistema binario. 10 Un insieme di regole dettate per la manipolazione e le operazioni su espressioni logiche, definite dall'insieme { 0 , 1}, dove: + somma logica (operatore binario logico OR ), • prodotto logico (operatore binario logico AND ), l’operazione unaria NOT, ovvero espressioni che possono risultare in due soli valori possibili, vero e falso (true e false). 20 1.5 XIX secolo: Rivoluzione Tecnologica Il passo evolutivo degli elaboratori meccanici, grazie al lavoro costante di matematici, inventori e scienziati, sembra accelerare notevolmente già a partire dai primi anni del XIX secolo. Società, economia, politica, stili di vita ed ogni aspetto della realtà in questo preciso momento storico cambia radicalmente (nascono il telegrafo e successivamente il telefono, la lampadina, la radio, la fotografia, il cinema, la locomotiva ecc...), frutto di una forza incontrollabile generata dalla (seconda grande) Rivoluzione Industriale. Sebbene non sia ascrivibile a questo secolo la nascita effettiva dei computer per come li intendiamo noi oggi, senza dubbio va quantomeno riconosciuto come il momento storico che ha segnato un evidente accelerazione culturale, giustificata anche dallo sviluppo di nuove tecnologie di base, e come un passo evolutivo necessario. In termini darwiniani questo periodo può essere distinto come l’anello di congiunzione tra le macchine meno evolute di concezione tipicamente meccanica-analogica e quelle più evolute che seguiranno. Un passaggio dalle semplici calcolatrici agli elaboratori elettronici, non dissimile a quello avvenuto per l’uomo milioni di anni fa (da scimmia a Homo sapiens). Nel 1801 l’imprenditore francese Joseph-Marie Jacquard (1752-1834) introdusse nella sua azienda tessile un particolare tipo di telaio automatizzato, in cui i disegni venivano “programmati” mediante schede di cartone perforate, conosciuto ancora oggi come il Telaio Jacquard. In corrispondenza del foro gli aghi potevano attraversare e ricamare la trama desiderata. L’intuizione di Jacquard si basava (probabilmente senza rendersi conto delle possibilità che avrebbe introdotto) sull’applicazione pratica della logica binaria ad un sistema automatizzato che poteva essere facilmente programmabile: 1 = foro presente (il filo passa), 0 = foro assente (il filo non passa). Sebbene storicamente non sia del tutto riconosciuto come diretto ascendente dei moderni computer calcolatori, il 21 telaio di Jacquard rappresenta comunque uno stadio evolutivo tecnologico di interessante rilievo e di notevole importanza per le future applicazioni. Un esempio da seguire. 1.6 I primi computer meccanici Ascendenti dirette invece possono essere definite e considerate a tutti gli effetti come i primi computer meccanici della storia, le macchine di Charles Babbage (1791-1871), matematico inglese e scienziato proto-informatico. Rispetto ai suoi predecessori che hanno sempre cercato di costruire macchine calcolatrici capaci essenzialmente di eseguire le quattro operazioni principali (addizione, sottrazione, divisione, moltiplicazione), il matematico inglese voleva creare calcolatori universali dotati di memoria, di una parte operativa e di un’unità di controllo (concettualmente e “architetturalmente” molto simili a quelli moderni), capaci di svolgere sequenze di calcoli determinati dall’esecuzione di uno specifico programma. I calcolatori numerici presentati da Babbage hanno introdotto il concetto per la quale una macchina può imitare molto da vicino alcune azioni umane, semplicemente istruendole tramite apposite tavole di istruzioni programmate. to “programme a machine to carry out operation A” means to put the appropriate instruction table into the machino so that it will do A ("Computing Machinery and Intelligence" A.M. Turing, 1950) Al tempo di Babbage i tabulati numerici (prevalentemente ad uso astronomico) erano calcolati da operatori umani che venivano chiamati “computers”(che significa dall'inglese “colui che calcola”, così come il termine “conductor” significa “colui che guida”) e naturalmente erano soggetti ad un elevato tasso di errori. Il suo obiettivo divenne quindi quello di annullare tali imprecisioni tramite l’utilizzo di macchine calcolatrici. 22 I was sitting in the rooms of the Analytical Society, at Cambridge, my head leaning forward on the table in a kind of dreamy mood, with a table of logarithms lying open before me. Another member, coming into the room, and seeing me half asleep, called out, "Well, Babbage, what are you dreaming about?" to which I replied "I am thinking that all these tables" (pointing to the logarithms) "might be calculated by machinery". (Babbage) Babbage a partire dal 1820 iniziò a lavorare su un prototipo di macchina differenziale11 che, secondo i suoi progetti, doveva elaborare e compiere operazioni meccanicamente, sfruttando il principio del metodo delle differenze12 . Pubblicò i suoi studi in un documento intitolato "Note on the application of machinery to the computation of astronomical and mathematical tables" che presentò alla Royal Astronomical Society il 14 giugno del 1823. L’idea fu riconosciuta talmente brillante da ottenere immediatamente fondi necessari per realizzarla, ma la sua costruzione non fu mai del tutto ultimata. I problemi ricorrenti che Babbage riscontrò durante tutto l’arco del suo lavoro, furono essenzialmente dovuti alla meccanica degli ingranaggi disponibili a quel tempo, tecnicamente Fig. 4 - Ricostruzione della macchina differenziale di Babbage troppo poco adatti ad un dispositivo che richiedeva indici di precisione elevatissimi. Subito dopo i vari tentativi infruttuosi di rendere il sistema differenziale operativo, Babbage si concentrò sulla progettazione di uno strumento di calcolo ben più complesso, ma dalle potenzialità pressoché infinite: la macchina analitica. 11 La macchina avrebbe utilizzato il sistema decimale e sarebbe stata alimentata in modo meccanico, ossia tramite il movimento di una maniglia che avrebbe fatto girare gli ingranaggi. 12 Metodo usato per risolvere numericamente equazioni differenziali, prevalentemente ordinarie anche se sono spesso usate come schema di avanzamento nel tempo per problemi alle derivate parziali. Sono di gran lunga il metodo più semplice e intuitivo tra tutti poiché non si utilizzano moltiplicazioni. 23 Tale engine13 si differenzia rispetto al suo precedente lavoro poiché dotato di “intelligenza programmabile”, ossia della possibilità del dispositivo di ricevere una serie di istruzioni attraverso input ed eseguirle basandosi sui dati e sulle informazioni analizzate. L’analytical engine, progettato da Babbage, sfrutta l’intuizione di Jacquard delle schede perforate (utilizzata nel telaio) come primitiva interfaccia uomo-macchina e strumento di controllo della macchina stessa. La sua natura flessibile la rende molto simile all’architettura utilizzata nei moderni elaboratori informatici, dove dati e memoria del programma sono separati e le operazioni sono basate su istruzioni. The Analytical Engine has no pretensions to originate anything. It can do whatever we know how to order it to perform 14 ( "The Ladies Diary" journal Taylor's Scientific,1842) Ancora una volta la sfida tecnologica sfortunatamente fu troppo elevata da poter essere vinta: Babbage aveva creato il primo computer programmabile della storia, anche se le sue idee rimasero a lungo solo sulla carta. Nonostante i suoi progetti fossero incompiuti, Babbage viene riconosciuto all’unanimità come il principale precursore delle logiche che hanno reso possibile la nascita dei computer. Molti dei suoi successori recuperarono i suoi progetti e dimostrarono che le macchine che aveva progettato erano in grado di eseguire ciò che lui aveva sognato. Un altro ascendente diretto di forte rilevanza “storica” dei moderni elaboratori fu ideato nel 1890 da Herman Hollerith 15 (1860-1929), il quale vinse un bando di 13 Parte del file che si occupa di dati di tipo scientifico. 14 Tratto da "The Ladies Diary " di Taylor, opera in cui vennero pubblicate le memorie di Lady Lovelace (1842), matematica inglese che lavorò al fianco di Babbage durante la realizzazione della macchina analatica. Egli la soprannominò "l'incantatrice dei numeri", colpito dalle sue abilità e dal suo intelletto. Lady Lovelace, ossia Ada Lovelace (1815-1852), è spesso ricordata come la prima programmatrice di computer al mondo. 15 H.Hollerith era un ingegnere statunitense, noto come fondatore dell'IBM (L'International Business Machines Corporation). 24 concorso indotto dal United States Census Office (ufficio censimenti degli Stati Uniti) e finalizzato alla costruzione di una macchina in grado di classificare e contare automaticamente le schede necessarie per il controllo censitorio del paese. Hollerith utilizzò l’ormai consolidata idea delle schede perforate del sistema Jacquard-Babbage, non per specificare un programma da eseguire, ma per indicare alla macchina i dati da elaborare. Le risposte degli individui venivano interpretate e codificate su apposite schede da operatori umani secondo la logica binaria, mediante la rappresentazione di fori o non fori (per esempio un individuo “maschio” poteva essere rappresentato tramite un foro, mentre una “femmina” con l’assenza di foro). Per ogni foro la macchina attivava un circuito elettrico, altrimenti spento in sua assenza, che a sua volta metteva in funzione un complesso sistema di contatori in grado di immagazzinare ed interpretare le informazioni relative alle risposte fornite dall’individuo nel questionario del censimento. La tabulatrice di Hollerith16 divenne il primo dispositivo di calcolo a fare uso dell’elettricità. Completò il suo lavoro di conteggio e analisi schede in 50 giorni, (ci vollero 8 anni per portare a termine il precedente censimento senza l’uso di questo tipo di tecnologia) alla media di circa 800 schede al minuto. Una vera e propria rivoluzione per l’epoca. 1.7 Alan Turing La prima metà del XX secolo richiama alla mente da una parte il ricordo di distruzione e morte dettato dalle due grandi guerre mondiali, dall’altra lo straordinario progredire delle tecnologie informatiche. Guerra e ricerca tecnologica fanno parte in questo contesto di un sistema simbiotico, sono gli ingredienti essenziali che hanno scandito nell’ultimo periodo storico l’evoluzione che ci ha portato fino ai computer per come li conosciamo e li utilizziamo ancora 16 La macchina tabulatrice era congegnata su un meccanismo molto semplice: un insieme di fili metallici venivano sospesi sopra il lettore di schede, poste in corrispondenza di appropriate vaschette di mercurio; una volta che i fili venivano spinti sulla scheda, essi permettevano di chiudere elettricamente il circuito solo in corrispondenza dei fori praticati durante la rilevazione. Il circuito elettrico attivato consentiva l’avanzamento del relativo contatore, avvertendo l’operatore della lettura avvenuta. 25 oggi. La prima incentiva la seconda a trovare espedienti sempre più efficienti e determinanti alla rottura degli enigmi crittografici17, all’elaborazione di sempre più complessi calcoli balistici e allo sviluppo di nuove tecnologie. Si tratta di una guerra nella guerra dove le menti geniali degli scienziati e dei ricercatori, ancor più che le armi dei soldati in battaglia, possono fare davvero la differenza. Durante la Seconda Guerra Mondiale per decodificare messaggi criptati tedeschi occorrevano macchine eccezionali e menti eccezionali. Il matematico e crittografo inglese Alan Mathison Turing (1912-1954) fortunatamente era una di queste. You needed exceptional talent, you Fig. 5 - Rappresentazione grafica della macchina di Turing. needed genius [...] and Turing's was that genius. 18 Ideò un modello teorico di un dispositivo in grado di risolvere qualsiasi algoritmo esistente. La macchina, denominata Macchina di Turing, era costituita da due elementi principali: un nastro di dati riscrivibile ed infinito, e un meccanismo in grado di muoversi lungo il nastro bidirezionalmente e di modificare le informazioni su di esso, scrivendone di nuove e cancellandone quelle già esistenti. Lo sviluppo di questa macchina era, secondo Turing, la risposta al problema della decidibilità19. Ancora oggi risulta essere un modello fondamentale per 17 La parola crittografia deriva dall'unione di due parole greche: κρυπτóς (kryptós) che significa "nascosto", e γραφία (graphía) che significa "scrittura". La crittografia studia le "scritture nascoste", ossia i metodi per rendere un messaggio "offuscato" in modo da non essere comprensibile a persone non autorizzate a leggerlo. 18 Citazione di Asa Briggs (1921), uno dei storici inglese più autorevoli, noto per la sua trilogia sull'era Vittoriana: "Victorian People", "Victorian Cities," and "Victorian Things". 19 Diremo decidibile un problema per il quale esiste un algoritmo (quindi una procedura eseguibile con un numero finito di passi) in grado di risolverlo. 26 chiunque si occupi di computazione ed abbia bisogno di dimostrare la validità degli algoritmi progettati. Prendendo spunto dalla brillante idea visionaria della Macchina di Turing fu progettato Colossus, il primo calcolatore elettronico programmabile della storia. Venne utilizzato nel corso della Seconda Guerra Mondiale, a decorrere dal 1944, per cercare di decriptare i messaggi cifrati tedeschi. Colossus confrontava due flussi di dati: il messaggio originale criptato e un tentativo di codifica, valutandone di volta in volta la sua attendibilità. Il mezzo (Colossus) e la mente (Turing) permisero di disinnescare innumerevoli attacchi nemici e di indebolirne notevolmente i fronti attraverso attacchi a “sorpresa”, grazie alla conoscenza preventiva della dislocazione delle truppe avversarie. Senza di loro lo scenario della Seconda Guerra Mondiale avrebbe potuto avere esito differente. Turing oltre ad aver contribuito (a modo suo) alla sconfitta di Hitler, giocò anche il ruolo di “attore principale” e precursore nell’ambito di ricerca sull’ intelligenza artificiale20 . In “Computing Machinery and Intelligence” (del 1950) Turing si pone un semplice quesito: “Can machine think?”. La sua ricerca sulle possibilità di creare “thinking machine” (macchine pensanti) include anche aspetti neurologici e fisiologici. Si lascia ispirare infatti dalle complicate interconnessioni neuronali, analizzandone la logica e riconoscendo analogie matematiche di funzionamento con le macchine. La soluzione migliore, secondo il matematico britannico, sta nel creare un sistema intelligente in grado di “apprendere” e accrescere la sua “esperienza”, così come avviene nei bambini (tramite il gioco, i rimproveri, gli apprezzamenti, etc..). Per cercare di rispondere alla questione Turing suggerisce inoltre un semplice test, denominato appunto test di Turing. Immagina uno scenario in cui un uomo A e una donna B devono fornire risposte dattiloscritte ad un soggetto C. Quest’ultimo ha il compito di determinare chi dei due è il maschio e chi è la 20 Il termine di intelligenza artificiale fu proposto per la prima volta da Marvin Minsky e John McCarthy durante un seminario di informatica al Darthmounth College di Hannover, nel New Hampshire (Stati Uniti), nel 1956. 27 femmina. Nell’eventualità che una macchina si sostituisse ad A o B, e se i risultati forniti da C fossero statisticamente identici alla situazione precedente, allora la macchina poteva essere considerata pensante. The reader must accept it as a fact that digital computers can be constructed, and indeed have been constructed, according to the principles we have described, and that they can in fact mimic the actions of a human computer very closely. ("Computing machinery and intelligence" A.M.Turing, 1950). Turing riconosce la difficoltà sulla fattibilità delle sue idee, ma non la loro impossibilità. È convinto che presto saremo in grado di innestare all’interno delle macchine il dono del pensiero, predicendo di fatto che entro la fine del secolo (XX secolo) chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto. La questione “Can machine think?” è rimasta insoluta ancora oggi (e forse una soluzione non la avrà mai), ma senza dubbio progresso tecnologico e decenni di ricerca nel campo delle intelligenze artificiali hanno aumentato le nostre possibilità di risposte al quesito proposto da Turing oltre 60 anni fa. the only way by which one could be sure that machine thinks is to be the machine and to feel oneself thinking ("Computing machinery and intelligence" A.M.Turing, 1950). 1.8 “As We May Think” secondo Vannevar Bush Il 1945 oltre ad essere ricordato come l’anno della fine del secondo conflitto mondiale, è anche l’anno in cui lo scienziato e tecnologo statunitense Vannevar Bush (1890-1974) pubblica un articolo dal titolo “As We May Think”. Sebbene i due eventi abbiano una portata in termini di rilevanza storica ben diversa, in qualche modo sono entrambi segnali, speranze e motivo di enormi ennesimi cambiamenti sociali, economici, politici, culturali e tecnologici. Il dopoguerra ha 28 lasciato molte dolorose ferite da rimarginare, bisognava ricostruire un mondo, riprogettarlo. As We May Think suggerisce modi per farlo. Bush durante la Seconda Guerra Mondiale aveva messo la propria esperienza di scienziato al servizio della patria e, come il matematico inglese Alan Turing, aveva ricoperto un importante ruolo nella ricerca militare. Il suo saggio del 1945 è una riflessione sul rapporto tra tecnologia, il tema della felicità universale e della pace nel mondo (temi assai attuali in epoca post-bellica). Of what lasting benefit has been man's use of science and of the new instruments which his research brought into existence? (“As We May Think” Vannevar Bush, 1945) Come può la tecnologia contribuire al benessere dell’umanità? E come può il background della conoscenza umana immagazzinata fino ad oggi (e quella futura) sostenere l’uomo a vivere in pace? Sono queste essenzialmente le domande che Bush si pone e al quale cerca di dare una risposta. Occorre ragionare sia sulle tecnologie che sul metodo di ricerca e costruzione scientifica affinché permettano all’uomo di costruirsi “una casa in cui possa vivere in buona salute”. La conoscenza umana è un insieme collegato con il tutto che, in quanto tale, ha una dimensione universale, non limitabile alla vita del singolo individuo. Il sapere quindi è frutto di processi accumulativi e si genera grazie alla collaborazione interna di sistemi collegati che includono tutto il sapere umano. Il primo cardine che Bush identifica si riferisce al fatto che la conoscenza per poter essere utile deve essere continuamente ampliata, archiviata e soprattutto consultata. Deve poter essere accessibile. La produzione di informazioni, grazie alle tecnologie moderne (stampa, giornali etc.), è ad un ritmo sempre crescente (produciamo sempre più informazioni), ma all’aumentare della ricchezza informativa non viene corrisposta un altrettanto efficace grado di condivisione. Un’informazione può essere facilmente archiviata grazie all’uso delle macchine, ma la sua consultazione e condivisione richiede tecnologie per l’epoca ancora non disponibili. Un limite che verrà superato solo parecchi anni dopo con l’avvento di internet per le masse. 29 A partire da queste premesse lo scienziato statunitense immagina una macchina rivoluzionaria dotata di schermi, sistemi di archiviazione dati, di tastiera e svariati gruppi di leve e bottoni. Un nuovo strumento a disposizione degli scienziati per svolgere il loro lavoro. Si potrebbe definire un “luogo dell’intelletto”, poiché è lì che sono immagazzinate le informazioni che ogni ricercatore necessita (libri, testi, articoli, appunti che produce etc.) ed è lì che avviene il contatto tra mente umana e macchina. Fig. 6 - A sinistra la copertina di una rivista in cui è pubblicato il saggio di Vannevar Bush, “As We May Think”. A destra, un’illustrazione del Memex. Il Memex, questo è il nome del dispositivo, non solo aiuta a visualizzare i dati di cui si ha bisogno in un qualsiasi momento ma agisce anche da estensore della memoria individuale (MEMory EXtender). Nella presentazione dei documenti si comporta emulando le associazioni di idee e concetti che la mente umana e i flussi di pensiero producono costantemente. Infatti una volta che la nostra mente ha un elemento a disposizione, tende a saltare istantaneamente all’elemento successivo, suggerito in base ad un intreccio di piste (pre)registrate. Il Memex in poche parole è il primo esempio della meccanizzazione della selezione per associazione. Un primitivo Hypertext21. 21 Termine inglese che significa "ipertesto", ossia un insieme di documenti correlati tra loro attraverso parole chiavi. 30 C’è abbondanza di aiuti meccanici con i quali effettuare trasformazioni nei documenti scientifici [...] Per il pensiero evoluto non esiste nessun sostituto meccanico. Ma il pensiero creativo e il pensiero essenzialmente ripetitivo sono cose molto differenti. Per il secondo esistono, e possono esistere, potenti aiuti meccanici. (“As We May Think” Vannevar Bush, 1945) 2. La “visione” utopistica di Engelbart e Licklider “As We May Think” e l’intuizione del Memex del 1945 sono passaggi fondamentali che hanno notevolmente influenzato i fautori della prima rivoluzione informatica, avvenuta tra gli anni ‘60 e ‘70 e che ci ha condotto fino ai giorni nostri. Leggere il testo di Bush e immaginare il Memex come lo strumento capace di amplificare le conoscenze umane è, facendo le dovute proporzioni (e senza voler ricadere nella blasfemia), come osservare Mosé che indica al suo popolo la strada verso la terra promessa (computer). Le condizioni tecniche e tecno-logiche affinché si possa raggiungere erano tuttavia ancora proibitive (occorreva attraversare il Mar Rosso). 2.1 I “Giant brain” degli anni ‘40 Colossus (completato nella sua prima versione nel 1943) era completamente elettronico, funzionava attraverso 1500 valvole per la logica (2400 nella seconda versione del 1944) e cinque lettori a nastro perforato, capaci di leggere fino a 5000 caratteri al secondo. Sebbene fosse il primo calcolatore elettronico programmabile della storia e fosse tra le tecnologie più avanzate dei primi anni ‘40, aveva comunque molte limitazioni rispetto agli standard a cui siamo abituati (a parte chiaramente la potenza di calcolo). In primo luogo non è dotato di nessun tipo di programma pre installato: affinché potesse eseguire altre operazioni occorreva intervenire direttamente sul cablaggio e sulle valvole. Colossus inoltre non è definibile come computer General-purpose22 poiché progettato esclusivamente per compiti crittoanalitici. 22 Identifica hardware e software che risolvono problemi generali e quindi non sono dedicati ad una specifica funzione. 31 Gli esperimenti nei centri di ricerca americani ed inglesi (soprattutto militari o associati ad essi) della prima metà degli anni ’40 continuarono senza sosta, stepby-step, alla creazione e progettazione di grandi costosissime macchine elaboratrici che, nel migliore dei risultati ottenuti, potevano vantare una potenza di calcolo di poche centinaia di kHz (molto meno di una moderna calcolatrice). Gli elaboratori di questi anni erano veri e propri colossi che occupavano intere stanze e richiedevano moltissime energie per poter funzionare, sia da un punto di vista di consumi che da quello degli addetti ai lavori. L’ENIAC23 (1946) probabilmente è l’esempio più significativo del termine coniato per descrivere i computer di prima generazione, definiti appunto “Giant Brain”: era lungo 30 metri, pesava oltre 25 tonnellate, la sua realizzazione costò 500.000$ (circa 6.000.000$ odierni) e consumava 150 kW. Tali mezzi erano utilizzati per eseguire calcoli inesplicabili richiesti dalla fisica nucleare; erano macchine esclusivamente pensate per operare number crunching24 massivo. Senza sosta. Elaborazioni dati che implicavano una serie di procedure che potremmo definire anche “rituali”, ed intendevano l’interazione con il computer alla pari di uno strumento-ambiente ostile all’uomo a cui bisognava adattarsi. Immaginiamo di trovarci all’interno di un centro di ricerca militare (o universitario) dell’epoca e di poter osservare l’intero “rito” partendo dalla volontà di risolvere un determinato problema: entriamo in una stanza in cui possiamo notare alcuni operatori dall’aria molto indaffarata che cercano di identificare esattamente quali sono i dati che il computer deve manipolare e le regole necessarie alla risoluzione del problema di base. Iniziano a codificarle secondo la logica più opportuna e successivamente procedono alla compilazione del programma. Utilizzano il linguaggio FORTAN25. 23 L'Electronic Numerical Integrator and Computer (ENIAC) è il primo computer elettronico general-purpose, costruito alla Moore School of Electrical Engineering (Pennsylvania) per un ex centro di ricerca dell'esercito degli USA,il Ballistic Research Laboratory. 24 Termine inglese la cui traduzione è sgranocchiatore di numeri. Così venivano definiti in gergo i computer proprio per le loro capacità computazionali. 25 32 Uno dei primi linguaggi di programmazione (1954) Fig. 7 - Colossus Appena il programma è ultimato incomincia la fase di conversione. Altri operatori si apprestano a trasferire il tutto su schede perforate (il dispositivo di input) e, appena concluso il lavoro, consegnano le schede all’amministratore del sistema al “centro di calcolo”, la stanza più grande e calda di tutta la struttura. L’amministratore è l’unico a cui è concesso sottoporre i programmi alla macchina, una sorta di sommo sacerdote del rituale, mediatore tra gli utenti (comuni mortali) e i computer mainframe. Presso di lui dopo poche ore o giorni, in base alla mole di dati analizzati, è possibile ritirare le stampe con i risultati richiesti. Ad ogni errore (anche banale) occorreva ripetere tutto da zero. Alla luce di questo, le parole e le idee di Vannevar Bush nel 1945 dovevano sembrare ancor più allucinate e fantascientifiche. Basti pensare che i teorici “ortodossi” dell’informatica a cavallo tra gli anni ‘40 e ‘50 immaginavano un futuro di progressi tecnologici che sarebbero stati sfruttati per costruire computer sempre più grandi e più potenti, comandati da pochissimi eletti, il cui compito era quello di tradurre i problemi del mondo in linguaggi esoterici da sottoporre alle macchine. 33 Ciò che aveva immaginato Bush andava ad intaccare proprio quel sistema elitario, poiché mirava ad un rapporto più diretto, personale ed immediato con le macchine elaboratrici. Non sorprende quindi il fatto che tali idee abbiano avuto credito e (molta) stima solo parecchi anni dopo, grazie all’avvento della miniaturizzazione delle tecnologie di base e soprattutto ad altre menti altrettanto brillanti e profetiche, che hanno rivoluzionato il mondo creandone di nuovi: Douglas Carl Engelbart, Joseph Carl Robnett Licklider e David Edward Sutherland(di quest’ultimo ci occuperemo più approfonditamente nel terzo capitolo). 2.2 Engelbart e il potenziamento dell’intelletto umano Engelbart nel 1945 era un giovane radarista della Marina statunitense (1925), impegnato in gran parte delle sue giornate a distinguere le minacce rappresentate dai puntini sugli schermi. Poco prima della fine della guerra si imbatte nell’articolo di Bush “As We May Think” e ne rimane davvero affascinato. “Sopravvissuto” al conflitto, trova lavoro in una piccola ditta di elettronica a Mountain View (che nel giro di pochi anni si sarebbe trasformata da frutteto a cuore pulsante e trainante della Silicon Valley), si compra una casa e si sposa. All’età di trent’anni compresi che avevo raggiunto tutti gli obiettivi della mia vita [...] mi chiesi che cosa avrei fatto da quel momento in poi e compresi che si trattava di una decisione importante. ("Realtà Virtuali" Howard Rheingold, citazione di Douglas Engelbart, 1983) Nel 1950 mentre attraversava i frutteti della valle per recarsi (come tutti i giorni) al lavoro, incominciò a pensare al futuro. Non solo il suo, ma quello di tutti. Cercava di capire quali opportunità avrebbe potuto cogliere per rendere il mondo migliore. Gli ritornò alla mente quanto letto dall’articolo di Bush in merito alla tecnologia e alla sua possibilità di essere d’aiuto per la collettività, e subito si rese conto che gli scenari che cercava di immaginare si imbattevano sempre sugli stessi ostacoli: i problemi dell’uomo diventavano ogni giorno sempre più 34 complessi e difficili da risolvere con i mezzi a disposizione. I computer, che in quel periodo numericamente (in tutti gli Stati Uniti) erano circa una dozzina, non erano all’altezza delle possibilità umane, erano ancora poco potenti e troppo tecnici e distanti per essere compresi e considerati strumenti utili alla collettività. Continuava a domandarsi che cosa si sarebbe dovuto fare per cercare di incrementare le nostre possibilità e cosa poteva fare lui in particolare per aiutare il mondo ad essere migliore. Ebbe una sorta di rivelazione, divenuta ormai (quasi) leggendaria. L’immagine mentale che gli si presenta davanti è quella di un gruppo di persone che lavorano in un modo del tutto nuovo, mai pensato prima. Sono scene sfocate, ma è consapevole che ben presto potranno diventare nitide. Vide persone davanti ad uno schermo televisivo collegato ad un elaboratore di informazioni. Sul monitor venivano visualizzati simboli con cui era possibile interagire per mezzo di pulsanti. Le persone controllavano il computer e lo indicavano interagendo con gli strumenti di conoscenza, informazione e pensiero che integra al suo interno. I had the image of sitting at a big CRT screen with all kinds of symbols, new and different symbols, not restricted to our old ones. The computer could be manipulating, and you could be operating all kinds of things to drive the computer. The engineering was easy to do; you could harness any kind of a lever or knob, or buttons, or switches, you wanted to, and the computer could sense them, and do something with it (Douglas Engelbart Interview, December 1986) Gruppi di lavoro di questo tipo, secondo Engelbart , avvalendosi del nuovo prezioso strumento,avrebbero potuto risolvere facilmente qualsiasi tipo di problema, anche quelli più complessi. La sua idea dopo tutto è semplice: è convinto, e lo è stato fin dal primo momento che si è trovato di fronte ad un computer, che se queste macchine erano in grado di mostrare informazioni su un tabulato avrebbero potuto anche scriverle e disegnarle sullo schermo, così come sarebbero state in grado di ricevere input in maniera più “umana”. Aveva trovato l’obiettivo della sua vita: Engelbart voleva realizzare quella visione. 35 Nel 1962, a distanza di 12 anni dalla sua “visione”, pubblica un progetto concettuale, frutto delle sue ricerche presso lo Stanford Research Institute (SRI) di Menlo Park in California, in un documento dal titolo emblematico: “Augmenting Human Intellect: A Conceptual Framework”. Il testo non è solo uno screening finalizzato a dimostrare l’effettiva possibilità che i computer da “pareti elettroniche vive mangia numeri” possano essere trasformati in ”strumenti di conoscenza risolutori di problemi”, ma è qualcosa di più: è il manifesto di un nuovo modo di pensare, progettare e creare tecnologie il cui scopo principale è appunto quello di aumentare le capacità intellettuali umane e conseguentemente quelle della collettività (non a caso lo stesso Engelbart sarà considerato il pioniere della Network Augmented Intelligence). Parla di “possibility of finding solution to problems that before seemed insoluble” attraverso una collaborazione diretta tra intelletto umano e computer mediata da uno schermo, dispositivi di input e un nuovo linguaggio. Tutti elementi che (almeno fino a quel momento) non esistevano ancora. Era consapevole, quando ebbe la sua “visione”, che per la sua realizzazione oltre a fondi economici sostanziosi, tecnologie di base accessibili e tempi di sviluppo relativamente lunghi, occorrevano anche studi approfonditi sulla linguistica, sulla psicologia e sul comportamento umano. Occorreva creare nuovi modelli adatti allo scopo. In “Augmenting Humen Intellect” Engelbart infatti più che cercare soluzioni tecniche, traccia le linee-guida teoriche del nuovo modo di pensare al rapporto tra computer-mente umana, illustrandone progressivamente i passaggi che lo hanno ispirato. A partire dalle analisi sulla percezione sensoriale, fino ad arrivare alla comprensione delle possibilità di sfruttare (in particolare) la linguistica e le capacità umana di elaborare segni come elementi chiave per condizionare l’intelletto umano. Gli individui interagiscono sul mondo attraverso limitate possibilità di movimento date dai nostri arti, e ricevono dal mondo informazioni tramite l’utilizzo dei sensi. L’interpretazione ed elaborazione di questi dati è delegata al 36 cervello seguendo due tipologie di processi: conscio e inconscio. Il primo si occupa di tutte quelle azioni che coinvolgono in qualche modo la nostra volontà (come riconoscere una forma, ricordare, visualizzare, astrarre, dedurre etc.), mentre il secondo implica la mediazione delle informazioni ricevute dai sensi e quelle rielaborate dal sistema conscio. La capacità di mediazione degli input sensoriali generati consciamente e inconsciamente è inoltre dettata anche dal background culturale ed esperienziale che contraddistingue ogni individuo. In determinate situazioni complesse l’individuo tende ad ignorare questo tipo di informazioni, cercando di privilegiare le sue capacità innate derivate dal suo bagaglio di conoscenze. For instance, an aborigine who possesses all of our basic sensory-mental-motor capabilities, but does not possess our background of indirect knowledge and procedure, cannot organize the proper direct actions necessary to drive a car through traffic, request a book from the library, call a committee meeting to discuss a tentative plan, call someone on the telephone, or compose a letter on the typewriter ("Augmenting Human Intellect: A Conceptual Framework" D. C. Engelbart, 1962) Ogni processo del pensiero ed agire umano, a partire dalle cose più semplici fino ad arrivare a quelle più complesse, è costituito da sotto-processi strutturati gerarchicamente e indipendenti tra loro, la parte integrate di un bagaglio, un toolkit di capacità che tutti devono conoscere, imparare ad usare al meglio ed amplificare. Fanno parte di questo repertoire hierarchy tutte le abilità di base (definite Explicit Human: movimenti muscolari, utilizzo dei sensi etc.), quelle acquisite dall’uso di oggetti (definite Explicit Artifact) e quelle composte dalla combinazione di entrambe le competenze (Composite). Engelbart definisce questo tipo di sistema attraverso un modello denominato H-LAM/T26 in cui il linguaggio umano, gli oggetti, la metodologia e la specializzazione nel loro utilizzo sono gli ingredienti essenziali del comportamento umano, dell’intelletto e della percezione del mondo. 26 Human using Lauguage, Artifacts, Methodology, in which he is Trained 37 La scrittura di un testo, per esempio, avviene mediante l’uso di una serie di processi e sub-processi (sviluppo del soggetto, composizione delle frasi, delle parole etc.), ognuno dei quali deve essere organizzato secondo gerarchie, dettate dall'esperienza, ben precise che vanno a comporre il linguaggio della scrittura. Cosa accadrebbe se un nuovo mezzo tecnologico introducesse un modo diverso di composizione dei testi? Engelbart cerca di rispondere a questa domanda ipotizzando un nuovo tipo di macchina da scrivere. Una macchina da scrivere elettronica con un particolare meccanismo di “stampa”, ben più complesso di quelli normalmente utilizzati, in cui il carattere visibile (stampato) è composto anche da invisibili marcatori che, tramite l’utilizzo di un apposito device, consentono di leggere e “catturare” il testo per duplicarlo e riutilizzarlo in un nuovo documento. Un sistema che velocizza la creazione di bozze e di pensieri, liberando notevolmente la creatività dai vincoli strutturali della scrittura tradizionale. Questa ipotetica macchina da scrivere ci permette in tal modo di utilizzare un nuovo processo di composizione del testo [...] Se il groviglio di pensieri rappresentato dalla bozza di uno scritto diventa troppo complesso, possiamo compilare velocemente una bozza riordinata. Sarebbe pratico poter adattare una maggiore complessità ai percorsi possibili del pensiero in cerca del percorso che meglio si adatta alle nostre esigenze [...] ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962) Un simile strumento innovativo può provocare effetti di vasta portata sulle gerarchie dei processi e delle capacità umane: alcune possono salire nell’ordine di importanza, altre possono scendere e altre ancora possono essere attivate (capacità latenti). In poche parole: è in grado di riorganizzarle secondo nuove logiche. The important thing to appreciate here is that a direct new innovation in one particular capability can have far-reaching effects throughout the rest of your capability hierarchy. ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962) 38 Il riposizionamento delle gerarchie del repertorio dei processi e sub-processi è la chiave che caratterizza l’evoluzione dell’intelletto umano. Ad ogni innovazione di strumenti, utensili e tecnologie corrisponde un relativo potenziamento dell’intelletto umano e questo sviluppo, nota Engelbart, avviene fin dalla prima comparsa del cervello umano. Gli esseri umani sono le uniche forme di vita ad aver sviluppato la possibilità di manipolazione dei concetti (attraverso la mente l’uomo può sviluppare concetti generici da specifiche situazioni e predire specifiche situazioni da concetti generali, associati o ricordi), di poter manipolare simboli (rappresentare pensieri e concetti mentali attraverso l’uso di segni ed immagini specifiche), oltre ad un linguaggio che è sia espressione diretta dei pensieri e dei concetti mentali che mezzo principale di comunicazione. Il linguaggio si evolve, si modifica e si arricchisce seguendo l’evoluzione delle tecnologie e delle capacità di una determinata cultura. Il linguaggio umano è inteso, secondo una concezione neo-Whorfiana 27, come il mezzo che influenza più di tutti la capacità di pensiero e di visione del mondo esterno da parte di una determinata cultura. Sia il linguaggio utilizzato da una civiltà che le capacità di pensiero durante la loro evoluzione sono direttamente condizionati dai mezzi con cui è possibile manipolare simboli. In sintesi, manipolare i simboli equivale a condizionare le capacità cognitive degli esseri umani. Una dimostrazione (puramente concettuale) di questa ipotesi potrebbe essere la seguente: immaginiamo una civiltà pari alla nostra ma evoluta in un ambiente in cui determinate combinazioni “naturali” e culturali hanno creato i presupposti per pensare all’aspetto (forma e peso) di uno strumento di incisione (e scrittura) più simile ad un mattone anziché a quella di una matita. 27 L'Ipotesi di Sapir-Whorf (o ipotesi della relatività linguistica) sostiene che la categorizzazione linguistica non è solo il risultato dell'organizzazione della nostra esperienza, ma ne è, allo stesso tempo, la discriminante: chi, infatti, "conosce" linguisticamente il mondo in un certo modo ne sarà influenzato di conseguenza, ovverosia il modo di esprimersi influenza il modo di pensare. 39 Per scrivere accuratamente un testo, seguendo questa premessa, occorrerà scrivere più grande e magari premere maggiormente per rendere più nitido, preciso e leggibile il tratto. Come prima conseguenza ci sarà un dispendio di energie maggiore, ma anche una produzione di documenti di dimensione nettamente più voluminose. Le modalità di archiviazione (che consentono l’organizzazione del commercio e del governo) e i calcoli (che consentono lo sviluppo delle scienze) assumeranno una forma molto diversa rispetto alla nostra. Un’altra conseguenza diretta sarà un progressivo rallentamento della produzione scritta di testi a causa dei libri troppo grandi e più in generale della cultura, scoraggiando notevolmente le persone dall’apprendere e dal comprendere. I concetti all’interno di questa civiltà si evolveranno diversamente e la simbologia per rappresentarli sarà dissimile rispetto alla nostra. It thus seems very likely that our thoughts and our language would be rather directly affected by the particular means used by our culture for externally manipulating symbols, which gives little intuitive substantiation to our Neo-Whorfian hypothesis ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962) Tramite l’uso di computer appositamente progettati, dotati cioè di schermo di visualizzazione (output) e strumenti di interazione uomo-macchina adatti (input), e un linguaggio appropriato fatto di immagini e segni, l’uomo è in grado di rappresentare facilmente i concetti che vuole manipolare, oltre ad organizzarli (direttamente davanti agli occhi), trasformarli, immagazzinarli e ricordarli. Ogni individuo così potrà adoperare gli strumenti di cui il computer sarà composto (non sono posti limiti al riguardo): potrà creare immagini estremamente sofisticate, grafici, scrivere testi secondo nuove modalità più affini ai flussi del pensiero ed eseguire una vasta quantità di processi non più legati alla semplice elaborazione numerica. Comunicherà con il computer mediante interazioni minime in grado però di produrre risultati dal potenziale immenso. 40 Nel limite di quello che è possibile immaginare, Engelbart stava già descrivendo l’utilizzo di un computer del futuro, ben diverso da quell’interazione ritualistica di cui abbiamo avuto modo di parlare precedentemente. Il rapporto tra utente e computer si fa diretto e immediato. Diventa Personal. I crescenti problemi che la società doveva affrontare e che Engelbart vedeva come un possibile ostacolo, grazie alle macchine per pensare potevano finalmente essere risolti. 2.3 Licklider e la simbiosi uomo computer Anche Licklider ebbe una rivelazione simile a quella di Engelbart che trasformò la sua vita radicalmente. Fu una “sorta di esperienza di conversione”. Più o meno nello stesso periodo in cui Engelbard iniziò a lavorare allo Stanford Research Institute ai progetti e ricerche di Augmenting Human Intellect, Licklider si occupava di psicoacustica, “costretto” ogni giorno a lavorare con modelli matematici utili a comprendere le complessità del sistema uditivo umano. Man mano che faceva progressi, Licklider cominciò a trovarsi letteralmente sommerso da una mole imponente di dati, finché un giorno non decise di riflettere sul modo in cui gli scienziati utilizzano il loro tempo. Decise di fare un esperimento su sé stesso. Durante una comune giornata lavorativa annotò le proprie attività e il tempo che aveva impiegato a portarle a termine. Scoprì qualcosa che fu per lui una scossa, divenuta pian piano convinzione, che un nuovo modo di lavorare e un nuovo modo di pensare poteva e doveva essere realizzato. Circa l’85% del suo “thinking time” o almeno quello che per lui avrebbe dovuto essere tempo dedicato a “riflessione”, in realtà era utilizzato per mettere se stesso nella condizione di pensare, per prendere decisioni, per imparare qualcosa che aveva bisogno di sapere. Much more time went into finding or obtaining information than into digesting it (Licklider) 41 Per molti dei lavori ripetitivi che svolgeva quotidianamente (e che svolge qualsiasi scienziato-ricercatore) si accorse, o meglio intuì, un possibile scenario in cui le macchine elaboratrici di dati (appositamente ri-progettate) avrebbero potuto assumerne l’incarico, lasciando così all’uomo il potere di sfruttare al meglio le potenzialità del suo intelletto. Anche se al momento della sua “visione” (dettata dalla volontà di recuperare il “thinking time” sprecato per compiti delegabili alle macchine) nessun computer disponibile poteva essere utilizzato per compiti di questo tipo. Aumentavano di potenza, ma non di intelligenza utile alle necessità di Licklider (così come per quelle di Engelbart). Ad ogni modo aveva comunque capito quale sarebbe stato il tema centrale dello sviluppo tecnologico futuro: gli esseri umani e i computer avrebbero lavorato assieme in modi nuovi, occorreva solo concepire il tipo appropriato di interfaccia e tecnologia. Ricerche avanzate in questo campo incominciarono a svilupparsi capillarmente nei vari centri universitari di tutti gli Stati Uniti, ma la gran parte degli sforzi sembrava essere indirizzata verso gli sviluppi sull’intelligenza artificiale. Al MIT, per esempio, i diretti “discendenti” degli approcci teorici di Alan Turing erano al lavoro per consegnare al mondo (anche se nessuno sapeva quanto tempo ci sarebbe voluto) una tecnologia informatica che un giorno avrebbe potuto sostituire gli esseri umani nella loro qualità principale, quella che la contraddistingue più di tutte: quella di essere un animale pensante. Licklider invece intravide un’altra possibilità: anziché macchine capaci di sostituirsi all’uomo, suggerisce un accordo cooperativo tra il wetware umano e l’hardware e il software dei computer, chiamando questa partnership simbiosi uomo-computer. Nel 1960 pubblica “Man-Computer Symbiosis” in cui espone chiaramente quelli che saranno gli intenti della sua ricerca, iniziata già a partire dal 1957 con la sua visione, e ponendo come obiettivo a lungo termine appunto la simbiosi tra l’uomo e i computer. 42 Secondo lo scienziato americano, la cooperazione tra l’intelletto-capacità umane e le componenti elettroniche dovranno consentire in primis di facilitare l’esternazione dei pensieri così come ora consentono la risoluzione dei problemi formulati, e secondariamente di avere un maggiore controllo decisionale in merito a situazioni complesse senza la dipendenza da programmi predeterminati. Si tratta di un concetto biologico più che tecnico. La simbiosi dei due “organismi” diversi tra loro (computer e uomo) si ottiene tramite un'intima collaborazione, finalizzata alla costruzione di conoscenza così come avviene in natura nelle società simbiotiche (Blastophaga grossorum e albero di fico). “living together in intimate association, or even close union, of two dissimilar organisms” (“ManComputer Symbiosis” Joseph Licklider, 1960) Tra non molti anni, secondo le speranze di Licklider, i cervelli umani ed i calcolatori saranno associati molto strettamente tra loro e il sodalizio che ne risulterà avrà capacità intellettuali che nessun essere umano ha mai avuto, elaborerà dati in un modo a cui nessuna delle macchine per la manipolazione delle informazione che attualmente conosciamo riesce ad avvicinarsi. I computer di prima generazione (come abbiamo visto) erano progettati per risolvere problemi pre-formulati e processare dati tramite procedure predeterminate. Ad ogni imprevisto o risultato inatteso, l’intero processo si fermava finché non veniva sviluppata l’estensione necessaria per risolvere le complicazioni riscontrate nella risoluzione del problema principale. Una collaborazione di questo tipo può essere considerata tutt’altro che simbiotica. Il cervello umano deve pre-disporre un programma specifico ad ogni necessità, sottoporlo alla macchina assieme ai dati utili ed attendere che il computer, una volta terminato il processo, ne restituisca il risultato. Tuttavia il requisito della pre-formulazione per la maggior parte dei problemi che l’uomo deve affrontare (in ambiti di ricerca scientifico-tecnologico) non può essere considerato l’approccio più corretto in quanto le formulazioni, i dati e le 43 variabili da includere nel sistema non sono per nulla semplici da codificare,in quanto richiedono sforzi eccessivi e spesso sono frutto di frustrazione. In un contesto simile il rischio di imbattersi in errori inattesi durante l’esecuzione dei programmi aumenta esponenzialmente in base alla dimensione (in termini di difficoltà) del problema stesso. Molto spesso la domanda "Qual è la risposta (al problema)? " diventa "Qual è la domanda?". L’obiettivo della simbiosi uomo-computer è quello di portare le macchine ad essere efficaci anche nella formulazione di problemi, non solo nel fornire risposte. Il computer che si immagina Licklider deve essere necessariamente diverso dal mainframe orientato al controllo, al calcolo e indirizzato a sostituire l’uomo attraverso una sempre più crescente potenza di elaborazione e intelligenza artificiale. Così come il gregario di questi mezzi (l’operatore) deve essere diverso sia dal tecnico analista programmatore che manipola linguaggi esoterici, sia dall’utente che interagisce con la macchina attraverso i vincoli imposti da procedure rigidamente definiti (rituale). Per avvicinare l’uomo e la macchina alla simbiosi occorre un cambiamento che sia determinante, sia nei mezzi che nei modi di interagire con essi. Serve una computer in grado di facilitare l’emergere di un nuovo pensiero, che sia un aiuto costante per la creazione di nuova conoscenza, poiché il “controllo delle situazioni complesse”, come abbiamo visto, non può avvenire tramite programmi e procedure risolutive pre-impostate ma deve attuarsi tramite la possibilità di prendere decisioni, costruire strategie e valutare ipotesi in tempo reale. To enable men and computers to cooperate in making decisions and controlling complex situations without inflexible dependence on predetermined programs. (“Man-Computer Symbiosis” Joseph Licklider, 1960) Come in tutti i sistemi simbiotici esistenti in natura, Licklider crede che anche in quello “artificiale” uomo-computer esistano i presupposti affinché il potenziale di ognuna delle due componenti sia valore aggiunto per entrambe le parti. Gli 44 uomini sono rumorosi narrow-band device28 , ma il loro sistema nervoso è costituito da numerosi canali che lavorano in parallelo e sono contemporaneamente sempre attivi. Diversamente i computer sono molto più veloci e precisi nell’elaborazione numerica, anche se “costretti” a svolgere solo poche operazioni per ogni dato momento. Gli uomini sono “flessibili” in grado di ri-programmarsi sulla base di nuove informazioni ricevute mentre i computer sono sono vincolati a svolgere funzioni pre-programmate da qualcun altro. E ancora: gli uomini parlano lingue ridondanti organizzate coerentemente intorno agli oggetti e alle azioni impiegando solo pochi elementi, viceversa i computer non utilizzano un linguaggio ridondante (fatto di due simboli 0 e 1). Computing machines can do readily, well, and rapidly many things that are difficult or impossible for man, and men can do readily and well, though not rapidly, many things that are difficult or impossible for computers. That suggests that a symbiotic cooperation, if successful in integrating the positive characteristics of men and computers, would be of great value. ("ManComputer Symbiosis" J.C.R. Licklider, 1960) La speranza di Licklider è quella di creare un sistema in cui i cervelli umani e i computer possano coesistere assieme in un legame, la cui risultante potrà pensare come nessun cervello umano abbia mai pensato e processare informazioni in modo mai fatto da nessun computer. 2.4 La dimostrazione dell’esistenza dei sogni di Engelbart e Licklider All’interno delle “visioni” pionieristiche di Engelbart e Licklider si poteva osservare il futuro. Entrambi sapevano che non sarebbe bastato progettare e teorizzare modi nuovi per utilizzare i computer, ma in qualche modo avrebbero dovuto anche realizzarli, dare una dimostrazione inequivocabile dell’esistenza dei 28 Dispositivi a banda stretta 45 loro sogni e trascinare, assieme ad altri “illuminati” tecnologici, il mondo verso il nuovo mondo. Nel 1957, dopo aver cercato senza successo di far conoscere la propria idea di computer, Engelbart trova lavoro presso lo Stanford Research Institute in qualità di “semplice” ricercatore. Questo gli permette di mettere a punto un modo per far capire alla gente di cosa stava parlando nella sua “visione”. Dedica gran parte del suo tempo libero ad elaborare formalmente la struttura concettuale di cui aveva bisogno (quello che poi diventerà “Augmenting Human Intellect”). Nello stesso periodo Licklider, affermato professore-ricercatore al Massachussetts Institute of tecnology, incominciava ad intuire qualcosa circa la possibilità di delegare parte dei lavori da scienziato alle macchine. Engelbart e Licklider non si conoscevano ancora, ma lentamente i loro percorsi incominciarono ad avvicinarsi. Per farli convergere fu necessario un evento avvenuto dall’altra parte del mondo. Una "causa scatenante" capace di aprire le menti di molti scienziati e ricercatori (all'epoca ben più importanti ed influenti di Doug e Lick) dallo stallo culturale e tecnologico che si insinuò a decorrere dalla fine della Seconda Guerra Mondiale. Non è che dal 1945 la tecnologia si fosse fermata, anzi tutt'altro, accelerò notevolmente ma sempre verso un'unica direzione: potenziare sempre più i computer affinché elaborino sempre più informazioni e più velocemente possibile. Ad eccezione di pochi isolati casi, il computer, o meglio il suo scopo, era sempre quello ereditato dagli anni '40. Engelbart e Licklider sono i simboli di quei "isolati casi" che negli anni '60 avrebbero reso possibile la nascita del computer per come lo conosciamo noi oggi. Gli occhi di tutta l’umanità in questo (ennesimo) delicato momento storico carico di tensioni, pronte a sfociare in una nuova guerra, è rivolto principalmente in direzione delle due super-potenze artefici di questo status: da una parte gli Stati Uniti e dall’altra parte la Russia. Siamo in piena Guerra Fredda e la corsa agli armamenti, oltre ad aver pericolosamente “arricchito” le due parti di testate nucleari, ha anche incentivato notevolmente il progresso tecnologico-scientifico. 46 Tuttavia il governo americano in quegli anni stava incontrando molte difficoltà nel tenere il passo tecnologico-militare dell’Unione Sovietica e il lancio dello Sputnik, il primo satellite artificiale in orbita attorno alla Terra (1957), ne fu la prova indiscutibile agli occhi dell’intero pianeta. I Russi erano ufficialmente in grado di lanciare oggetti dalle dimensioni di una bomba in qualsiasi punto del mondo e anche oltre. Il know-how29 americano improvvisamente non era quello più avanzato. Serviva una scossa e serviva subito. Il lancio dello Sputnik fu la "causa scatenante". A poco tempo di distanza dal lancio del razzo sovietico, il governo americano creò un dipartimento finalizzato ad incentivare lo sviluppo di nuove tecnologie. Nasce l’Advanced Research Project Agency (ARPA)30. L’ARPA aveva il mandato di “scovare” e finanziare direttamente le idee più innovative, originali, "folli" e rivoluzionarie che potevano aiutare gli Stati Uniti a recuperare credibilità e superiorità tecnologica nei confronti dei rivali russi. Engelbart e Licklider avevano esattamente il tipo di idee di cui l'America aveva bisogno, che forse il mondo aveva bisogno e che l'ARPA stava cercando. Alcune delle menti più brillanti del MIT vengono “chiamate alle armi” della battaglia tecnologica in atto per progettare e costruire il SAGE (Semi-Automatic Ground Envirorment), un sistema di difesa radar computerizzato segretissimo che avrebbe dovuto intercettare eventuali minacce russe. Licklider era tra gli arruolati al progetto e il suo incarico era quello di occuparsi degli aspetti “fattori umani”. Al SAGE disponevano sia di “cervelli elettronici” grandi (immensi a dire la verità, i più grandi mai costruiti dall’uomo) e potenti che di menti umane geniali, oltre ad aver accesso a risorse finanziarie praticamente senza limiti. Erano le condizioni ottimali affinché le idee che da tempo sia Engelbart che Licklider predicavano, potessero essere prese in considerazione nell’ambiente informatico. 29 Termine inglese che significa letteralmente "sapere come",è utilizzato per identificare le conoscenze e le abilità operative necessarie per svolgere una specifica attività lavorativa. 30 "Agenzia per i progetti di ricerca avanzata per la difesa". È un'agenzia governativa del Dipartimento della Difesa degli Stati Uniti, incaricata dello sviluppo di nuove tecnologie per uso militare. 47 Ben presto l’idea di collegare dispositivi video ai computer divenne anche fattore di primaria necessità, data l’immensa mole di informazioni provenienti dalla rete distribuita di radar del SAGE, che dovevano essere costantemente monitorate e riconosciute. Il fattore “rapidità” assumeva così una doppia importanza: da un lato occorreva che le informazioni venissero elaborate real time (utilizzando super computer adatti allo scopo, Whirlwind31 e AN/FSQ-732) e dall’altro era necessario visualizzarle istantaneamente su display grafici in modo tale da facilitare il più possibile scelte decisionali (dati elaborati o raffigurati lentamente non potevano essere certo di aiuto in un contesto di difesa della nazione dalle minacce di missili a testata nucleare). Serviva velocità di calcolo e di rappresentazione. Gli operatori del SAGE furono i primi ad osservare graficamente i dati provenienti dal computer. Licklider grazie al suo incarico al SAGE conosceva seppur in modo approssimativo gli stadi di avanzamento del progetto, sapeva che da lì a poco qualcosa di grande poteva accadere. Sentiva che la sua “visione” poteva prendere forma. Licklider parlò così delle sue idee a Jack Ruina (1924), professore di ingegneria elettrica nonchè il direttore dell’ARPA di quel periodo, e lo convinse che queste innovazioni potevano essere il futuro, non solo in ambito militare, ma anche per la vita di tutti i giorni. Jack Ruina gli credette. Nell’ottobre del 1962 Licklider divenne il direttore dell’Information Processing Tecnique Office (IPTO), il dipartimento voluto da Jack Ruina per approfondire il rapporto tra tecnologie sperimentali (come quelle del SAGE), strumenti e metodi di rappresentazione ed elaborazione dati e le loro possibilità di sviluppo in campo non militare. Licklider oltre ad aver budget e autorizzazione a sviluppare queste nuove tecnologie dell’elaborazione grafica di informazioni, attirò a sé molti dei programmatori e giovani appassionati del MIT, dell’Università della California, 31 Sviluppato nel Massachusetts nel 1947 e divenuto operativo ad aprile del 1951, è il primo computer in grado di operare in tempo reale. 32 48 Modello di supercomputer sviluppato alla fine degli anni '50. della Rand Corporation, dell’Università dello Utha e dei più affermati gruppi di ricerca degli Stati Uniti. Aveva mosso l’interesse collettivo verso un progetto di futuro che ormai in molti iniziarono a condividere ed ammirare. Tra i tanti “convertiti” alla visione di Licklider ci fu un certo Robert William Taylor (1932). Bob Taylor in quel periodo era un giovane direttore di ricerca della NASA che stava sostenendo progetti scientifici di un certo rilievo storico e culturale (si occupava del programma Apollo33, che di lì a poco avrebbe mandato, e fatto ritornare vivi, un equipaggio umano). Come Licklider aveva interessi in psicoacustica (argomento del suo progetto di laurea) e condivideva l’approccio alle nuove tecnologie esplicato in Man-Computer Symbiosis del 1960. Più o meno nello stesso periodo, Taylor ebbe modo di incontrare anche Engelbart nel suo laboratorio allo Stanford Research Institute, ed entusiasmato dal futuro che riusciva ad immaginare e a far immaginare, decise di finanziarne direttamente le ricerche teoriche, le stesse che saranno presenti in Augmenting Human Intellect del 1962. Le strade di Licklider e di Engelbart confluirono definitivamente nel 1964 grazie all’aiuto di Taylor, che raccomandò a Licklider Engelbart il suo team di ricerca dell'SRI. Licklider aveva gli strumenti, sopratutto economici, per sviluppare nuove idee, Engelbart aveva le idee, i progetti giusti e un team di ricerca avanzato. Un gruppo di finanziatori dell’ARPA si recò allo Stanford Research Institute e promise ad Engelbart attrezzature informatiche di ultima generazione e fondi (1 milione di dollari all’anno) per creare gli amplificatori dell’intelletto che aveva concepito nella sua “visione” e descritto nel suo testo pubblicato circa 2 anni prima. Finalmente Engelbart aveva tutti gli elementi necessari a realizzare ciò che aveva immaginato nel lontano 1950: aveva i progetti, una ricerca lunga un decennio e adesso anche i mezzi tecnologici ed economici. I piani di Engelbart erano chiari e semplici. 33 Programma americano spaziale che portò allo sbarco dei primi uomini sulla Luna. 49 Il primo passo fu quello di formare l’Augmentation Research Center (ARC), un laboratorio concepito per spingere la tecnologia verso nuovi domini: “augmentation” (potenziamento) in contrapposizione ad “automation” (automazione), cioè potenziare l’intelletto umano anziché cercare di generare macchine sempre più potenti e distanti dall’uomo. Già a partire dal nome del suo laboratorio, Engelbart fa capire quanto vuole distanziarsi dalla ricerca scientifico-tecnologica "ortodossa", quella elitaria e mondo direzionale che aveva dominato la scena per molti anni. All'ARC si realizzano, o meglio si cerca di realizzare (le premesse del successo c'erano tutte), macchine per pensare e non computer semi-automatici calcolatori. Il gruppo di ricerca dell’ARC aveva il compito primario di realizzare gli strumenti informatici di base, necessari allo sviluppo di tecnologie più complesse ed avanzate: dall’hardware di input e di output fino al software di comunicazione e sistemi grafici mai pensati prima. Andava creato tutto. Sia il progetto Whirlwind che il SAGE avevano dimostrato la fattibilità dell’idea di utilizzare il tubo catodico (CRT) per rappresentare graficamente le informazioni elaborate dai computer. L’impatto di queste innovazioni, create per la prima volta nei centri di ricerca militari affini al progetto ARPA, attirò a se nuovi possibili sviluppi nel campo dei rapporti tra l’uomo e i computer, ben lontani dall’elettronica. I pionieri informatici che avevano reso possibile tecnicamente l’unione tra schermi e computer, incominciarono a rendersi conto che i loro studi, parallelamente alla ricerca per migliorare le tecnologie dei display, dovevano concentrarsi in particolare sulla percezione umana. Avevano bisogno di comprendere meglio come l’essere umano interagisse con il mondo esterno e come, da esso, ne è influenzato per realizzare computer sempre più human brainfriendly. I ricercatori del Lincoln Laboratory del MIT ed altri vicini all’ARPA, già a partire dai primi anni ’60, avviarono studi dettagliati sulle modalità di 50 rappresentazione grafica nel sistema monitor-computer: in particolare si concentrarono nel sviluppare un rapporto funzionale tra pixel e bit. Ivan Edwards Sutherland (1938), uno dei dottorandi del Lincoln Laboratory, realizzò Sketchpad (1964), un software che in un sol colpo aveva abbattuto tutti gli ostacoli fino a quel momento riscontrati nei vari tentativi di sviluppare modalità di interazione e rappresentazioni di dati su schermi, e segnò la nascita della computer graphics e delle interfacce grafiche. Fig. 8 - Ivan Sutherland in alcune delle sue dimostrazioni delle funzionalità di Sketchpad Sketchpad era la risposta a ciò che Licklider ed Engelbart stavano cercando. Permetteva agli utenti, tramite un dispositivo ottico simile ad una penna, di creare, modificare, duplicare, salvare, combinare immagini direttamente su uno schermo televisivo collegato ad un computer. In poche parole si poteva disegnare forme, modelli, ambienti tridimensionali attraverso gestualità tipiche del disegno. Era qualcosa di rivoluzionario nella sua semplicità. Ogni azione dell’utente poteva essere assimilata e memorizzata dal computer come un qualsiasi altro dato e contemporaneamente generare in tempo reale un cambiamento sullo schermo. Sketchpad era un nuovo linguaggio, una simulazione che permetteva ai computer e agli esseri umani di comunicare direttamente: cambiando qualcosa sullo schermo cambiava anche qualcosa all’interno della memoria del computer, non si 51 trattava ancora di una vera e propria bit-map, ma Sutherland aveva intuito il modo più efficace per far funzionare computer relativamente poco potenti come quello del Lincoln Laboratory con il display a tubo catodico. Aveva fatto qualcosa di incredibile (Sketchpad) tanto da meritarsi l'appellativo di programma più importante della storia. Grazie a Sketchpad chiunque poteva vedere che i computer potevano essere utilizzati anche per scopi ben diversi dalla semplice elaborazione dati. Vedere Sketchpad all’opera, voleva dire convincersene fortemente. Si poteva disegnare un’immagine sullo schermo con la penna ottica - e poi riportarla nella memoria del computer. In questo modo infatti si potevano salvare molte immagini. [...] C’erano già stati schermi grafici e penne ottiche nell’esercito, ma Sketchpad era storico nella sua semplicità - una semplicità, occorre aggiungere, che era stata deliberatamente costruita da un intelletto capace -e nel fatto che non rendeva necessaria nessuna competenza specifica [...] Era, per farla breve, un programma semplice che mostrava come potrebbe essere semplice il lavoro dell’uomo se ci fosse un computer tale da essere veramente d’aiuto. ("The Home Computer Revolution" Ted Nelson, 1977) Il Fall Joit Computer Conference del 9 dicembre del 1968 e più in particolare la sessione denominata “A research center for Augmentig Human Intellect”, erano il luogo e il momento ideale per osservare il futuro. Engelbart e il suo ARC erano pronti a presentare al mondo le innovazioni che avrebbero cambiato la storia dei computer. Venne ricordata come “The mother of all demos”. La dimostrazione che Engelbart compie del suo sistema NLS (oN Line System) lascia tutti senza fiato. Vennero introdotte features come: il mouse, la video conferenza, l’ipertesto, il software per l’elaborazione di testi e il concetto di collaborazione in tempo reale a distanza. Praticamente stavano dimostrando il futuro. Improvvisamente, agli occhi dei 1000 professionisti del settore presenti fisicamente alla conferenza, qualsiasi altro computer sembrò obsoleto. Non poteva essere altrimenti, guardare Engelbart che si muoveva all'interno dei dati, li organizzava, li condivideva, li memorizzava, li rielaborava, in poche parole che 52 utilizzava il computer in un modo mai visto prima, doveva essere (per ritornare alla metafora biblica) un pó come osservare Mosè attraversare il Mar Rosso. Al termine della "madre di tutte le demo", l'esistenza dei sogni di Engelbart e Licklider non doveva essere più dimostrata, divenne palese a tutti. Il dispositivo capace di aumentare l'intelletto umano e di avere con esso un rapporto simbiotico (che in qualche modo Bush aveva ipotizzato già nel 1945), in cui contribuirono a crearlo altre menti geniali sia attivamente (Sutherland) che passivamente, sostenendo economicamente le ricerche e i progetti (Taylor), divenne il punto di arrivo di una generazione, ma anche quello di partenza per altre, pronte ad immaginare nuovi mondi. Fig. 9 - Depliant informativo per la sessione di demo (The mother of all demos) del 9 dicembre del 1968 di Douglas Engelbart, 3. La Rete nata dalle reti Fin dai primi anni ’60 con la nascita dell’ARPA, si iniziò già a creare una rete. Una rete fatta di intelligenze (università, centri di ricerca, laboratori, aziende di comunicazione e informatiche) geograficamente distribuite in tutti gli Stati Uniti il cui obiettivo era quello di sperimentare nuove tecnologie, nuovi modi di utilizzare quelle già esistenti ed incentivare in particolare la ricerca sui computer e sugli strumenti di comunicazione (prevalentemente in ambito militare). Queste 53 intelligenze avevano il compito di progettare le tecnologie di base che avrebbero permesso il progredire di altre ben più sofisticate. In un contesto di questo tipo, lo scambio continuo di informazioni da una parte all’altra della “rete” di ricercatori e scienziati è senza dubbio uno degli aspetti di maggiore importanza. Le normali linee telefoniche, le pubblicazioni di ricerche, le visite in loco, erano tutti collegamenti obsoleti, lenti e poco produttivi per gli obiettivi che la stessa ARPA voleva raggiungere in tempi brevi. Ben presto quindi, la necessità di collegare attivamente i nodi della “rete” tramite nuovi mezzi più veloci e diretti, fu determinante per lo sviluppo di quella che sarà conosciuta come ARPANET (l’antenata della moderna e frenetica Internet). [...] è tempo di cominciare a pensare ad una nuova e non ancora esistente rete pubblica, un impianto di comunicazione [...] progettato specificatamente per la trasmissione di dati digitali tra un vasto insieme di utenti. ("On distributed communications networks", Paul Baran, 1964) 3.1 La commutazione di pacchetto di Paul Baran e Leonard Kleinrock Alla base di una rete di comunicazione devono esserci procedure ben precise che ne descrivono i comportamenti. Nel 1960 all’interno della RAND Corporation (uno dei nodi dell’ARPA), grazie ad una brillante intuizione di Paul Baran 34 (1926-2011), hanno inizio le prime ricerche sulle modalità di invio e ricezione di informazioni alfa-numeriche tramite sistemi computerizzati. Basandosi sul funzionamento delle complesse reti neuronali che compongono il cervello umano, Baran riesce a creare un modello valido denominato in seguito rete distribuita. Tale modello si basa essenzialmente sulla ridondanza e molteplicità delle interconnessioni del sistema, dove per ogni singolo nodo esistono diverse connessioni verso altri nodi e le informazioni per raggiungerne uno specifico hanno diverse possibili strade da percorrere. Il numero delle “vie” percorribili aumenta con l’aumentare delle dimensioni della rete. Un sistema di questo tipo, 34 Ingegnere polacco naturalizzato (acquisito cittadinanza) statunitense, considerato uno dei primi inventori della commutazione a pacchetto. 54 così come il cervello umano, riesce a “sopravvivere” anche se alcuni nodi sono danneggiati. Un’altra brillante idea suggerita da Baran e ripresa successivamente da Leonard Kleinrock 35 (1934) e Donald Watts Davies 36 (1924-2000) , è il concetto di commutazione a pacchetto. Baran suggerisce infatti di: suddividere le comunicazioni in entità elementari di lunghezza specifica (pacchetti di dati), trasmetterle in seguito assieme alle informazioni necessarie sulla composizione delle informazioni ed instradarle individualmente e in modo indipendente (tramite percorsi e tempi differenti), per essere successivamente ricomposte nel punto di destinazione. Questo tipo di comportamento, a differenza di quello a trasmissione continua, consente da un lato di limitare perdite di informazioni (se un pacchetto non arriva a destinazione o arriva danneggiato o corrotto, il sistema provvede a inviare nuovamente la parte mancante) e dall’altro di garantire una maggiore velocità di comunicazione in quanto ogni pacchetto tenderà sempre a seguire il percorso (momento per momento) meno saturo. Le idee di Baran inizialmente non trovarono riscontro presso la comunità scientifica dell’ARPA, salvo poi essere riconsiderate grazie ai successivi esperimenti e ricerche di Kleinrock e Davies. Basically, what I did for my PhD research in 1961-1962 was to establish a mathematical theory of packet networks [...] (L. Kleinrock) La commutazione a pacchetti e il concetto di rete distribuita erano le fondamenta su cui la futura Rete avrebbe dovuto poggiare. 35 Informatico statunitense, noto per essere stato il primo a stabilire la comunicazione tra computer nell'ottobre del 1969. 36 Informatico gallese, ritenuto uno dei primi inventori della commutazione a pacchetto. 55 3.2 Il time-sharing e l’Intergalactic Network Con l’istituzione all’interno dell’ARPA dell’IPTO nel 1962, grazie soprattutto alle idee rivoluzionarie e la lungimiranza di Licklider, ci fu uno sviluppo tecnologico senza precedenti nella storia: da un lato si alimentarono enormemente le ricerche informatiche sulla costruzione di computer innovativi (come abbiamo visto nel precedente paragrafo), ben diversi da quelli comunemente in uso in quel periodo, e dall’altro venne incentivata notevolmente la creazione di nuove modalità di comunicazione. Si sostiene erroneamente che tali progressi fossero incentivati soprattutto dalle necessità di una risposta alla minaccia di interruzione delle comunicazioni in caso di guerra termonucleare. In realtà Licklider venne scelto per dirigere l’IPTO da Jack Ruina, appositamente per le sue concezioni di computer come strumento simbiotico al servizio dell’uomo e delle attività di comunicazione. La scelta di Ruina indirettamente ha condizionato l’evoluzione di ciò che di lì a poco diverrà ARPANET. Il direttore dell’ARPA sapeva che scegliendo Licklider, quest’ultimo avrebbe condotto a sé, e alle sue idee, studenti universitari, appassionati di tecnologie, programmatori indipendenti, che poco avevano a che fare con ambienti militari. [...] ARPAnet non nacque per assicurare le comunicazioni militari in caso di guerra nucleare questa è un'impressione sbagliata piuttosto comune - ma piuttosto per collegare computer e ricercatori delle università, assistendoli nel condurre ricerche comuni sui computer e sulle reti di comunicazione, e per usare questi computer nelle ricerche di base. [...]eravamo consapevoli delle applicazioni potenziali di ARPAnet per la sicurezza nazionale, ma gli sforzi per usare tale tecnologia a questo fine vennero solo molto dopo. (Intervista rilasciata a Scientific American di Charles Herzfeld37, 1995) Nel 1963 Licklider viene messo a capo dell’Intergalactic Computer Network (ICN), un gruppo di lavoro specifico all’interno dell’IPTO che aveva il compito di 37 56 Nato nel 1925, conosciuto come direttore dell'ARPA che autorizzò la creazione di Arpanet. ragionare e cercare soluzioni adeguate sui problemi che affliggevano i centri di ricerca della rete ARPA. A questo punto è doveroso fare una digressione su uno dei concetti fondamentali che hanno permesso lo sviluppo della Rete. Come abbiamo avuto modo di analizzare in precedenza (paragrafo 2), i computer, sebbene in questi anni abbiano incrementato notevolmente le loro capacità di calcolo e stiano diventando sempre più economici, risultavano essere comunque troppo costosi ed impegnativi per essere dedicati ad una singola persona. Da tempo si stavano cercando soluzioni per velocizzare i processi di calcolo e ridurre i “tempi morti” (di attesa risultati dei calcoli), ma date le potenzialità tecniche e le numerose difficoltà legate allo sviluppo di una gestione multi utente di questo tipo di elaboratori, i computer continuavano comunque ad essere dedicati all’esecuzione di un solo programma alla volta. Nel 1957 l'informatico Bob Berner (1920-2004) introdusse per la prima volta il concetto di time-sharing38 in una pubblicazione su “Automatic Control Magazine”, di cui il primo progetto ufficiale venne avviato da John McCarthy39 (1927-2004), alla fine dello stesso anno. In quel periodo McCarthy ha avuto modo di osservare molto da vicino lo sviluppo del progetto SAGE, che oltre ad essere uno dei primi sistemi ad utilizzare display grafici con interfaccia utente point-and-click 40, era dotato di supporto multiutente tramite l’utilizzo del time-sharing. Si trattava comunque di un computer special purpouse, realizzato cioè per compiti specifici ,che non permetteva lo sviluppo interattivo di programmi. Da questa esperienza iniziò a concepire uno schema per lo sviluppo di un sistema time-sharing general purpouse, ossia dedicato non solo ad un singolo possibile utilizzo, descritto 38 Termine inglese che significa "partizione di tempo" (sin. multitasking) ed è il modello di elaborazione per sistemi operativi, sviluppato della tecnica di multiprogrammazione, che permette l'esecuzione ciclica di più processi da parte della CPU. 39 Informatico statunitense, conosciuto per essere stato l'inventore dell'intelligenza artificiale, ossia l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana, nel 1955. 40 Interfaccia adoperata per facilitare l’utente nell’analisi dei dati con le tecniche di analisi interattive, basate sul semplice uso del mouse, che richiedono una minima istruzione. 57 accuratamente in un memorandum del 1959 dal titolo “A Time Sharing Operator Program for our Projected IBM 709”. Questo tipo di sistema fu l’essenziale precursore che ha permesso lo sviluppo del Computer Networking. Licklider assimilò il concetto di time-sharing per sviluppare un’idea altrettanto importante per quanto riguarda il futuro dell’interazione uomo-computer. Non pensò (almeno per il momento) di dotare ogni individuo di un computer dedicato (costi troppo elevati), pensava piuttosto a sistemi centralizzati, cui tutti potevano accedere attraverso un terminale remoto. Questo tipo di applicazione avrebbe consentito, oltre un utilizzo più intelligente delle risorse (in termini di uomini e di macchine) distribuite nei vari centri affiliati al progetto ARPA, anche comunicazione ed interscambio di informazioni. Il concetto di time-sharing, dove una grossa macchina divideva le sue capacità di calcolo per un certo numero di utenti ad intervalli di operazioni regolari, è l’idea chiave alla base dei programmi scientifici dell’IPTO di Licklider. L’obiettivo principale ben presto divenne quello di costruire una macchina multi-user che fosse in grado di eseguire programmi software in parallelo. Licklider riteneva che nel giro di pochi anni il sogno di creare una macchina dalle potenzialità spiccatamente interattive e in grado di far comunicare le persone a distanza e in un modo del tutto differente dal telefono, si sarebbe concretizzato. Inoltre notò anche che la rete intergalattica che di lì a poco si sarebbe sviluppata, avrebbe potuto affermarsi solo se tali macchine interattive sarebbero state alla portata di tutti. Twenty years from now, some form of keyboard operation will doubtless be taught in kindergarten, and forty years from now, keyboards may be as universal as pencils, but at present good typists are few. ("One-Line Man Computer Communication", Licklider, Welden E. Clerck, August 1962) Nel 1963 Licklider scrive una serie di appunti interni al progetto ARPA dal titolo “Memorandum For Members and Affiliates of the Intergalactic Computer Network” in cui espone profeticamente i concetti, i problemi da risolvere al fine di creare l’Intergalactic Network voluto dall’ARPA e collegare così in una rete gli elaboratori a disposizione nei vari centri. Il periodo di Licklider al comando 58 dell’IPTO (1962-1965) non fu lungo da veder realizzate le sue idee, ma in un certo senso il suo spirito innovativo e rivoluzionario venne tramandato ai suoi successori, Ivan Surtherland e Robert Taylor. 3.3 Arpanet per un milione di dollari Nel 1966 le idee di Licklider sembravano mature per poter essere finalmente portate da una fase progettuale ad una operativa. Bob Taylor incontra Charles Herzfeld (nuovo direttore dell’ARPA) per illustrare i risultati ottenuti con le tecnologie di base (time-sharing, commutazione a pacchetti, etc.) e richiedere i fondi necessari per la messa in opera della rete distribuita. Si dice che siano bastati solo 20 minuti a Taylor per ottenere il milione di dollari di cui l’IPTO aveva bisogno per sviluppare le idee di Licklider sull’Intergalactic Network. Il capo scelto per assumere il comando del progetto ARPAnet fu Larry Roberts che, nei primi mesi del 1967,organizza una serie di incontri con i vari centri e organismi accademici-universitari, al fine di esporre quelli che saranno i nuovi obiettivi e progetti. Molti degli enti coinvolti però si dimostrarono scettici in quanto poco convinti che l’idea di condividere parte delle loro risorse informatiche, già fin troppo scarse, all’interno di una Rete fosse la soluzione migliore per il progresso della tecnologia e della ricerca. Douglas Engelbart, direttore dell’ARC presso lo Stanford Research Institute, decide invece di sostenere tale progetto, convinto come Licklider e Taylor che la Rete sarebbe stato strumento di fondamentale importanza per tutto il genere umano. Prima però bisognava risolvere una serie di problemi legati soprattutto alla compatibilità di linguaggi tra i vari computer esistenti, che spesso ne impedivano la comunicazione. Lo stesso tipo di problematiche suscitate da Licklider qualche anno prima nel "Memorandum For Members and Affiliates of the Intergalactic Computer Network". Per cercare di oltrepassare le difficoltà di compatibilità tra i modelli di computer utilizzati nei vari centri di ricerca, 59 bisognava pensare ad un sistema diverso che esuli dalla volontà di collegare le macchine direttamente tra loro, un contributo molto importante su questo tipo di interazione arrivò grazie all'informatico Wesley Clark (1927). La sua idea, molto semplice ed efficace, consisteva nel creare una sottorete di computer tutti uguali, denominati IMP (Interface Message Processor), e pienamente compatibili tra loro, dedicati esclusivamente alla trasmissione e ricezione dei dati. In questo modo tali macchine avrebbero comunicato tramite lo stesso linguaggio senza riscontrare particolari difficoltà, e ogni nodo (costituito dal mainframe del centro di ricerca) della Rete che si stava progettando, avrebbe dovuto essere istruito per interpretare e dialogare esclusivamente con la sottorete, anziché con tutti gli altri computer della Rete. Le tecnologie per la costruzione della Rete distribuita erano ormai tutte disponibili e ampiamente testate, occorreva passare dalla teoria all’azione. Nel 1969 grazie agli sforzi dell’ARPA ed in particolare dei centri di ricerca affiliati, che avevano testato la commutazione di pacchetti e sviluppato gli IMP necessari alla creazione della sottorete per la comunicazione con i nodi principali, vennero ufficialmente stabilite le prime connessioni. Il 30 agosto L’IMP numero 1, un computer di 12k di memoria il cui codice di sistema necessario al funzionamento occupa circa 800 metri di nastro perforato, viene interfacciato al computer Siggma-7 dell’UCLA (University of California Los Angeles). Il 1° ottobre L’IMP numero 2 raggiunge lo Stanford Reserach Institute a Menlo Park in California ed iniziano le sperimentazioni di invio e ricezione messaggi. Il primo tentativo consisteva nell’invio della parola login, ma giunsero a destinazione solo le lettere “l” e “o” prima di una caduta improvvisa della connessione. Successivamente, solo dopo aver ripristinato il sistema, fu possibile leggere dall’altro lato del collegamento la parola intera. Fu un successo. Nel giro di pochi mesi vennero aggiunti altri importanti nodi e stabilizzate le connessioni. Era ufficialmente nata Arpanet. 60 Sai, Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una busta"41 È bene sottolineare a questo punto la duplice importanza che ha avuto, e che ha tuttora, l’idea della commutazione a pacchetto (elemento cardine che ha permesso la nascita e lo sviluppo della Rete), per il mondo non tecnico: in primo luogo ha permesso la creazione di un sistema comunicativo decentralizzato (senza un controllo centrale), in cui ogni nodo di smistamento sa dove e come fare arrivare le informazioni richieste a destinazione; in secondo luogo, l’idea dei “pacchetti” garantisce la possibilità non solo di trasportare semplici messaggi, ma anche di dislocare tutto ciò che gli uomini sono in grado di percepire e le macchine di elaborare (voci, suoni, video, immagini ecc...). Fattore determinante per l’esplosione della Rete come mezzo di comunicazione universale e multimediale. Parallelamente ai primi esperimenti di time-sharing degli anni '60 nei laboratori affiliati all’ARPA che consentivano a molti individui di interagire direttamente con il computer centrale per mezzo di un punto di accesso (terminale), invece di aspettare il loro turno per presentare i programmi agli operatori informatici, vennero sviluppate anche altri tipi di risorse che diventeranno il cardine della nuova rete. Come suggerisce Howard Rehingold 42 (1947) nel libro "Comunità virtuali", dal momento che si costruisce un sistema Fig. 10 - Illustrazione di Leonard Kleinrock dei nodi della Rete ARPANET nel 1972 di elaborazione che consente a cinquanta-cento programmatori di interagire direttamente e individualmente con 41 Leonard Kleinrock tramite un commento ironico al suo amico Larry Roberts fa notare la somiglianza della rete ad una busta. 42 Critico letterario statunitense noto per aver coniato il termine "comunità virtuali". 61 l’elaboratore principale, si sta automaticamente creando il potenziale per una comunità. Infatti la posta elettronica fu una delle primissime funzionalità che venne implementata assieme al time-sharing. Condividere la potenza di calcolo dell’elaboratore voleva dire anche condividere le conoscenze di ogni singolo operatore al lavoro. La posta elettronica non fu più abbandonata, anzi venne presto trasferita all’interno della neonata Rete per consentire la comunicazione a distanza e immediata tra operatori geograficamente distribuiti. Grazie ad essa infatti era possibile inviare con la stessa facilità un messaggio di poche righe ad un unico destinatario, così come un messaggio di cento pagine ad una o mille persone. I pionieri di ARPANET stavano già sperimentando (probabilmente senza esserne del tutto consapevoli) un nuovo mezzo e nuove modalità di comunicazione: si scambiavano messaggi, file, conoscenze, ma anche battute e semplici chiacchiere tra studenti. Non era solo uno strumento con cui creavano connessioni finalizzate alla ricerca scientifica, era anche un nuovo modo di interfacciarsi con altre persone distanti geograficamente. I privilegiati a far parte di questa Rete di conoscenza stavano sperimentando il linguaggio e gli effetti della comunicazione attraverso i computer. 3.4 “The Computer as a Communication Device” Prima che nel 1969 il prototipo di ARPANET entrasse in funzione, Licklider e Robert Taylor (i padri di questo progetto) scrissero un articolo dal titolo più che mai premonitore di come nel corso degli anni sarebbe cambiato il computer e il suo utilizzo: “The Computer As Communication Device”. Nel giro di pochi anni, gli uomini saranno in grado di comunicare più efficacemente tramite una macchina che in incontri faccia a faccia. ("The Computer As Communication Device" J.C.R. Licklider and Robert W. Taylor, 1968) 62 Secondo Licklider, la possibilità di condividere informazioni all’interno di una Rete e la possibilità di accesso a risorse di calcolo significative nelle mani di utenti esperti, erano le componenti fondamentali per lo sviluppo spontaneo di un nuovo ambiente in grado di stimolare il pensiero e la comunicazione. Dall’interazione tra persone mediata attraverso il computer, sarebbero potute nascere nuove e proficue idee, in cui le risorse condivise all’interno del sistemarete avrebbero ulteriormente facilitato gli individui nella risoluzione di problemi tramite soluzioni creative e funzionali. L’idea espressa nell’articolo si basava sull’osservazione dettagliata del sistema presentato alla "Madre di tutte le demo" da Engelbart nella storica conferenza 1968 (vedi paragrafo 2). Un certo numero di operatori era riunito in una sala appositamente attrezzata con questo innovativo sistema di interazione, impegnato ad osservare grafici e testi prodotti per la riunione, discutendone di volta in volta i loro contenuti. Da questa sessione sperimentale Licklider e Taylor avevano avuto modo di confermare le loro ipotesi iniziali, cioè che al centro del processo di comunicazione c’è sia uno scambio di modelli di informazione pre-esistenti che una creazione continua di nuovi modelli mentali. di sicuro i modelli più numerosi, più sofisticati, sono quelli che risiedono nelle menti degli uomini. ("The Computer As Communication Device" J.C.R. Licklider and Robert W. Taylor, 1968) Questi modelli sono generati all’interno della mente del singolo individuo secondo processi di elaborazione di ciò che si percepisce attraverso i sensi (parole, immagini, suoni), delle proprie esperienze e dei ricordi immagazzinati in memoria. Essi sono di natura strettamente personale e privata, quindi per essere condivisi, percepiti, discussi e assimilati da altri devono essere necessariamente esternati. Il processo di esternazione dei modelli mentali, consente agli individui di concordare e coordinare le azioni e di incrementare conseguentemente la capacità di controllo collettivo sull’ambiente. 63 Il computer di nuova generazione (che Licklider ed Engelbart avevano immaginato e che stavano contribuendo a creare) capace di combinare nuove modalità di rappresentazione delle immagini alle tecnologie di comunicazione, se messo a disposizione di tutti, avrebbe rappresentato lo strumento di collaborazione più potente che sia mai stato inventato. Condividere informazioni, passare da livelli di macro analisi a livelli più dettagliati delle stesse, assemblare e costruire nuovi modelli di pensiero, tagliare ed incollare dati, sono tutte potenzialità concepite dai nuovi mezzi informatici con i quali è possibile costruire forme di comunicazione fluide e dinamiche, completamente differenti a qualsiasi altra forma collaborativa resa possibile con i precedenti ausili tecnologici. Se a questo ci aggiungiamo anche le capacità di collegare tale conoscenza generata dal lavoro di un gruppo, di una comunità locale, di un centro di ricerca o università attorno ad un computer, con altre geograficamente distribuite, otteniamo una crescita esponenziale delle potenzialità dell’intelletto collettivo. [...] Allo stato attuale vi sono forse non più di una dozzina di comunità che operano con computer interattivi multi-accesso. Si tratta di comunità socio-tecniche pionieristiche, e pre diverse ragioni molto più avanti del resto del mondo che ha a che fare con i computer [...] Essere collegati sarà un privilegio o un diritto? Se la possibilità di sfruttare il vantaggio dell’amplificazione dell’intelligenza sarà riservata a un’élite privilegiata, la rete non farà che esasperare le differenze tra le opportunità intellettuali. Se invece l’idea della rete dovesse risultare, come noi speravamo progettandola, un ausilio per l’istruzione, e se tutte le menti vi dovessero reagire positivamente, di certo il beneficio per il genere umano sarà smisurato. ("The Computer As Communication Device" J.C.R. Licklider and Robert W. Taylor, 1968) La rete immaginata da Licklider sconvolge il paradigma della comunicazione tipico dei media, come il telefono e la televisione. Non c’è una più un sistema composto da una sola fonte, un solo canale di trasmissione e un solo ricevente. La comunicazione mediata dal computer nella Rete assume forme più instabili e mutevoli che sono sempre nuove. I partecipanti alle comunità in Rete sono soggetti attivi che costruiscono di volta in volta il proprio mondo di significati e di modelli costantemente 64 rinegoziabili con gli altri, al fine di generare un nuovo significato e nuova comprensione. Una nuova conoscenza. 3.5 Lo Xerox Parc e la nascita di internet Nel 1969 Peter McCullogh,, amministratore delegato della Xerox, proclamò l’intenzione di fare della sua azienda l’architetto delle informazioni per il futuro. Istituì il laboratorio informatico denominato PARC (Palo Alto Research Center). Le aspettative di questo nuovo colosso sulla ricerca informatica di tecnologie e sulla sperimentazione di nuovi device e sistemi di interazione uomomacchina erano elevate, così come l’interesse che suscitava a gran parte del gruppo di innovatori che era impegnato nei progetti dell’ARPA. Le giovani “superstar” della programmazione che avevano reso possibile la nascita di ARPANET, sentivano sulle loro spalle il peso che la guerra del Vietnam stava portando con sé, per molti di loro non era per nulla facile lavorare per il Dipartimento della Difesa. La Xerox chiamò Robert Taylor e quest’ultimo volle con sé Alan Kay43 (1940), con il seguente trasferimento di molti altri personaggi di spicco dell’ARPA al PARC. Confluirono tutti in un ambiente dove il direttore della ricerca condivideva le loro opinioni in merito alla tecnologia informatica e come doveva svilupparsi nell’immediato futuro, avevano a disposizione le migliori strumentazioni dell’epoca e un budget economico molto importante. Molte delle idee che segnarono la prima rivoluzione informatica, quella dell’ARC di Engelbart (dalle macchine calcolatrici al computer come strumento dell’intelletto), passarono al PARC, dove avevano intenzione di portarle ad un livello più elevato, al fine di creare computer sufficientemente potenti, compatti ed economici da poter essere disponibili e utilizzabili da chiunque: Personal computer. 43 Informatico statunitense, conosciuto com l'inventore del linguaggio di programmazione Smalltalk, programmazione orientata agli oggetti. Inoltre ha concepito i laptop, le interfacce grafiche moderne e ha contribuito a creare ethernet ed il modello client-server. 65 Per farlo avevano bisogno che il prezzo delle due principali componenti dei computer (elaboratore e schermo) fossero disponibili a costi decisamente più bassi. Grazie alle nuove tecnologie per la fabbricazione di entrambi gli elementi necessari al team di sviluppo del PARC ci fu un graduale ma costante dimezzamento del prezzo, così come aveva predetto Gordon Moore 44 (1929) che, secondo le loro stime, avrebbe permesso di realizzare l’obiettivo entro sette anni. Progettarono un’interfaccia grafica uomo-computer che si basava sulla tecnologia bit-mapped (simile a quella creata da Sutherland con Sketchpad e che mancava all’ARC) in cui ciascun elemento dell’immagine sullo schermo è rappresentato da un bit specifico nella memoria del computer (la memoria del computer contiene una mappa di bit che corrisponde alla configurazione dei pixel sullo schermo). La comunicazione tra pixel e bit è biunivoca: è possibile agire sul bit del computer e osservare il cambiamento sullo schermo, ed è possibile agire sullo schermo per esempio cliccando tramite il dispositivo di puntamento su un immagine ed osservare il computer reagire. Le idee di Engelbart, successivamente riprese da Ivan Sutherland e da Alan Kay, hanno reso possibile lo sviluppo dell’interfaccia grafica come strumento essenziale dell’interazione uomo-computer. Con Smart-Talk, sviluppato allo Xerox PARC tra il 1968 e il 1972, Alan Kay introduce l’utilizzo di un linguaggio iconico e di una rappresentazione grafica delle funzioni del computer (cartelle, menu, sovrapposizione di finestre ecc...) come principale strumento di interfaccia tra uomo e computer, oggi conosciuta come metafora del desktop. Il desktop di Alan Kay è stato difatti il primo mondo Virtuale in cui l’uomo abbia mai potuto immergersi e navigare. La sensazione di immersione non era data da immagini tridimensionali stereoscopiche fluttuanti che reagivano conseguentemente allo spostamento della testa, ma piuttosto dai processi mentali che avvengono grazie all’utilizzo delle icone come strumento di controllo e comunicazione con il computer. 44 Informatico ed imprenditore statunitense che aveva previsto il dimezzamento del costo della potenza degli elaboratori ogni due anni. 66 Il computer è un medium! L’avevo sempre considerato uno strumento, forse un veicolo [...] Quello che McLuhan voleva dire è che se il computer è un nuovo vero mezzo di comunicazione, allora il suo uso effettivo dovrebbe addirittura cambiare gli schemi di pensiero dell’intera civiltà. (Alan Kay) Nel 1973 il team dello Xerox PARC progettò e costruì per uso interno, come strumento di esplorazione delle nuove tecnologie e progettazione di sistemi sempre più avanzati, il primo Personal Computer della storia: lo Xerox ALTO. s Lo sviluppo di ARPANET continuò ad essere costante fino al 1983 quando si sdoppiò in ARPANET (utilizzata per la ricerca) e MILNET (utilizzata per scopi militari). Entrambe le reti continuavano ad essere geograficamente distribuite, disponevano, tra i vari nodi, di linee di connessione ad alta velocità e ad alta portata di utenza. Sempre nello stesso anno venne realizzata da alcuni programmatori dell’ARPA una nuova versione di Unix (sistema operativo altamente utilizzato in ambienti accademici e universitari) compatibile con i protocolli di comunicazione della Rete (TCP/IP45 ) e distribuito ad un prezzo accessibile. Ben presto ARPANET incominciò ad espandersi di sottoreti locali a temi di discussione specifiche interne agli ambienti accademici ed universitari, diventando sempre più una Rete di reti. Più cresceva e più le persone volevano entrare a far parte di questo network di intelligenze che si scambiano conoscenze, informazioni e dati in ogni parte degli Stati Uniti. A partire dagli anni '80 fu chiamata dapprima ARPA Internet e successivamente solo INTERNET. Il progetto iniziato negli anni '60 dall’IPTO di Licklider divenne nel giro di vent’anni la rete intergalattica che aveva ipotizzato e sognato, i suoi sforzi, così come quelli di tutti i ricercatori, hanno reso possibile la nascita del più potente mezzo di comunicazione e condivisione che l’uomo abbia mai inventato. Il luogo ideale per amplificare l’intelletto. 45 Transfer Control Protocol / Internet Protocol 67 68 69 70 CAPITOLO SECONDO: Socializzare al tempo della “Rete” 4. Comunicazione e condivisione del Sé in Rete L’affermazione di una cultura “digitale” nei principali laboratori Universitari (MIT, SRI ecc..) e militari (ARPA, IPTO etc..), sfociata nei successi con la realizzazione delle macchine per pensare volute da Engelbart, capaci di aumentare l’intelletto umano, ed avvicinarsi sempre più alla visione di simbiosi tra uomo e tecnologie sognata da Licklider, conferì indubbiamente sia maggiore attendibilità alle ricerche sulle innovazioni tecnologiche, che la fiducia necessaria a spingersi oltre, andando cioè sempre più in profondità nell’esplorazione delle possibilità di questi nuovi potentissimi strumenti. Ciò avrebbe richiesto una revisione del modello di cultura tecnologica e comunicativa su cui erano stati conseguiti gran parte dei successi raggiunti. Una volta che il computer aveva raggiunto la soglia necessaria di potenza, velocità e usabilità, poteva superare le barriere comunicative (tempo e spazio) e collaborative tra le persone. Come abbiamo visto nel precedente capitolo, non si trattava di sostituire l’uomo nelle sue attività quotidiane, quanto piuttosto aiutarlo nella gestione e nel superare le limitazioni a cui può incorrere. Tramite l’aiuto del computer quindi sarebbe cambiata la natura stessa delle relazioni tra le persone e conseguentemente tra le persone stesse e il proprio lavoro. Modificando le caratteristiche dell’interazione con il computer, avvicinando cioè sempre più quest’ultime alla natura sociale dell’uomo (da macchina calcolatrice “fredda” a strumento per pensare), si sarebbero amplificate oltre che le potenzialità gestionali delle complesse problematiche dell’umanità (attraverso i nuovi modi di memorizzare le informazioni, di valutazione ecc...) anche quelle comunicative. 71 Licklider, che attivamente contribuì alla realizzazione di internet (o meglio delle tecnologie e teorie che lo hanno reso possibile), fu influenzato nella sua “visione” dalle teorie dell’informazione e della comunicazione pubblicate da Claude Elwood Shannon nel 1948. 4.1 La Teoria dell’informazione e della comunicazione Le fondamenta delle teorie di Shannon, così come le rispettive evoluzioni ed applicazioni che portarono alla nascita della rete, poggiavano sull’osservazione e analisi delle proprietà e caratteristiche tipiche della comunicazione tra le persone, quindi del veicolo principale che la rende possibile: il linguaggio. Poiché i sistemi comunicativi servono soprattutto a mettere in contatto le persone, la loro progettazione richiede lo studio approfondito e la comprensione delle caratteristiche che stanno alla base dello scambio di informazioni e della collaborazione tra esseri umani. Shannon fu uno dei primi a discutere di leggi fisiche sulla comunicazione, partendo da dati dell’osservazione empirica. Il suo obiettivo era quello di trovare un modo per rendere oggettivamente misurabile l’informazione, così da poterla capire, descrivere e manipolare: uno dei principi fondamentali alla base della teoria è infatti l’informazione che può essere trattata come una quantità fisica misurabile. La riflessione di Shannon, oltre che su questo aspetto, si concentrò anche sulle modalità in cui avviene effettivamente il passaggio delle informazioni tra le persone, in particolare su come può un messaggio partire da un dato luogo iniziale e raggiungere, senza subire trasformazioni o interferenze, il luogo di destinazione designato. Altre riflessioni si concentrarono invece su problematiche di natura più concreta, che si erano rivelate di vitale importanza durante la Seconda Guerra Mondiale, come quelle relative alla crittografia e decrittografia, cioè sulla possibilità di estrarre dal rumore i codici che mascheravano i messaggi crittografati. 72 Queste riflessioni lo portarono a definire il concetto di entropia1, o meglio a ridefinirlo secondo un nuovo punto di vista2, strettamente legato alla comunicazione. Shannon osservò che l’incertezza in ogni sistema è dovuta alla mancanza dell'informazione, quindi se prendiamo in considerazione la comunicazione tra due persone, oppure la decifrazione di un messaggio alfanumerico, osserviamo che man mano che diminuisce la casualità delle informazioni, si riduce anche l’incertezza. Il messaggio, o parte di esso, diventa quindi più chiaro e comprensibile ai nostri sensi. E' proprio grazie alla possibilità di eliminare o escludere completamente il rumore dal messaggio, che riusciamo a ricavare informazioni. In conclusione, sintetizzando quanto espresso da Shannon nel documento del 1948 “A Mathematical Theory of Communication”, è possibile affermare che l’informazione è riduzione dell’incertezza. Shannon oltre a queste osservazioni identifica quelli che sono gli elementi di base di un sistema di comunicazione, qualunque esso sia e qualunque sia la tecnologia su cui regge. Questi elementi, generalmente identificabili e descrivibili con facilità, sono: 1. una fonte di informazione, che può essere rappresentata come una persona o una macchina (oggetto), in ogni caso si tratta di un dispositivo di diffusione dell’informazione (messaggio), in grado di trasformarla in un formato adatto ad essere veicolato. É la cosiddetta fase di codifica del messaggio, che avviene mediante precise caratteristiche dettate appunto da chi lo trasmette (fonte); 1 E' un concetto attinto dalla fisica, risalente alla seconda legge della termodinamica, elaborata nel XIX secolo. Secondo questa legge, l’entropia è il grado di casualità che esiste in ogni sistema, e tende ad aumentare per effetto dell’incontro tra molecole, rendendo incerta l’evoluzione del sistema stesso. 2 La probabilità relativa che si verifichi un evento tra tutti quelli possibili (per esempio, che si indovini una lettera dell’alfabeto), dipende dal numero totale di casi nella popolazione degli eventi (le lettere dell’alfabeto) e dalla frequenza dell’evento specificato (numero di domande con risposta si - no necessarie per trovare la risposta corretta). Quindi per una lettera dell’alfabeto, occorre ridurre il valore di incertezza, che in questo caso è pari a 20 (il numero delle lettere dell’alfabeto). Per farlo è sufficiente porre semplici domande a cui si possa rispondere affermativamente o negativamente (si, no), per esempio si potrebbe chiedere se la lettera viene dopo la “L” (lettera che ipoteticamente divide a metà l’alfabeto), e così via fino ad escludere ad ogni domanda i valori possibili riducendo l’incertezza. Nel caso preso in esame l’incertezza potrebbe essere ridotta ad un valore di cinque. Secondo Shannon l’ entropia di un sistema è rappresentata quindi dal logaritmo del numero di possibili combinazioni di stati in quel dato sistema. Il logaritmo rappresenta il numero delle domande per ridurre l’incertezza. 73 2. un canale, ossia semplicemente il mezzo attraverso il quale il messaggio viene inviato; 3. un apparato di ricezione che decodifica il messaggio nel modo più opportuno, cioè in una qualche approssimazione della sua forma originale; 4. una fonte di rumore, interferenza o distorsione, che cambia il messaggio in modo imprevedibile durante la trasmissione, da una fonte ad un ricevente passando per un qualsiasi canale. Nella loro semplicità gli elementi che compongono la teoria di Shannon, offrono un modo per trattare la comunicazione e l’informazione come entità misurabili e quantificabili, esattamente come accade con altre forze fisiche o comunque di sistemi tangibili. Questo tipo di caratterizzazione matematica permette di studiare i molteplici fenomeni che compongono l’universo imprevedibile della comunicazione tra persone o tra macchine, tra cui: la massa di informazione prodotta dalla fonte, la capacità del canale di trattare l’informazione per ogni dato tempo di trasmissione, la quantità media di informazione contenuta in un particolare messaggio. Permette, dunque, di progettare sistemi comunicativi in grado di trasmettere informazioni e messaggi in modo affidabile e sicuro. Joseph Licklider, che in quegli anni era impegnato al MIT nello studio della psicoacustica (lo stesso che qualche anno più tardi “provocò” involontariamente in lui la “visione” di una macchina elaboratrice diversa), rimase folgorato dal concetto d'informazione espresso da Shannon, tanto da renderlo parte integrante della sua ricerca sulla comprensione del funzionamento della mente e del cervello umano. Già durante la Seconda Guerra Mondiale, presso il laboratorio del MIT, studiò la comunicazione per scopi estremamente concreti. I motori dei cacciabombardieri erano rumorosissimi, tanto da generare nella cabina di pilotaggio un livello di rumore tale da ridurre la tenuta psicofisica degli equipaggi e conseguentemente della loro sicurezza. Una delle componenti analizzate fu proprio la comunicazione tra i membri dell’equipaggio. Licklider aveva osservato che in un ambiente particolarmente 74 rumoroso dove la comunicazione tende ad essere minima, in quanto se ne perde gran parte, occorre essere ridondanti nei messaggi che si vogliono esprimere ed è necessario confidare sull’intesa reciproca affinché l’informazione, o meglio parte di essa, possa comunque arrivare a destinazione. Gli esperimenti compiuti in laboratorio hanno dimostrato questa tendenza, ma hanno aggiunto anche un elemento importante: anche in condizioni di intenso rumore, se un messaggio è “atteso” dal destinatario, quindi i suoi canali percettivi sono pre-attivati per il riconoscimento, entro una certa soglia limite di disturbo l’informazione è comunque percepita anche se con maggiore difficoltà ed impegno. Gli esperimenti condotti nel corso degli anni hanno dimostrato che i canali uditivi (il principale apparato di ricezione umano) sono a “capacità limitata”, ossia in condizioni di scarsa qualità dell’ambiente sonoro in cui si agiscono (troppo rumore, troppo distanti, voce bassa ecc...), riescono a tenere traccia, quindi a filtrare, solamente i messaggi che in qualche modo sono “attesi” estrapolandoli dal contesto. Il nostro cervello elabora l’informazione escludendo tutte le altre non attese. L’atto percettivo nella comunicazione tra persone è attivo e selettivo in ognuna delle sue fasi e in ogni suo elemento (fonte, messaggio, canale, ricevente, rumore), non avviene secondo una modalità in cui una “fonte attiva” invia i segnali e una “passiva” li riceve, bensì anche il dispositivo ricevente del messaggio svolge un ruolo attivo, ossia estrae ed elabora l’informazione rilevante dal rumore di fondo. 4.2 La comunicazione mediata dal computer e Identità in rete Sebbene il primo vero e proprio studio metodico sulla comunicazione mediata dal computer (Computer-mediated communication, CMC) si sia sviluppato nel campo della psicologia sociale all’inizio degli anni ’80, alcuni elementi chiave che ne hanno reso possibile lo sviluppo possono essere ricondotti già negli anni '60. Come abbiamo visto in precedenza, il lavoro pionieristico di Engelbart e Licklider ha influenzato gli ambienti affini alle tecnologie informatiche suscitando così 75 l’evoluzione del computer, da semplice strumento di calcolo a manipolatore di simboli, fino ad arrivare a potentissimo mezzo relazionale, quindi di comunicazione. Nel saggio "The computer as communication device" di Licklider e Taylor (che abbiamo analizzato nel paragrafo 3.4) sono già implicati una serie di concetti che saranno di fondamentale importanza per lo sviluppo delle teorie sulla CMC. Ciò che viene descritto nel loro testo, non è un elaboratore tipico, “tradizionale”, era qualcosa di più: era un computer pensato come mezzo di comunicazione, ossia come vero e proprio medium sociale in grado di sviluppare relazioni creative tra gruppi di lavoro, che se svolte attraverso le nascenti reti, avrebbero trasformato definitivamente lo stesso computer in uno spazio di comunicazione. Dopo gli studi di Licklider e Taylor, negli anni '80 grazie soprattutto all’evoluzione e la proliferazione di quelli che furono i primi sistemi computerizzati, l’interesse e lo studio della CMC diventa sempre più di attualità e utile nella progettazione e organizzazione strategica di reti di comunicazione all’interno delle aziende. In questo contesto nasce l’esigenza di valutare gli strumenti informatici sia da un punto di vista tecnico (legato alla produttività) sia da quello socio-psicologico (legato agli effetti della comunicazione e interazione con le macchine). Gli studiosi focalizzarono il loro interesse soprattutto nella comprensione degli effetti che avrebbe provocato un tipo di una comunicazione semplice e rapida, capace di raggiungere istantaneamente qualsiasi luogo. Altre importanti considerazioni avrebbero implicato i potenziali effetti derivati dalla natura prevalentemente testuale della CMC, quindi priva di situazioni e comportamenti tipici della comunicazione e dei codici non verbali, e gli effetti dovuti alla mancanza di informazioni relative all’identità degli interlocutori con una conseguente notevole accentuazione dell’anonimato. Nel tentativo di trovare riscontri alle problematiche che questo tipo di comunicazione avrebbe potuto causare alle/nelle persone e nei rapporti sociali, si svilupparono diversi approcci di studio, che possiamo categorizzare in: CMC 76 socialmente povera (di prima generazione), CMC socialmente ricca (di seconda generazione) e CMC come dimensione quotidiana (terza generazione). La teoria Reduced Social Cues (RSC) di Sproull e Kiesler si sviluppa all’inizio degli anni '80 e implica all’interno di una comunicazione mediata dal computer, sia una scarsità di informazioni relative al contesto sociale in cui avviene che una scarsità di norme comunemente accettate, in grado di orientare lo sviluppo della comunicazione stessa, oltre che un’intrinseca limitazione della “larghezza di banda”, cioè della quantità di informazioni veicolate nell’unità di tempo. In base a questo approccio la CMC è di natura povera. Di fatto, se nella comunicazione face to face gli interlocutori dispongono di molteplici canali, oltre a quelli verbali, nella CMC anni '80 lo scambio di informazioni e messaggi è prevalentemente di tipo testuale, quindi efficace secondo i due studiosi per la trasmissione di indicazioni, ordini o direttive ben precise, ma notevolmente “povera” per quanto riguarda gli aspetti relazionali e sociali tra gli interlocutori che prendono parte alla comunicazione. Ciò che manca alla CMC è la capacità di trasmettere gli indicatori sociali (dietro un pc siamo tutti uguali e persino i rimproveri più duri ricevuti tramite mail risultano meno autorevoli e duri da assimilare). La mancata presenza di indici di disparità sociale consente di livellare le relazioni e più in generale lo status (incentivando una partecipazione maggiore assoggettata dai condizionamenti sociali) dei singoli interlocutori, quindi, soggetti che normalmente in una conversazione face to face sarebbero emarginati, in questo contesto possono liberamente esprimersi. Tuttavia la condizione di anonimato, unita al processo di deindividuazione in cui sembra agire una comunicazione mediata dal computer comporta, da un lato un atteggiamento degli individui più libero, aperto ad esprimersi e a comunicare senza restrizioni, dall’altro giustifica comportamenti violenti o anti-sociali. 77 Fig. 11 - Famosissima illustrazione ironica di Peter Steiner “On internet nobody knows you’re a dog”, Su internet nessuno sa che sei un cane L’approccio della RSC pur essendo un modello articolato e completo fu soggetto a numerose critiche, causate dalle contraddizioni che lo compongono, per esempio sostiene che la CMC e i suoi limiti di larghezza di banda sono poco adatti a veicolare i contenuti sociali, ma non spiega né l’utilizzo della posta elettronica per scopi che esulano dalle attività lavorative, né il fatto che in determinate situazioni la CMC dà luogo a comportamenti socialmente accettati più che nell’interazione faccia a faccia. In base a queste critiche vennero proposti modelli alternativi che hanno messo in luce altri aspetti poco considerati della CMC. In particolare il Social information processing (SIP), sviluppato da Walther e 78 Burgoon (1992), sostiene che la comunicazione mediata dal computer può veicolare la stessa socialità di una qualsiasi altra comunicazione face to face se chi ne fa parte dispone del tempo strettamente necessario per svilupparla. Secondo i due studiosi infatti gli esseri umani, a prescindere dal mezzo con cui comunicano, sviluppano il bisogno di ridurre l’incertezza che può scaturire in situazioni in cui il messaggio è impoverito di tutti gli aspetti sociali-emozionali, al fine di raggiungere una certa affinità nei confronti degli altri individui. Gli utenti della CMC tendono a soddisfare questi bisogni ancestrali adattando le proprie strategie comunicative al medium utilizzato. Quindi la CMC Social information processing non è meno efficace nelle interazioni sociali rispetto ad una comunicazione faccia a faccia, ma è semplicemente meno efficiente, ossia occorre più tempo agli interlocutori per veicolare lo stesso tipo di sensazioni. Questi nuovi modelli hanno messo in evidenza l’importanza del contesto sociale in cui si svolge la comunicazione. All’inizio, come abbiamo visto, la CMC si svolgeva prevalentemente nei luoghi di lavoro, quindi risultava più fredda e impersonale, ma a partire dagli anni '90, parallelamente alla diffusione capillare anche in situazioni domestiche della tecnologia telematica, incominciò a “sovraccaricarsi” di contenuti sociali, tanto da poter essere definita Hyperpersonal3. Socialmente attiva. Le interazioni diventano sia ad un livello conscio che inconscio attive e più stereotipate (rispetto alla comunicazione faccia a faccia), ossia si tende a categorizzare socialmente l’interlocutore, e in mancanza d'informazioni sulla sua persona, si tende a farlo in modo stereotipato, basandosi esclusivamente su ciò che si ha a disposizione (nickname, firma del messaggio, homepage, blog ecc...). Ognuno quindi ha la possibilità di curare attentamente la presentazione del sé online, progettando accuratamente l’immagine che desidera dare di se stesso agli altri, nascondendo o potenziando le caratteristiche che ritiene più o meno socialmente utili in quel determinato contesto comunicativo. 3 Iperpersonale, Walter 1997 79 Questa caratteristica di iperpersonalità della CMC si rifletterà in modo ben più evidente con l’introduzione della vita online e quindi della comunicazione attraverso il computer come parte integrante della vita quotidiana di ogni cittadino. Il passaggio a questa nuova generazione di CMC è rimarcato dal superamento delle “vecchie” teorie matematiche della comunicazione di massa intese come trasferimento di informazioni (Shannon), da una visione di esse non più come beni che esistono in natura, bensì come il frutto di prodotti sociali, e infine, da una concezione non riduzionistica della dimensione sociale, ossia i sistemi simbolici, quelli normativi e i codici interpretativi non si manifestano solo quando le persone sono in comunicazione face to face, fisicamente vicine, ma ci accompagnano in ogni momento dell’esistenza. La CMC può essere distinta in due tipi: sincrona e asincrona. Nella prima la comunicazione avviene in tempo reale quando gli interlocutori si trovano contemporaneamente online, con le stesse modalità di un dialogo telefonico o della conversazione diretta face to face. I mezzi tipici della CMC sincrona sono: le videoconferenze, l’internet phone (skype), le chat e i servizi di instant messaging (ICQ, MSN o quelli dei Social network). Si tratta di un tipo di comunicazione diretta che si basa sull’interazione in tempo reale con l’altro o gli altri individui che ne prendono parte, è quindi multimediale (consente lo scambio di immagini, musica, video, documenti o file), ipertestuale ed emozionale (grazie all’uso frequente di emoticons 4). Nella comunicazione asincrona invece, lo scambio di informazioni e messaggi avviene in tempistiche differenti e gli interlocutori non devono essere necessariamente connessi allo stesso momento. Posta elettronica (email), mailing list, newsgroup e Multi User Doungeon (MUD) sono i mezzi tipici della CMC asincrona. Dal punto di vista strettamente psicosociale è possibile considerarla differente sia rispetto alla comunicazione scritta non mediata dal computer che dagli altri mezzi di comunicazione. 4 Riproduzioni stilizzate delle principali espressioni facciali umane che esprimono un'emozione (sorriso, broncio, ghigno, etc.). Vengono utilizzate per aggiungere componenti extra-verbali alla comunicazione scritta. Il nome nasce dall'accostamento delle parole "emotional" e "icon" e sta ad indicare proprio un'icona che esprime emozioni. 80 Nella vita sociale “reale”, ognuno può costruirsi facilmente, grazie a propri sensi e alle proprie capacità cognitive, l’immagine mentale della personalità dell’interlocutore o degli individui che si hanno attorno. Cerchiamo continuamente di recuperare più informazioni possibili in modo tale da popolare quell’immagine, che inizialmente è sfocata, influenzata dai pregiudizi e dalle situazioni già riscontrate, di nuove caratteristiche fino a raggiungere un livello considerato accettabile. Diversamente in rete, date le caratteristiche della CMC, non può essere così. Nella vita online ognuno è un “essere digitale”, ossia è ciò che lascia trapelare attraverso lo schermo, comunicando e digitando. Ognuno è ciò che scrive. Essere visibili quindi vuol dire scrivere e comunicare, nella CMC spesso non c’è esistenza al di fuori della parola. Per esistere in rete occorre manifestarsi, presentarsi, chattare, mentre rimanere in silenzio vuol dire semplicemente non esistere. In rete, date le caratteristiche tecnologiche del mezzo comunicativo, l’interazione tra individui o tra gruppi di individui assume tratti decisamente particolari, in cui il corpo si oppone al teso in un continuum che da un lato vede il reale, la fisicità e dall’altro il virtuale, la Rete. Il corpo è l’asse portante dell’interazione e della comunicazione nella vita quotidiana e si manifesta nella sua dimensione agli altri, il testo invece è l’elemento principale nella comunicazione “virtuale” e si distacca dal corpo. Questa distinzione implica una rottura dalla fisicità corporea in rete, quindi una liberazione dalle paure di mettere a rischio il proprio corpo, la propria incolumità. Online la nostra mente può permettersi maggiori libertà. Ed è per questo che nella comunicazione mediata dal computer si tende a sperimentare, a costruire e a modellare l’identità che sostituisce il corpo rimasto al sicuro al di qua dello schermo. Nella società è accettata un'unica entità primaria che è strettamente collegata alla nostra fisicità e alle nostre azioni, è un'identità per lo più forgiata dalla struttura sociale, che implica determinati comportamenti ad ogni precisa 81 situazione. Può esistere quindi una sola personalità per un solo corpo. L’individuo che manifesta personalità multiple è difatti tracciato come patologico, disturbato o, nel migliore dei casi, considerato semplicemente bizzarro. Nella rete invece, non solo l’identità multipla è possibile, ma difatti è l’unica modalità possibile di presentazione, poiché se ciò che scriviamo ci identifica, allora la soggettività di ognuno è il personaggio del racconto che si vuole raccontare agli altri. Internet offre la possibilità di presentarsi intenzionalmente in un'infinita varietà di modi differenti (è possibile avere un’altra età, sesso, storia, aspetto fisico ecc...), esternando difatti la rappresentazione della molteplicità che ogni essere umano incarna nella vita reale (si è figli, ma anche genitori, si lavora o si studia, si è vicini di casa, amici, parenti ecc... e chiaramente per ognuna di queste possibilità si attuano comportamenti differenti). Questi diversi aspetti del sé in rete possono essere dissociati (si possono presentare solo alcuni aspetti, quelli ritenuti più opportuni al contesto), potenziati (migliorare al massimo una propria caratteristica o un proprio interesse specifico) o integrati (versione completa di se stessi). L’aspetto dell’intenzionalità è sicuramente una delle componenti principali che riguardano questi processi comunicativi, e la CMC, date le sue caratteristiche, rende il controllo e la gestione del proprio “Io online” più facile. Come abbiamo visto, su internet e più in generale nel mondo della comunicazione mediata dal computer, non esistono discriminazioni, ognuno può presentarsi per quello che è oppure può costruirsi un'identità differente. La costruzione di un'identità online avviene innanzitutto con la scelta di un nome, dove a differenza della vita reale, rispecchia una grande importanza sociale. Il nome o meglio il nickname è il punto d'ingresso all’interno del mondo della rete, il contatto diretto tra il nostro essere reale e il nostro essere digitale. Non è un'aggiunta al nome anagrafico, ma è una sua sostituzione, l’incarnazione della nuova identità dell’individuo online. Questa possibilità consente infatti di dare luogo a relazioni sociali stabili e significative che non sarebbero state possibili se la comunicazione fosse stata completamente anonima. Inoltre, la tendenza a mantenere l’identità piuttosto 82 stabile (soprattutto non cambiando spesso nickname) contribuisce alla creazione della “persona online” di essere riconoscibile, identificabile e considerata presente agli occhi degli altri infonauti. Oltre al nome la persona online viene costituita da altri espedienti, dai più antichi, come la firma in calce, ai messaggi di posta elettronica e la costruzione di una propria homepage o sito personale (curriculum, foto, informazione contatti, biografia ecc...), fino ai più recenti, quali i messaggi, i commenti e i post pubblicati sui blog (spesso veri e propri diari della nostra vita) o sui Social Network (Facebook, Twitter, MySpace ecc...) o ancora i video pubblicati sulle piattaforme dedicate (Youtube, Vimeo ecc...). In pratica tutto ciò che può contribuire a identificarci. L’analisi di tutte queste forme e strumenti per comporre un'identità online è in realtà il sostegno di una visione del sé frammentata e molteplice, in cui un individuo, grazie a queste possibilità, può costruire diverse entità, ognuna delle quali sarà utilizzata per altrettanti modi di essere e presentarsi nei diversi contesti della vita in rete. Proprio questa possibilità rappresenta la rete stessa come uno spazio di sperimentazione delle proprie personalità, un nuovo moratorium 5 in cui il confine tra comunicazione online e comunicazione offline si fa sempre più permeabile man mano che internet entra sempre più a far parte della quotidianità. 4.3 Nomofobia e disturbi da social addiction sai di essere dipendente da Internet quando... ti alzi alla tre del mattino per andare in bagno e prima di tornare a letto controlli se hai ricevuto qualche mail (Patricia Wallace, 1999) La bomba dei rapporti sociali esplosa con l’avvento di Internet nelle case di tutti ha portato sicuramente enormi, profondi e radicali cambiamenti sia nei modi 5 Concetto psicoanalitico che nella sua versione originale indica quelle situazioni circoscritte in un periodo di tempo limitato, in cui le persone possono permettersi di sperimentare senza dover subire conseguenze troppo pesanti. La rete è dunque vista come nuovo moratorium in quanto chi sperimenta una nuova identità può interrompere il collegamento quando la situazione diventa troppo pesante o difficile da controllare, nella vita reale invece è più difficile uscire da determinate situazioni. 83 di pensare e quindi di agire, che in quelli di condividere, comunicare e socializzare. Il nuovo medium, come abbiamo visto, ha portato con sé una rivoluzione culturale, e come tutte le forze dirompenti, in poco tempo, ha modificato ogni aspetto della nostra società a partire dalle sue unità principali: gli individui. É proprio la natura della rete ad affascinare ed ammaliare gli utenti, attraverso le sue promesse riesce infatti ad aumentare sempre di più la sua appetibilità. Su Internet nascono immense comunità virtuali, discussioni di ogni genere e argomento, giochi interattivi testuali oppure complessi MUD grafici, si chiacchiera nelle chat con persone lontane molto velocemente, si conoscono persone che difficilmente si riusciranno mai ad incontrare. In poche parole è un mondo che non dorme mai e sembra non conoscere limiti. Per viverlo intensamente, o semplicemente sbirciare al suo interno, occorre essere “connessi”, cioè abbandonare il proprio corpo e raggiungere virtualmente la propria identità nella dimensione prevalentemente testuale del web, dove grazie a semplici click è possibile avere sotto controllo ogni situazione: sia essa una sessione di gioco, una ricerca oppure una conversazione con persone lontanissime da noi. Occorre quindi dissociarsi fisicamente dalla realtà materiale per vivere quella virtuale della rete. Internet e i suoi strumenti (Social Network su tutti), sono il frutto casuale del bisogno innato dell’uomo di comunicare con i suoi simili, a prescindere dalle limitazioni temporali o spaziali, e anche per questo motivo sono sicuramente dispositivi di grandissima utilità. Ma se utilizzati in maniera inappropriata o eccessiva possono scatenare vere e proprie situazioni patologiche di dipendenza con conseguenze gravissime nella vita reale-sociale. Se da un lato Internet e i Social Network (Facebook, Twitter, My Space ecc...) sono potenti mezzi aggregativi e sociali, in grado di migliorare enormemente le potenzialità comunicative di ciascun individuo, dall’altro possono rappresentare una vera e propria minaccia in quanto un utilizzo incontrollato del medium porta ad una graduale sostituzione dei rapporti sociali reali con quelli virtuali di qualità inferiore. Questo è il paradosso della rete: Internet è una tecnologia sociale che in 84 determinate circostanze può provocare il distacco dal sociale e far cadere gli individui nella solitudine e depressione. Internet e i Social Network al pari dell’alchool, del fumo e delle droghe possono creare forme di dipendenza più o meno gravi. Si tratta di veri e propri disturbi della persona(lità) e come tali vanno curati. Questi possono essere l’IAD (Internet Addiction Disorder), la Social Network Disorder, la Friendship Addiction e la Nomofobia. Si manifestano principalmente in soggetti “predisposti”, ossia che trascorrono molte ore sul web senza praticamente mai riuscire a staccare il collegamento e comportano prevalentemente un ossessivo controllo dei nuovi messaggi, notifiche, aggiornamenti, oltre che una ricerca senza sosta di nuove amicizie. L’individuo soffre lo status di disconnessione dalla vita online, tanto da desiderare il momento in cui finalmente potrà accedere ed immedesimarsi al suo Io virtuale. Ovviamente questo pensiero costante influisce sulla propria vita privata e lavorativa. Oltre a questo stato di assuefazione al web, che prelude alla necessità di restare collegato al mondo virtuale per un certo periodo di tempo e cresce man mano che trascorrono le ore, sono presenti veri e propri disagi fisici (mal di testa, disturbi del sonno, stanchezza, apatia etc...). Il web rappresenta nella modernità un mondo sicuro e controllabile dove è possibile instaurare facili rapporti sociali, senza rischi, poiché questi non richiedono, come nella vita reale, un contatto diretto faccia a faccia, che per molti può rappresentare un vero e proprio ostacolo. I Social Network per esempio rispondono in modo efficace ad alcuni dei bisogni fondamentali dell’essere umano: 1. bisogni di sicurezza: le persone con cui tendiamo a comunicare nei social network sono “amici“, non estranei (come in realtà sarebbero da considerare nella maggior parte dei casi), ed è nel potere di ciascun individuo di decidere chi è amico e chi no, chi seguire e chi ignorare. É possibile quindi controllare ciò che egli mostra di sé, della sua vita e condividere con lui esperienze, commenti etc. ; 85 2. bisogni associativi: con gli amici è possibile condividere, comunicare e scambiare opinioni, risorse, informazioni, applicazioni, e volendo cercare qualcuno con cui intraprendere relazioni sentimentali più approfondite; 3. bisogni di autostima: ciascuno ha il controllo della propria friends list e può decidere in tutta semplicità chi è amico e chi no, chi seguire e chi no, ma anche gli altri possono farlo: quindi se in tanti lo scelgono come amico allora vuol dire che è cool; 4. bisogni di autorealizzazione: è possibile raccontarsi nel modo che si preferisce (talvolta rendendosi diversi da ciò che si è in realtà) ed è possibile utilizzare tutte le proprie competenze per aiutare gli amici. Tuttavia i Social Network non forniscono alle persone vera stima di se stesse o senso di controllo delle situazioni, ma solo sensazioni fittizie e poco durature, poiché svaniscono non appena chiuso il collegamento, quindi tornando a confrontarsi nuovamente nella vita reale, dove non c’è più il controllo, le persone addotte dalle patologie del web sentono la necessità di ricollegarsi. Anche l’ossessiva ricerca degli amici online è da considerare come una vera e propria patologia in determinati contesti. Il soggetto è persuaso dall’idea che ad un elevato numero di “amici” corrisponda ad un alto valore di se stessi agli occhi delle altre persone. Il problema di fondo è che gli amici spesso sono conoscenti visti raramente nella vita reale, o peggio ancora mai visti, che mai si incontreranno o che addirittura in altre circostanze non si sarebbero nemmeno avvicinati a loro, in poche parole persone selezionate a caso che poco hanno a che fare con la persona che ne richiede l’amicizia. Tali richieste sono un sopperire alla poca stima personale del soggetto, riconducibili quindi ad un senso di inadeguatezza e solitudine che può essere compensata nella vita online attraverso liste infinite di amici virtuali, solo in così si ha una soddisfazione e rafforzamento del proprio ego. In caso di mancata connessione al web si hanno attacchi di panico, agitazione, ansia, fino a raggiungere stati di irritabilità, disturbi del sonno e depressione. Tutto ciò ovviamente ha ripercussioni anche gravi sulla vita al di fuori del web: 86 l’ossessione della connessione causa distacco dalla realtà che a lungo termine si traduce in perdita dei contatti sociali, familiari e lavorativi. La nomofobia6 , nota anche come sindrome da disconnessione, provoca uno stato psicopatologico di insopprimibile ansia e paura. Per scatenare questi attacchi di panico è sufficiente che il proprio smartphone, oppure notebook, a causa di assenza di segnale sia impossibilitato alla connessione, o peggio che questo sia stato smarrito o abbandonato da qualche parte. Ciò deriva proprio dal fatto che grazie al web mobile, Internet è praticabile ovunque, quindi si ha sempre a portata di mano una soluzione a qualsiasi “problematica” o evenienza si presenti (trovare un indirizzo o un percorso, trovare un contatto che serve, tenere sotto controllo le mail, le notifiche di Facebook ecc...). Da qui il terrore a privarsi di una simile capacità con il rischio di rimanere isolato. La questione del web e dei disturbi che può causare in determinati individui è certamente tanto vasta e complessa quanto delicata. Agli albori di Internet per le masse (anni '90), i soggetti che utilizzavano Internet per un totale di 50 ore settimanali e per un uso superiore ai sei mesi venivano considerati come individui disturbati. Oggi Internet è ovunque, lo si può navigare dal computer, come allora, ma soprattutto in mobilità, sul cellulare, sui tablet, al mare, in montagna, di giorno di notte, praticamente sempre. Ha invaso la vita quotidiana. Chiunque abbia un cellulare di ultima generazione passa più ore connesso di quanto l’user più addicted avrebbe mai potuto fare 10 o 20 anni fa. Ciò sicuramente è stato scatenato dall’avvento delle nuove tecnologie, dall’abbattimento dei costi e dall’esigenza sempre più forte di socializzare e di rimanere in contatto con gli amici, con la rete. Con tutto il mondo. 6 Contrazione del termine inglese “no mobile fobia”, ossia la forte angoscia che colpisce un individuo all’idea di perdere il cellulare o di restare disconnessi dai social network per più di una giornata. 87 88 89 90 CAPITOLO TERZO: Dalle Realtà Virtuali alle Realtà Aumentate 5. L’Ultimate Display e i primi passi in Realtà Virtuale Le rivoluzioni tecnologiche (come abbiamo visto nel primo capitolo) non avvengono semplicemente perché il progresso umano è un processo inevitabile che sistematicamente (nel corso dei secoli) avviene portandoci verso nuovi orizzonti culturali, sociali e tecnici. I veri cambiamenti di paradigma tecnologici hanno bisogno di incastri e situazioni ben precise. Uno o più visionari devono avere la disponibilità e l'accesso alle tecnologie di base che rendano possibili le loro “visioni” e devono incontrare finanziatori che li sostengano economicamente. Se queste condizioni non vengono rispettate, difficilmente l’idea giusta, anche fosse la più importante e geniale di tutte, diventa parte integrante di una nuova tecnologia. Un esempio di questa “legge” dei paradigmi tecnologici può essere ritrovato in Engelbart e Licklider. Entrambi hanno avuto idee visionarie: pensare al computer non come calcolatore, ma come strumento capace di aumentare l’intelletto umano tramite una collaborazione simbiotica. Licklider trovò subito nell’ARPA un finanziatore generoso per sviluppare le sue idee, mentre Engelbart dovette aspettare parecchi anni prima di trovare nello stesso Licklider (IPTO) il sostegno economico necessario a realizzare la sua visione di computer. 5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di Heilig. Se Morton Leonard Heilig avesse avuto un supporto finanziario adeguato, forse le realtà virtuali avrebbero potuto essere sperimentate a fondo già a partire dagli anni '60 e non grazie all’ausilio tecnologico delle macchine per pensare bensì alle possibilità offerte dal cinema. Hollywood avrebbe potuto essere la forza trainante dello sviluppo del nuovo paradigma tecnologico della realtà virtuale. 91 Heilig non era né un programmatore, né un ingegnere del MIT o di altri illustri istituti Accademici/Universitari, era un visionario di Hollywood, eppure fu il primo a pensare e sviluppare prototipi di macchinari in grado di portare l’uomo all’interno del mondo virtuale. Fu il Cinerama ideato da Fred Waller ad ispirare Heilig nella sua concezione di esperienza multisensoriale, non tanto per quello che permetteva, ma piuttosto per quello che annunciava. L’idea di base del Cinerama è piuttosto semplice e fonda le sue radici sugli aspetti della percezione visiva dell’uomo: i nostri occhi sono in grado di osservare 155 gradi verticalmente e 185 gradi orizzontalmente. Gli schermi cinematografici di quegli anni erano in grado di riempire solamente una piccolissima porzione di quello spazio visivo, seppur molto apprezzati, non consentivano un’adeguata immersione all’interno dello spazio filmico. Waller non voleva fare altro che espandere gli schermi attraverso l’utilizzo di proiezioni multiple e creare una sensazione di coinvolgimento più soddisfacente. Ideò per l’Aviazione statunitense un visore cinematografico (in uno dei primi simulatori di volo) con cinque proiezioni di immagini riprese attraverso cinque angolature leggermente diverse. Ciò permetteva l’addestramento dei piloti anche per quanto riguarda la loro visione periferica, in quanto l'essere avvolti dalle immagini in movimento rendeva la simulazione più realistica e quindi più efficace. Nel dopoguerra Waller decise di proporre all’industria hollywoodiana una versione commerciale del suo sistema. Del resto Waller sapeva che Hollywood avrebbe avuto la necessità di sperimentare nuove forme di attrazione, data la concorrenza della neonata tecnologia a tubo catodico televisiva, e un'idea come la sua sicuramente avrebbe giovato al mondo cinematografico. Gli bastarono infatti poche dimostrazioni per convincere Mike Todd (un importante produttore dell’epoca) ad investire 10 milioni di dollari sulla sua idea. 92 "This is Cinerama" fu il primo film ad utilizzare la tecnica delle proiezioni multiple su schermi curvati che circondano il campo visivo degli spettatori. Fu un successo straordinario. Heilig in quel periodo si trovava in Italia e avendo sentito parlare di questa nuova rivoluzionaria tecnica cinematografica, volle subito provarla. Tornò negli Stati Uniti. Guardando un film alla Tv o al cinema si è seduti all’interno di una realtà che osserva un’altra realtà attraverso una finestra in cui avvengono le proiezione di immagini. Allargando questa finestra fino a immergere fisicamente lo spettatore si raggiunge un senso di profondo coinvolgimento personale. L’esperienza si sente non ci si limita più ad osservarla. Heilig cominciò a pensare a metodi e strumenti per ingannare la gente, convincendola di essere all’interno del film, di essere all’interno di un’altra realtà. A partire dal 1954 incominciò a creare un concept di quello che avrebbe dovuto essere il suo progetto più importante: Il teatro Dell’Esperienza. The really exciting thing is that these new devices have clearly and dramatically revealed to everyone what painting, photography and cinema have been semiconsciously trying to do all along - portray in its full glory the visual world of man as perceived by the human eye (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da Morton Heilig,1955) Heilig voleva espandere la sensazione di coinvolgimento provata con il Cinerama anche attraverso gli altri sensi e creare così il cinema del futuro. Inizia a studiare le modalità in cui normalmente i sensi influiscono sull’attenzione dell’uomo nelle situazioni quotidiane e schematizza i tratti essenziali del cervello, dei canali sensoriali, della rete motoria, di tutti gli input percettivi principali che creano il senso della realtà. Gli occhi grazie ai quali possiamo osservare immagini tridimensionali a colori 180 gradi orizzontalmente e 150 verticalmente, le orecchie che ci permettono di distinguere volumi, ritmi, suoni, parole e musica, il naso e la bocca per rilevare gli odori ed i sapori ed infine la pelle, con la quale possiamo identificare la 93 temperatura, la pressione e le texture, sono tutti gli organi che compongono “the building bricks, which when united create the sensual form of man’s consciousness”. Individua anche il grado d'influenza sulla percezione del reale dei vari sensi, identificando nella vista quello che monopolizza maggiormente la nostra percezione (70%), mentre l’udito (20%), l’olfatto (5%), il tatto (4%) e il gusto (1%) sono considerati meno influenti, anche se è dall’insieme di tutti che possiamo percepire il mondo come reale. Considerare solo la vista come la principale delle nostra abilità di percezione, sarebbe riduttivo. L’obiettivo di Heilig era quello di replicare la realtà per ciascuno di questi sensi all’interno di un teatro appositamente progettato, che chiama appunto Teatro dell’Esperienza. [...] La bobina cinematografica del futuro sarà un rotolo di nastro magnetico suddiviso in tracce separate per ogni modalità sensoriale importante [...] Lo schermo non riempirà solo il 5% del vostro campo visivo come gli schermi dei cinema rionali, o il mero 7,5% del Wide Screen o il 18% dello schermo “miracle mirror” del Cinemascope, o il 25% del Cinerama - ma il 100%. Lo schermo si curverà accanto alle orecchie dello spettatore da entrambi i lati ed oltre il suo limite visivo sopra e sotto [...] Saranno concepiti mezzi ottici ed elettronici per creare profondità illusoria senza occhiali. (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da Morton Heilig, 1955 - traduzione italiana "La Realtà Virtuale" di Howard Rehingold, 1993) Heilig per la sua idea di cinema del futuro trovò estimatori disposti ad investire in Messico, ma sciaguratamente poco tempo dopo aver iniziato a sperimentare alcune proiezioni con lenti ottiche particolari, l’investitore morì in un incidente aereo. Rientrato negli Usa cercò nuovi finanziamenti e persone disposte ad aiutarlo nella sua impresa, ma anche in questo caso la cattiva sorte giocò un ruolo da protagonista: il direttore di una grossa azienda di proiettori interessata al progetto morì in un incidente aereo. Non se ne fece più nulla. Heilig decise che se voleva trovare investitori doveva far provare loro direttamente l’esperienza. Tutto quello che aveva erano solo delle idee e degli schizzi. Troppo poco per far capire esattamente quello che voleva essere la sua 94 visione di cinema del futuro. Iniziò quindi a progettare e costruire pezzo dopo pezzo, all’interno del suo garage, una versione monoposto del suo teatro dell’esperienza, che chiamò Sensorama Simulator. Il Sensorama era il dispositivo che ha permesso ad Heilig di mettere finalmente in pratica le sue teorie, anche se si trattava di un dispositivo più simile ad un Arcade Game anni '80 a gettoni da sala giochi, che ad un cinema ad alto potenziale tecnologico. Lo spettatore doveva sedersi e appoggiare la testa all’interno della cabina, in cui erano disposti tutti i replicatori di sensazioni olfattive, uditive, tattili e visive. Lo schermo ad ampia estensione che occupava gran parte del campo visivo e il suono stereo che si espandeva tutto intorno, amplificavano la sensazione di essere partecipi all’interno della scena. Gli scossoni, il vento e gli odori sincronizzati perfettamente al filmato rendevano la sensazione quasi una convinzione di essere lì. Di essere protagonista di ciò che si “vede” e si “sente” all’interno del Sensorama. Heilig aveva inventato la realtà per un Fig. 12 - Locandina pubblicitaria del Sensorama di Morton Heilig nichelino, un dispositivo capace di creare esperienze di realtà mai provate prima, una simulazione del reale finalizzata all’intrattenimento, la stessa che oggi si può ammirare in tutte le sue potenzialità, nei grandi parchi divertimento di tutto il mondo. Un altro brevetto del 1960 dimostra come Heilig sia stato davvero un visionario che ha precorso i tempi, e che se non fosse stato per le vicende legate al 95 finanziamento dei suoi progetti, sarebbe indicato da tutti come il fondatore della realtà virtuale ancor più di Ivan Sutherland. Heilig infatti aveva lavorato ad un dispositivo Head Mounted chiamato Stereoscopic-television Apparatus For Individual Use, meglio conosciuto come Telesphere Mask. Si tratta di una versione portatile ed indossabile del Sensorama che si posiziona sulla testa, come un casco, e consente di replicare l’esperienza visiva di una realtà virtuale pre-informatica. Heilig è stato il pioniere di questa tecnologia e avrebbe potuto portare il mondo nell’era del Ciberspazio1 già negli anni '60, se solo avesse incontrato le persone giuste al momento giusto. Come simulatore ambientale, il Sensorama costituì uno dei primi passi verso la duplicazione dell’atto dello spettatore di stare di fronte ad una scena reale. L’utente è totalmente immerso in una cabina progettata per imitare la modalità di esplorazione mentre la scena è rappresentata simultaneamente ai vari sensi. Il passo successivo consiste nel permettere allo spettatore di controllare il proprio cammino attraverso l’informazione disponibile per creare una possibilità direttamente di interazione altamente personalizzata vicina alla soglia dell’esplorazione virtuale. ( “Viewpoint Dependent Imaging” Scott Fisher, 1981) 5.2 L’Ultimate Display di Ivan Sutherland. Negli stessi anni in cui Heilig brevettava il Sensorama, Ivan Sutherland, all’epoca dottorando al MIT, conclude il suo percorso di ricerche con la realizzazione di quello che sarà definito come uno dei software più importanti di tutti i tempi: Sketchpad. Sutherland grazie alla sua brillante intuizione, ispirata alle “visioni” Engelbartiane e Licklideriane, era riuscito a creare un sistema di controllo e comunicazione uomo-computer, attraverso il quale l’interazione avveniva per mezzo di forme grafiche elaborate in real time, un dispositivo di puntamento e un display collegato ad un “normale” computer. 1 Termine inglese utilizzato per indicare il dominio caratterizzato dall'uso dell'elettronica e per immagazzinare, modificare e scambiare informazioni attraverso le reti informatiche e le loro infrastrutture fisiche. 96 Fu una vera e propria rivoluzione che influenzò notevolmente i percorsi nella delle future tecnologie dell’interazione tra le macchine e le menti umane. Con "Sketchpad: A Man-Machine Graphical Communication System" (questo era il titolo completo della sua tesi di dottorato, supervisionata da Claude Shannonn) nasce difatti la computer grafica ed il primo sistema di CAD (computer aided design). Sketchpad non era soltanto uno strumento per disegnare. era un programma che obbediva alle leggi che si voleva fossero vere. per disegnare un quadrato si tracciava una linea con la penna ottica, poi si davano al computer pochi comandi [...] Sketchpad prendeva la linea e le istruzioni e via! Un quadrato appariva sullo schermo. ("La Realtà Virtuale" Howard Rehingold, 1993, citazione di Alan key sul software Sketchpad) Sutherland aveva appena incominciato ad esplorare la soglia di un nuovo mondo, il mondo della grafica computerizzata, e ben presto sentì l’esigenza di varcare quella soglia, calandosi letteralmente all’interno di essa. Voleva portare all’estremo il concetto di contatto intimo tra intelletto umano e computer che Licklider aveva profetizzato nel suo saggio "Man-Computer Symbiosis" del 1960. Nel 1965 Sutherland, succeduto proprio a Licklider al “comando” dell’IPTO, scrive "The Ultimate Display", un breve saggio in cui espone lucidamente e profeticamente l’avvento di un nuovo modo di rappresentare le informazioni generate dai computer. Il mondo in cui viviamo è un “physical world” in cui le sue proprietà e caratteristiche fondamentali diventano a noi note solo con l’esperienza. In particolare i nostri sensi ci danno la capacità di comprendere e prevedere i comportamenti all’interno di questo mondo. Per esempio, possiamo facilmente intuire dove un oggetto cadrà, che tipo di forma ha un determinato angolo che non riusciamo a vedere oppure quanta forza ci occorre per vincere la resistenza di un oggetto e spostarlo. Quello che ci manca, secondo Sutherland, è la familiarità con concetti di natura più scientifica ed astratta, difficilmente collegabili all’esperienza sensoriale diretta. 97 Un display connesso ad un computer ci consente di fare esperienza con questi tipi di astrazioni, difficilmente realizzabili nel mondo fisico. It is a looking glass into a mathematicl wonderland ("The Ultimate Display" Ivan Sutherland, 1965) Per fare in modo che questi display diventino effettivamente gli occhiali all’interno del mathemtical wonderland generato nella memoria dei computer, occorre fare in modo che essi coinvolgano più sensi possibili. Gli esperimenti di Heilig con il suo prototipo di dispositivo Head Mounted Display Telesphere Mask e più in generale con il Sensorama e il Teatro dell’Esperienza, hanno dimostrato che il coinvolgimento multi-sensoriale dello spettatore amplifica la sensazione di “presenza fisica” all’interno della simulazione di realtà in atto. Sebbene quelli di Heilig siano soluzioni analogiche, cioè senza il supporto tecnologico di un computer, rappresentano comunque un percorso interessante da seguire e integrare nei nuovi display digitali, gli stessi a cui Ivan Sutherland ambisce. The Ultimate Display è proprio questo. Una visione sulle future capacità tecnologiche in grado di fornire output e input attraverso l’uso congiunto di tutti i sensi umani, in modo tale da immergere l’utente all’interno dei dati elaborati dai computer e dei mondi da esso generati. Dal momento che i computer, attraverso l’uso di specifici sensori, possono facilmente rilevare la posizione di molti dei muscoli che compongono il nostro corpo, è possibile costruendo macchine capaci di interpretare tali movimenti, interagire direttamente con gli oggetti e i mondi Virtuali generati dagli elaboratori (per esempio attraverso gli occhi o il linguaggio degli sguardi). There is no reason why the objects displayed by a computer have to follow the ordinary rules of physical reality with which we are familiar. [...] The user of one of today's visual displays can easily make solid objects transparent - he can "see through matter!" Concepts which never before had any visual representation can be shown, [...] ("The Ultimate Display" Ivan Sutherland, 1965) 98 All’interno di questi nuovi mondi è possibile creare oggetti e strutturare leggi fisiche a noi poco familiari, in modo tale da poterle studiare allo stesso modo in cui le potremmo osservare e conoscere nel mondo naturale. By working with such displays of mathematical phenomena we can learn to know them as well as we know our own natural world. Such knowledge is the major promise of computer displays. ("The Ultimate Display" Ivan Sutherland, 1965) L’Ultimate Display descritto e immaginato da Sutherland è una semplice “stanza”, un ambiente in cui il computer controlla l’esistenza della materia e delle sue specifiche regole. Con Sketchpad, Sutherland ha creato una finestra tra il mondo reale e quello generato attraverso il computer, in cui è possibile osservare, elaborare o creare oggetti, disegni o progetti, interagire con essi comunque mantenendo un certo distacco fisico (che può essere rappresentato dai dispositivi di input, dal monitor ecc...). Con l’Ultimate Display invece abbatte quella stessa finestra permettendoci di attraversarla e di varcare la soglia dell’esplorazione virtuale dei nuovi mondi e degli oggetti creati all’interno di essi, a cui viene conferita una connotazione quasi magica: “Con una programmazione adatta questo tipo di display potrebbe letteralmente essere il paese delle meraviglie in cui camminò Alice”. Parallelamente alla rivoluzione informatica che stavano sostenendo Engelbart e Licklider, Sutherland getta le basi per l’avvento dell’era ciberspaziale, in cui i concetti di “potenziamento dell’intelletto” e “simbiosi uomo-macchina” vengono estremizzati. Il ciberspazio è il luogo ideale per familiarizzare con situazioni poco conosciute, sperimentare ed osare nuove possibili soluzioni ai problemi che la nostra civiltà deve affrontare e che senza l’ausilio di un’esperienza diretta sarebbero impossibili da concepire e risolvere. Sutherland nel 1965, con la descrizione dell’Ultimate Display, non solo profetizza l’avvento delle realtà virtuali, ma pone anche le basi affinché queste possibilità non rimangano soltanto sulla carta. 99 A partire dal 1966 (dopo aver lasciato la direzione dell’IPTO a Robert Taylor) all’interno del Lincoln Laboratory del MIT, Sutherland e il suo staff iniziarono a condurre i primi esperimenti sulle tecnologie necessarie a realizzare un sistema coordinato, che consentisse all’utente di camminare e calarsi completamente all’interno dei (dati generati da un) computer. Occorreva creare tutto dal nulla. L’idea fondamentale che è alla base del display tridimensionale è di presentare all’utente un’immagine in prospettiva che cambia in base ai suoi movimenti. L’immagine retinica degli oggetti che vediamo, è dopo tutto, soltanto bidimensionale. Perciò potendo porre due immagini bidimensionali appropriate sulle retine dell’osservatore, possiamo creare l’illusione della vista di un oggetto tridimensionale [...] L’immagine rappresentata dal display tridimensionale deve cambiare esattamente nello stesso modo in cui cambierebbe l’immagine di un oggetto reale a causa di movimenti della testa dello stesso tipo. ("Realtà Virtuali" Howard Rehingold, 1993, citazione di Ivan Sutherland sul Three dimensional head mounted display) Fig. 13 - Due immagini della “spada di Damocle” (il Three dimensional head mounted display) di Ivan Sutherland del 1968. L’Head Mounted Three Dimensional Display, completato in ogni sua parte nel 1968 e denominato dagli “addetti ai lavori” spada di Damocle, era composto da sotto-sistemi interconnessi, molti dei quali costruiti proprio durante la prima fase di sperimentazioni del MIT: “occhiali” speciali contenenti due tubi a raggi 100 catodici, due generatori di linee analogici bidimensionali (display) che deflettono il segnale ai tubi a raggi catodici, due sensori di posizione della testa, uno meccanico e l’altro ad ultrasuoni utilizzati per misurare la posizione dell’utente nello spazio, un computer general purpose, un matrix multiplier e un clipping divider. Questi ultimi due sistemi meritano una spiegazione più dettagliata. Così come osservando nella realtà un oggetto, si ha una sensazione prospettica che il nostro sistema occhio-cervello è in grado di identificare come autentica, permettendoci di orientarci e conseguentemente determinare una serie di informazioni necessarie alla comprensione dell’oggetto stesso (forma, dimensione, distanza ecc...), anche il dispositivo di Sutherland, per raggiungere il suo scopo, deve essere in grado di riprodurre lo stesso tipo di sensazione. L’illusione prospettica degli oggetti virtuali quindi dovrà cambiare in base ai movimenti della testa e al punto di vista dell’utente, in modo realistico e convincente. Osservare un oggetto generato dal computer da angolazioni differenti all’interno di uno spazio virtuale richiede, ad ogni movimento, l’esecuzione di una traslazione matematica tra le coordinate dell’utente (del suo punto di vista) e le coordinate della stanza. Chiaramente più l’ambiente virtuale sarà dettagliato e ricco di oggetti, più i calcoli da eseguire saranno numerosi e complessi. Sebbene questi primi passi fatti da Sutherland all’interno delle realtà virtuali comprendano poco più di cubi wire-frame, la mole di calcolo necessaria a comporre la scena sarebbe stata comunque eccessivamente complessa da gestire con i normali hardware a disposizione. Il primo passo per entrare all’interno del mondo computerizzato era quello di creare equipaggiamenti hardware special purpose in grado di assumersi i compiti di traslazione delle coordinate e quelli relativi alla visualizzazione degli oggetti tramite la prospettiva più appropriata. Il matrix multiplier e il clipping divider sono le geniali soluzioni hardware che Sutherland e il suo staff hanno brillantemente sviluppato. 101 Il primo ha il compito di individuare i punti estremi dei vettori che compongono gli spigoli di un qualsiasi oggetto all’interno dell’ambiente virtuale e moltiplicarli per i dati forniti dal sistema di rilevamento spaziale posto sopra la testa dell’utente (nuove coordinate), aggiornandoli automaticamente alla nuova posizione e spostando così definitivamente la vista dell’oggetto in sincronia con il movimento della testa dell’osservatore. Al clipping divider invece è affidato il compito di convertire le informazioni numeriche di un oggetto tridimensionale in uno bidimensionale ottimizzato per la rappresentazione sullo schermo grafico del dispositivo head mounted. Inoltre il clipping divider si occupa di rimuovere tutte quelle linee che compongono l’oggetto nella sua rappresentazione tridimensionale, che si trovano dietro la testa dell’utente, fuori dal punto di vista o che sono nascoste dall’oggetto stesso o da altri oggetti oggetti in primo piano (per esempio guardando una poltrona dal davanti non è possibile vedere la sua parte posteriore, quando una persona è seduta sulla poltrona è possibile vedere solo parte di essa). Sia il matrix multiplier che il clipping divider acquisiscono le informazioni dal rilevatore di posizione, elaborano i dati ricavati e trasmettono l’output al generatore di vettori responsabile della visualizzazione di quest’ultimi sullo schermo. La luce emessa dalle proiezioni dei tubi a raggi catodici (posti accanto alle tempie) veniva riflessa da una serie di lenti e specchi che producevano un’immagine virtuale, posta a circa 35 centimetri di fronte all’utente. Tale immagine appariva come una sovrimpressione sul mondo fisico. in questo modo il materiale visualizzato può apparire come sospeso nello spazio o coincidere con mappe, scrivanie, pareti, o tasti di una macchina per scrivere. (“Three dimensional head mounted display “ Ivan Sutherland, 1968) Fin dai primi esperimenti Sutherland si preoccupò di trovare valide ed ingegnose soluzioni per rilevare in tempo reale i movimenti della testa dell’utente, convinto che gran parte del successo del reality engine fosse legata alla precisione del sistema di tracking. Come abbiamo visto in precedenza, gran parte del 102 “lavoro” era svolto dall’hardware matrix multiplier e clipping divider, tuttavia essi recuperavano le informazioni da elaborare direttamente dal sistema di rilevamento della posizione dell’utente. Quindi se l’obiettivo di Sutherland era quello di calare le persone all’interno di un mondo virtuale che si comporti prospetticamente in modo “credibile”, allora era necessario che tutto il sistema, ed in particolare il dispositivo di tracking, fosse preciso, veloce e quindi affidabile. Per questo motivo Sutherland decise di sperimentare diverse soluzioni di rilevamento, in particolare si concentrò su un sistema ad ultrasuoni sperimentale e su un altro di tipo meccanico. Il sistema ad ultrasuoni era in grado di rilevare, grazie alla combinazione di tre trasmettitori ad onde continue, posti direttamente nel dispositivo head mounted,e 4 ricevitori posizionati sul soffitto in corrispondenza dei quattro angoli della “stanza”, l’esatta posizione della testa dell’utente e i suoi movimenti all’interno di uno spazio prestabilito. Forniva al fruitore dell’esperienza virtuale un grado di libertà di movimento superiore rispetto al sistema meccanico, ma era poco affidabile perché soggetto ad interferenze che compromettevano la lettura corretta delle coordinate spaziali dell’utente. La tecnologia ad ultrasuoni sperimentata da Sutherland era ancora ad uno stato embrionale per questo tipo di applicazioni in cui era necessaria la massima precisione. I risultati raggiunti durante gli esperimenti comunque facevano ben sperare per il futuro. Il sistema meccanico invece venne realizzato appositamente per garantire misurazioni accurate e in tempo reale della posizione della testa. Consisteva in una coppia di tubi che si agganciavano mediante appositi giunti al dispositivo head mounted e ad una serie di binari sul soffitto. Il mechanical head position sensor costringeva l’utente in una morsa vincolante ad un volume di pochi movimenti della testa: 180 centimetri lateralmente e poco meno di un metro in altezza. L’utente comunque era libero di muoversi, voltarsi, inclinare lo sguardo in alto o in basso fino a 40°. 103 Questo tipo di sensore è l’esempio di come la tecnologia analogica-meccanica degli anni '60 superasse in termini di prestazioni ed affidabilità quelle digitali dello stesso periodo. Il reality engine, completo anche della sua componente software, venne avviato per la prima volta il 1°gennaio del 1970 (dopo tre anni di intenso lavoro, suddivisi tra il MIT e l’Università dello Utha). Ciò che apparve davanti agli occhi di Daniel Vickers, studente universitario a cui fu conferito il compito di far funzionare il software congiuntamente agli hardware del dispositivi HMD, fu un cubo wireframe di circa 6 centimetri per lato, un semplice oggetto fluttuante nello spazio, fatto di luce e nulla più, ma comunque presente. Quel cubo rappresentava il futuro. Negli esperimenti successivi, grazie all’utilizzo di computer più potenti, fu possibile costruire un’intera “stanza” che circondava l’osservatore. Le pareti erano sospese nello spazio all’interno della stanza fisica ed ognuna di esse era contrassegnata da lettere (N,S,W,E)che ne indicavano la direzione (North, South, West, East) e C per il soffitto e F per il pavimento. an observer fairly quickly accommodates to the ideas of being inside the displayed room and can view whatever portion of the room he wishes by turning his head. (“Three dimensional head mounted display “ Ivan Sutherland, 1968) La prima stanza del ciberspazio era semplice, quadrata e monocromatica, era la tana del Bianconiglio nella quale Alice cadde prima di approdare nel paese delle Meraviglie (per rimanere in tema con la metafora fatta dallo stesso Sutherland nel suo testo "The Ultimate Display" del 1965), era quel luogo non luogo da cui poteva partire la nuova era dell’esplorazione ciberspaziale. Fin dalla prima dimostrazione di Sketchpad, Sutherland aveva intravisto la possibilità di entrare a stretto contatto con quelle linee che il programma era in grado di generare attraverso semplici ed intuitivi input. Era fortemente convinto, e lo sarà sempre di più durante le sperimentazioni della spada di Damocle, che il ciberspazio possa amplificare le capacità di progettisti e creativi allo stesso modo 104 in cui le altre possibilità informatiche amplificavano le capacità di scienziati e contabili. Affinché i mondi generati dal computer possano amplificare il potenziale umano, è fondamentale che essi siano immersivi e navigabili. L’idea di immersione è un concetto fondamentale che sta alla base delle proprietà della realtà virtuale. Essere immersi in un mondo generato dal computer vuol dire avere l’illusione di essere presenti fisicamente in un luogo in cui ciò che è visibile si comporta esattamente come si sarebbe comportato nella realtà. Immersione non vuol dire per forza simulazione della realtà, ma semplicemente una sua diversa rappresentazione purché sia in grado di convincere i nostri sensi che ciò che vediamo e sentiamo attraverso il dispositivo HMD è “realmente” davanti a noi. Il secondo concetto fondamentale è l’idea di navigazione. Così come aveva notato Sutherland nell’Ultimate Display, il coinvolgimento multi-sensoriale è determinante nel creare un'illusione di presenza fisica accettabile all’interno del mondo virtuale. Per sentirsi parte integrante di un mondo non basta semplicemente osservare ed ascoltare, bisogna interagire, toccare, spostare, modificare gli oggetti che compongono la simulazione. Occorre essere attivi e andarsene in giro (navigare) come se ci si trovasse realmente all’interno di esso. Nelle prime esplorazioni, la spada di Damocle presentava solamente un primo abbozzo di sensazione di immersione, era quasi completamente privo della sua componente esplorativa (navigazione). Daniel Vickers, il primo ad aver assaporato il magico sapore di un cubetto all’interno del ciberspazio, suggerì a Sutherland l’utilizzo di un dispositivo di input da associare al sistema HMD, in modo tale da aggiungere alla semplice presenza passiva, la possibilità di manipolare direttamente gli oggetti ed interagire con essi. Di “navigare”. Un osservatore all’interno dell’ambiente tridimensionale del HMD ha a sua disposizione una bacchetta magica con la quale può raggiungere e “toccare” gli oggetti sintetici che vede. Una bacchetta per creare ed interagire con gli oggetti sintetici visibili soltanto a chi indossa il casco 105 cala gli astanti in un’atmosfera di stregoneria ed è alla base per il suo nome Apprendista Stregone. ("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers) L’Apprendista stregone aumentò sensibilmente il senso di presenza percepito dall’utente all’interno del mondo virtuale poiché implicava un coinvolgimento attivo da parte di altri sensi. Rendeva possibili azioni magiche come far apparire oggetti, allungare, rimpicciolire, ruotare, far scomparire, fondere e separare. Tutto grazie a pochi semplici comandi. scoprimmo che il senso di presenza aumentava quando aggiungevamo la bacchetta. Più sensi vengono coinvolti, più completa è l’illusione ("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers) La possibilità di interagire con il mondo che ci circonda è il fattore determinante che ci permette di conoscere ed esprimere il nostro potenziale e quello di ciò che ci sta attorno. 5.3 Ambienti Virtuali interattivi: Myron Kreuger I concetti di immersione e navigazione all’interno di uno spazio computerizzato non implicano che essi siano per forza generati tramite l’uso di tecnologie specifiche. Le visioni che creano il coinvolgimento sensoriale all’interno dello spazio possono essere plasmate attraverso l’uso di mezzi ottici, elettronici o entrambi. Gli input gestuali che permettono l’esplorazione dell’ambiente in cui si è immersi sono tendenzialmente legati all’uso di dispositivi indossabili, quali Head Mounted Display piuttosto che occhiali, bacchette magiche, tastiere e guanti speciali in grado di rilevare la posizione e i movimenti delle mani (di questi ultimi ce ne occuperemo nel prossimo paragrafo). Tuttavia non sono l’unico modo per poter entrare dentro il computer. Le realtà virtuali, o meglio quelle pratiche tecnologiche che sarebbero diventate le realtà virtuali, a cavallo tra gli anni '60 e '70 erano ancora in una fase sperimentale in cui venivano abbozzate le tecnologie del futuro. Sutherland e i 106 suoi colleghi dell’Università dello Utha costruiscono il primo reality engine capace di proiettare un individuo all’interno di un mondo esplorabile, in cui sono presenti oggetti tridimensionali osservabili da ogni direzione, semplicemente muovendo la testa. La potenza degli elaboratori di questi anni era in grado di gestire in tempo reale solamente immagini geometriche, wire-frame basilari, senza superficie o colore. Per creare mondi virtuali accettabili sia sotto il profilo dell’esperienza che dell’illusione delle presenza all’interno di essi, occorreva un radicale incremento della potenza di calcolo e delle tecnologie di input ed output sensoriali. Oppure sarebbe stato necessario un approccio diverso. Mentre la tendenza delle ricerche e sperimentazioni future sulle realtà virtuali sembra essere destinata verso una simulazione del reale, arricchita da elementi “magici” (finalizzata in particolare alla creazione di strumenti di ambito militare, ARPA, NASA ecc..), una sensibilità non proveniente né dall’ingegneria hardware né da quella software, incominciò a strutturare un’idea di realtà virtuale come mezzo per l’espressione artistica nell’interazione uomo-computer. Myron Krueger era quella sensibilità. Artista e tecnico sognatore, laureato in Computer Science presso l’Università del Wisconsin, così come Morton Heilig e Douglas Engelbart, ebbe una “visione differente” della tecnologia, e come loro fu costretto a lottare duramente affinché le sue idee potessero realizzarsi. Krueger ha sempre sostenuto che gli effetti sonori e visivi, le immagini video e la grafica computerizzata, le tecnologie di input, i dispositivi di output ed i software che controllano tutto il sistema, possono e devono essere considerati come strumenti in grado di suscitare nuovi tipi di comportamenti umani. Le componenti psicologiche, sociali, comportamentali ed artistiche della realtà virtuale sono gli aspetti più interessanti che lo stesso Krueger intende studiare a fondo. La realtà virtuale deve essere soprattutto esperienza umana diretta. Deve essere consapevolezza di un mondo remoto o innaturale che ci permette di sperimentare, 107 esplorare, creare, modificare, conoscere e comunicare attraverso i nostri sensi con ciò che ci circonda. Deve generare e pretendere interazione, poiché è proprio a partire da questo lato esperienziale che è possibile generare nuova conoscenza. Myron Krueger crede così fortemente nelle possibilità espressive delle tecnologie legate alla cultura del ciberspazio, tanto che a partire dalla fine degli anni '60 (parallelamente ai lavori di Ivan Sutherland) incomincia a sperimentare l’utilizzo delle immagini elettroniche interattive all’interno di ambienti artificiali, costruiti manipolando contemporaneamente sia l’aspetto visuale che quello sonoro. La componente virtuale nella concezione Kruegeriana è strettamente legata allo spazio fisico in cui è presente l’osservatore ed è lì che fisicamente avviene l’immersione. L’utente che è all’interno di questi ambienti, non ha bisogno di dispositivi o periferiche invasive per essere proiettato nell’esperienza virtuale, ma è l’ambiente stesso che manifesta la sua virtualità attraverso suoni, immagini e interazioni, direttamente dalle pareti che compongono la stanza. L'individuo si trova così a partecipare consapevolmente ad una manifestazione che si fa gioco dei cliché della percezione del reale attraverso inusuali esperienze, sperimentazioni ed esplorazioni al di fuori della normalità e le possibilità di personalizzare graficamente l'ambiente circostante in cui è inserito il suo simulacro corporeo. All'interno di questi responsive envirorments l'individuo è portato a sperimentare direttamente il linguaggio digitale in tutte le sue forme utilizzando il suo corpo e attraverso i dispositivi di interfaccia può ibridarsi con l'ambiente-macchina in cui è immerso. In poche parole, quello che Krueger intende realizzare è difatti una media room come alternativa ai reality engine. Nell'aprile del 1969 Myron Krueger, presso la Memorial Union Gallery dell'Università del Winsconsin, assieme a Dan Sandin, Jarry Erdman e Richard Venezesky, apre ufficialmente al pubblico GLOWFLOW, la prima di una serie di realtà artificiali, in cui lo consacreranno come uno dei padri fondatori della realtà virtuale. 108 In realtà GLOWFLOW era un progetto Universitario disegnato appositamente per studiare il rapporto tra arte e tecnologie, a cui Krueger era stato invitato a partecipare. GLOWFLOW non faceva uso di grafica computerizzata ma creava effetti visivi tramite l'utilizzo di altre tecnologie. Una semplice rete di tubi riempiti con fluidi fosforescenti collegati sapientemente ad un sistema computerizzato e a sintetizzatori sonori, rendevano uno spazio buio in qualcosa che nessuno aveva mai visto prima. Grazie alla presenza di pannelli sensibili alla pressione incastrati nel pavimento, il pubblico semplicemente camminando all'interno della stanza interagiva inconsciamente con essa. Le pareti dell'ambiente GLOWFLOW erano rivestite da colonne verticali opache e tubi di vetro trasparente orizzontali. Le particelle fosforescenti erano sospese nell'acqua contenuta all'interno dei tubi che veniva pompate velocemente da una parte all'altra della stanza ad ogni input generato dal pavimento. Passando attraverso le colonne opache (che al loro interno contenevano una luce nascosta) i fosfori venivano attivati temporaneamente, generando così vettori di luce che schizzavano nello spazio per poi ritornare nell'oscurità. Simultaneamente all'effetto visivo, venivano eseguiti suoni sintetizzati elettronicamente. Le possibili configurazioni sonore e visive si accendevano e si spegnevano in base ad una serie di istruzioni provenienti dal minicomputer nascosto, che elaborava gli input e ne determinava un conseguente output più o meno casuale. La gente reagiva all'ambiente in modo sorprendente: si formavano gruppi di persone fra loro estranee. Giochi, battimani e canti nascevano spontaneamente. La stanza sembrava soggetta a sbalzi di umore, a volte piombava in un silenzio di tomba, a volte era rumorosa e disordinata. Ognuno si inventava un proprio ruolo. [...] Altri si comportavano da guide, spiegando che cosa erano i fosfori e che cosa stava facendo il computer. Sotto molti punti di vista la gente all'interno della sembrava primitiva, intenta ad esplorare un ambiente che non comprendeva, tentando di farlo corrispondere a ciò che già sapeva o si aspettava. [...] molti erano preparati a sperimentare questo aspetto e se ne andavano convinti che la stanza aveva reagito alle loro azioni in modi determinati, mentre in realtà non era così. ("La Realtà Virtuale" Howard Rehingold, 1993) 109 Lo spettacolo di luci e suoni artificiali che si sviluppava all'interno di GLOWFLOW era veramente qualcosa di mai visto prima e di sicuro impatto emozionale. Tuttavia per Krueger non era importante il fattore estetico in sé, ma riteneva molto più interessante osservare il modo in cui questo nuovo tipo di luogo suscitava forti reazioni umane. Grazie a GLOWFLOW Krueger ebbe il modo di concepire alcune idee che lo influenzeranno nel corso delle successive opere: 1. l'arte interattiva è potenzialmente un medium di rappresentazione ricco, abbastanza distante dalle preoccupazioni della scultura, dell'arte grafica o della musica; 2. al fine di rispondere in modo intelligente, il computer deve poter percepire il più possibile dal comportamento dei partecipanti; 3. al fine di concentrarsi sui rapporti tra gli ambienti interattivi e i partecipanti, è necessario coinvolgere solo un piccolo numero di persone in un dato momento; 4. i partecipanti devono essere consapevoli di come l'ambiente sta rispondendo; 5. la scelta dei sistemi di risposta sonori e visivi deve essere dettata dalla loro capacità di trasmettere una grande varietà di relazioni concettuali; 6. la risposta visiva così come quella musicale e sonora non dovrebbe essere giudicata arte. L'unica preoccupazione estetica a cui bisogna prestare attenzione è la qualità dell'interazione; L'indagine di Krueger all'inizio della sua carriera artistica, circa le caratteristiche peculiari dei computer che avrebbero reso possibile la creazione di una forma pura di computer art, si trasformò, dopo GLOWFLOW, in messa in pratica delle sue stesse ipotesi. Gli ambienti reattivi, come iniziò a chiamarli, divennero laboratori per scoprire i modi in cui gli esseri umani possano entrare in relazione con l'ambiente tecnologico, erano i luoghi di sperimentazione formativa, psicologica ed artistica del comportamento umano nelle sue espressioni sociali. 110 I responsive environments di Krueger non erano semplici espressioni artistiche, ma genuine realtà artificiali che presentavano regole sociali ed opportunità comunicative invisibili, capaci di incoraggiare determinati comportamenti e di scoraggiarne altri, di amplificare alcuni aspetti dell'intelletto umano e di mascherarne altri. Ognuno degli ambienti sviluppati da Krueger indaga su queste possibilità, generando grazie ai partecipanti e alla partecipazione degli ambienti stessi, esperienze immersive e completamente navigabili. Dopo GLOWFLOW del 1969, Krueger si dedicò alla realizzazione di METAPLAY, presentato un anno dopo (maggio del 1970), nuovamente alla Memorial Union Gallery di Madison. Con METAPLAY secondo Krueger "i canoni di arte e bellezza vennero accantonati. L'attenzione si era incentrata sull'interazione stessa e sulla consapevolezza dell'interazione dei partecipanti". Nel nuovo ambiente interattivo Krueger oltrepassò la semplicità di GLOWFLOW , includendo all'interno del sistema videocamere, schermi retroproiettati, grafica computerizzata e circa 800 interruttori sensibili alla pressione. METAPLAY era la messa in pratica delle sue considerazioni dopo GLOWFLOW, si avvaleva della potenza di calcolo di un PDP-12 (il discendente, dieci anni dopo, del PDP-1, che aveva scatenato la "visione" di Licklider) per facilitare una relazione real time tra l'ambiente e i suoi partecipanti. Fig. 14 - L’immagine di sinistra riporta la struttura della camera scura di GLOWFLOW, caratterizzata da tubi fluorescenti. L’immagine di destra invece rappresenta in modo schematico il funzionamento del METAPLAY. 111 L'ambiente progettato da Krueger era composto da due strutture situate in edifici diversi: una stanza METAPLAY (dove avviene la partecipazione) e una dedicata alla regia. Una parete della stanza METAPLAY era occupata da un enorme schermo di retroproiezione (250 cm x 300 cm) in cui veniva proiettato l'otuput visivo. Una videocamera, posizionata davanti allo schermo, era puntata direttamente verso i partecipanti e consentiva di acquisirne in tempo reale l'immagine video. All'interno del centro di controllo, situato a circa quattrocento metri di distanza, c'era l'artista (che non per forza doveva essere tale) che poteva disegnare attraverso una tavoletta grafica e visualizzare il risultato su un sistema special purpose. Una seconda videocamera acquisiva le immagini generate dall'artista, le inviava ad un mixer che le combinava assieme a quelle generate dalla videocamera nella stanza METAPLAY. Sia le immagini computerizzate che le quelle convertite erano sotto il controllo diretto dell'operatore che aveva il compito ed il potere di sovrapporre le immagini computerizzate tracciate con la tavoletta grafica alle immagini del pubblico dell'altra sala. Alcuni comandi erano stati programmati in modo tale da consentire all'artista di manipolare le immagini, rimpicciolirle, espanderle, applicare ad esse effetti speciali. I partecipanti potevano guardare lo schermo ed osservare le proprie immagini video; talvolta quelle immagini video venivano arricchite dalle immagini grafiche generate dall'artista nel centro di controllo. Gli interruttori sensibili alla pressione, che erano nascosti nel pavimento sotto una superficie di polietilene nero, consentivano ai partecipanti di interagire con gli output visivi e sonori mediati dall'operatore del un centro di controllo. Con l'obiettivo di provocare una reazione in uno dei primi gruppi in visita al METAPLAY, Krueger scelse uno dei partecipanti ed utilizzò la tavoletta grafica per sovraimporre un contorno luminoso alla sua mano. Quando il partecipante muoveva la mano, Krueger velocemente disegnava un nuovo contorno della mano nella sua nuova posizione. Poi il partecipante rovesciò la situazione trasformando 112 Krueger da artista a collaboratore di una performance: cominciò ad utilizzare il dito come una stilo ed imitò l'atto di disegnare una linea a mezz'aria. Krueger disegnò una linea che seguiva il suo gesto. La linea apparve sullo schermo e fu vista da tutti i partecipanti. Improvvisamente i partecipanti scoprirono che era possibile interagire con le immagini sullo schermo e che potevano passarsi il controllo del dito magico toccandosi le dita. Krueger continuò a giocare con i partecipanti in una forma di interazione che non era stata prevista inizialmente, rivelatasi grazie al comportamento dei partecipanti e questi ultimi continuarono ad esprimere se stessi attraverso le nuove possibilità offerte dallo spazio artificiale, scoprendo così un nuovo strumento. Tra maggio e giugno del 1971, presso la Memorial Union Gallery, Krueger esibisce PSYCHIC SPACE, un ambiente composito ideato come strumento per creare al suo interno tutta una serie di realtà e sperimentazioni differenti: era sia uno strumento di espressione musicale che una ricca esperienza di visione interattiva. Le pareti ed il soffitto erano ricoperte di polietilene nero, e il pavimento, così come per i precedenti responsive environment, era composto da una fitta griglia di moduli sensibili alla pressione. Una delle pareti in realtà era un finto muro che “nascondeva” l’enorme schermo di retroproiezione, dove veniva presentato ai partecipanti l’output visivo, e un elaboratore PDP-11 che aveva il controllo degli input proveniente dai sensori e del suono all’interno della stanza. Il computer comunicava inoltre con la cabina di controllo, situata dall’altra parte del campus, in cui un Graphic Computer Display Adage AGT-10 (lo stesso tipo di elaboratore grafico di METAPLAY) elaborava in tempo reale i dati ricevuti dal PDP-11 e generava il flusso video (tramite una videocamera puntata direttamente sul monitor grafico) che veniva proiettato all’interno della stanza PSYCHIC SPACE. In questo modo, la stretta relazione tra i movimenti dei partecipanti all’interno dello spazio fisico e la conseguente risposta dei dispositivi di output era resa esplicita nella progettazione dell’ambiente stesso. 113 L’obiettivo di Krueger era quello di incoraggiare i partecipanti ad esprimere se stessi attraverso un ambiente sensibile che reagiva direttamente (e in modo evidente) in base ai loro movimenti. Una delle prime applicazioni di PSYCHIC SPACE consisteva in un semplice gioco di interazione: un programma rispondeva automaticamente ad ogni passo delle persone che entravano all’interno della stanza con suoni elettronici. La tipica reazione, subito dopo aver “svelato” il meccanismo di interazione, era quella di saltare da una parte all’altra del pavimento, di rotolare, di correre, di scivolare ecc... Altri esperimenti di questo tipo vennero proposti nel corso dell’esposizione di PSYCHIC SPACE, ma è con The Maze che Krueger riuscì a creare all’interno dello spazio virtuale definito dal display video e dal pavimento in grado di rilevare la posizione del partecipante, un'esperienza interattiva più Fig. 15 - Appunti di Krueger riguardanti PSYCHIC SPACE. articolata e decisamente più interessante. Camminando all’interno di PSYCHIC SPACE da solo, un partecipante a The Maze riconosce sullo schermo un simbolo grafico corrispondente alla sua posizione fisica nella stanza. Ogni suo spostamento nello spazio è corrisposto da uno equivalente del simbolo grafico presente nello schermo (spostandosi in avanti il simbolo grafico si muove verso la parte alta dello schermo, allontanandosi dallo schermo fa spostare il simbolo verso la parte bassa dello schermo). Quando il partecipante sembra aver capito la relazione tra il movimento all’interno dello spazio e la posizione dell’oggetto grafico, il sistema interviene inserendo un secondo simbolo sullo schermo in un punto differente. Il partecipante inevitabilmente cercherà di capire cosa succede se raggiunge la stessa posizione del nuovo oggetto grafico. Una volta raggiunto il target il 114 labirinto appare magicamente sullo schermo: il partecipante si muove fisicamente nell’ambiente oscuro e non visibile, proiettandosi all’interno del labirinto virtuale osservando se stesso sotto forma di simbolo. Il cercare di uscire dal labirinto, quindi raggiungere l’ipotetica vittoria del gioco, generava un ulteriore labirinto. Ben presto il partecipante scopriva che non c’era un modo chiaro per vincere. Se il partecipante decideva di “imbrogliare” passando attraverso i muri virtuali del labirinto, il sistema reagiva deformando se stesso o semplicemente sfasava la posizione del simbolo grafico (rappresentante lo spettatore) rispetto alla sua posizione all’interno della stanza. In questo modo lo scopo dell’interazione iniziava a diventare più chiaro: Krueger voleva giocare con i confini mentali che finge esistano, come regole di un labirinto senza regole2. The Maze era un gioco concettuale che utilizzava movimenti e segnali visivi come segni che venivano interpretati all’interno dello spazio di PSYCHIC SPACE per creare un luogo virtuale che esisteva all’interno della mente del partecipante. Uno spazio psichico nascosto all’interno di una stanza buia che era il risultato di un processo di sperimentazione, frustrazione, interazione, esperienza, esplorazione e continua scoperta. Gli esperimenti di Krueger condotti tra il 1972 e il 1974 sull’utilizzo di sistemi differenti per rilevare la posizione di persone all’interno di un ambiente e reagire alle immagini video, lo condussero allo sviluppo di un vero e proprio engine per Artificial Reality. Il suo successivo lavoro è stato il frutto di questi esperimenti e fu progettato per diventare un laboratorio espandibile, che nel corso degli anni si sarebbe arricchito di nuove funzionalità e tecnologie. VIDEOPLACE nel 1975 era quel laboratorio, seppur in versione preliminare. Grazie alla sua decennale esperienza nello sviluppo di sistemi di rilevamento dei gesti e delle posizioni delle persone all’interno di uno spazio fisico, alle capacità di mixaggio video e della computer grafica, Krueger iniziò a rendersi 2 "La Realtà Virtuale" Howard Rheingold, 1993 115 conto di come l’evoluzione della potenza degli elaboratori poteva accrescere le possibilità di interazione dei suoi responsive environments. Inoltre aveva ormai capito che, mentre i corpi dei partecipanti sono vincolati da leggi fisiche (gravità), le loro immagini potevano essere spostate sullo schermo, ridotte, ruotate, colorate e digitate insieme in modo arbitrario. Quindi una maggiore potenza di elaborazione video poteva essere utilizzata per mediare l'interazione e le consuete leggi di causa ed effetto con alternative proposte dall’artista. Ben presto VIDEOPLACE divenne l’incarnazione delle sue idee sugli ambienti creati dalle percezioni umane stimolate o mediate da tecnologie video ed informatiche. VIDEOPLACE è un ambiente concettuale privo di esistenza fisica. Riunisce persone situate in luoghi differenti all’interno di un’esperienza visiva comune, permettendo loro di interagire in modi inaspettati tramite il mezzo video. Il termine VIDEOPLACE è basato sulla premessa che l’atto della comunicazione crea un luogo che è composto dalle informazioni che tutti i partecipanti condividono in quel momento. [...] VIDEOPLACE tenta di aumentare questa percezione del luogo, includendo la visione, la dimensione fisica ed una nuova interpretazione del tatto. ("La Realtà Virtuale" Howard Rehingold, 1993) Le prime versioni di VIDEOPLACE consistevano in due o più stanze separate geograficamente (che possono essere adiacenti o a centinaia di chilometri di distanza) l’una dall’altra. In ogni ambiente una sola persona poteva entrare in una stanza buia dove videocamere, mixer e proiettori consentivano di interagire con le immagini video provenienti dalle altre stanze. L’aspetto più interessante di questo tipo di interazione a distanza era che le persone si identificavano con le proprie immagini video, anche se sotto forma di silhouette. Quelle silhouette li rappresentavano non solo visivamente, ma anche fisicamente, erano la loro trasposizione in uno spazio virtuale. Durante i primi esperimenti di VIDEOPLACE, Krueger ed un suo assistente (situato in un’altra stanza remota) stavano usando le mani per indicare gli oggetti all’interno dello spazio virtuale condiviso: l’immagine della mano di Krueger si sovrappose a quella del sua 116 assistente che reagì di istinto spostando la mano, proprio come se fosse stato toccato fisicamente. Il nuovo spazio comunicativo non era solamente qualcosa di immateriale in cui le immagini video potevano interagire tra loro, ma era un vero e proprio spazio corporeo con precise sensibilità sui confini del corpo virtuale degli altri partecipanti. Le azioni e i movimenti delle silhouette dei singoli partecipanti provocavano reazioni fisiche, visceralmente connesse con la percezione di sé stessi all’interno dell’ambiente condiviso. Fin dal 1977 Krueger riconobbe le potenzialità comunicative di VIDEOPLACE. VIDEOPLACE non era solamente un nuovo modo di interagire con il computer, ma era anche una nuova forma di telecomunicazione. L’ambiente reattivo non si limita all’espressione estetica. È un potente strumento con applicazioni in molti campi. VIDEOPLACE generalizza in modo chiaro l’atto della telecomunicazione. Crea una forma di comunicazione così potente che due persone potrebbero scegliere di incontrarsi virtualmente, anche se fosse possibile per loro incontrarsi fisicamente. ("La Realtà Virtuale" Howard Rehingold, 1993) Fig. 16 - Esempi di rappresentazioni in VIDEOPLACE. La struttura di VIDEOPLACE rimane sostanzialmente la solita di PSYCHIC SPACE e METAPLAY, una stanza con uno schermo video delle dimensioni di una parete ed una videocamera. Quello che Krueger cercò di implementare era l’hardware necessario per visualizzare le immagini, mescolarle con elementi grafici e per conferire alla stanza una maggiore sensibilità nel comprendere il comportamento umano. 117 Krueger fece esattamente ciò che Ivan Sutherland aveva fatto con il primo display Head Mounted quando costruì gli hardware special purpose clipping divider e matrix multiplier per eseguire le funzioni speciali complesse, di cui il suo sistema aveva bisogno, il più velocemente possibile. Implementò, tramite una combinazione hardware e tecniche software di analisi delle immagini video, un sistema special purpose per riconoscere a partire dalle silhouette i gesti e la posizione dei partecipanti all’interno di VIDEOPLACE. Concentrandosi sulle linee che formano le silhouette, Krueger era in grado di rilevarne i contorni, determinare le intersezioni degli oggetti, calcolare l’orientamento e il movimento. Una linea su uno schermo visibile ad un partecipante consiste in una serie di pixel adiacenti che vengono attivati dal fascio di elettroni del tubo a raggi catodici; la posizione e lo stato dei singoli pixel (come avvenne per l’ideazione dell’interfaccia grafica bit-mapped) possono essere memorizzati ed aggiornati nella memoria del computer. Il computer conseguentemente, tramite una moltitudine di calcoli, può determinare se una linea è in quiete o in movimento, può rilevate la sommità o la base di un’immagine, può distinguere le linee rette dalle curve. Grazie a queste e ad altre analisi di questo tipo, in pratica diventa possibile creare in tempo reale un modello dei movimenti dei partecipanti ripresi dalla videocamera. Krueger costruì processori speciali (algoritmi di visione ottimizzati nel silicio) per ognuna di queste analisi delle immagini video. Divennero circa 12 nel 1990. Krueger con VIDEOPLACE voleva essere in grado di esaminare una silhouette video e determinare automaticamente se la persona nell’immagine stava facendo un gesto. Il suo obiettivo divenne più raggiungibile grazie allo studio approfondito della modalità della percezione umana: i nostri occhi sembrano avere circuiti dedicati per scoprire contorni, oggetti che si muovono velocemente, punti di rosso, piccole quantità di luce e movimenti impercettibili all’interno di grandi spazi. Grazie a queste “scorciatoie” possiamo riconoscere le forme e i loro movimenti senza pensarci. Krueger capisce quindi che nel contesto di un corpo 118 umano la linea più alta di una silhouette rappresenta la sommità della testa, l’estremo più a destra di una linea sottile significa la punta di un dito e che la punta di un dito indica prestare attenzione a dove esso è puntato. Tramite accorgimenti di questo tipo, VIDEOPLACE raggiunge un livello di sensibilità mai raggiunti prima, rappresenta la massima espressione delle idee di realtà artificiali che Krueger voleva manifestare al mondo. Uno degli esperimenti più significativi di VIDEOPLACE legati alla sensibilità del contesto, si chiamava CRITTER. Fig. 17 - Esempio di interazione tra una persona e CRITTER. All’interno di una stanza assieme all’immagine video della silhouette del partecipante, appare una piccola creatura artificiale animata, rotonda con quattro zampette, che è in grado di interagire direttamente con essa: se l’utente sta fermo CRITTER si muove verso di esso, se cerca di prenderlo l’animaletto fugge. A seconda dei movimenti e della successione delle interazioni con il personaggio animato e con l’ambiente circostante, CRITTER eseguirà azioni e si atteggerà apparentemente con modalità tipiche di una creatura intelligente. 119 Gli ambienti descritti da Krueger nel corso della sua brillante carriera all’interno dell’artificial reality, suggeriscono un nuovo mezzo d'arte sulla base di un impegno di interazione in tempo reale tra uomini e macchine. Tale mezzo artistico è composto da sensori, display e sistemi di controllo. Accetta input dai partecipanti e genera output riconoscibili come corrispondenti al loro comportamento. Il rapporto tra input e output è arbitrario e variabile, progettato in modo tale da permettere all'artista di intervenire tra l'azione dei partecipanti e i risultati percepiti attraverso gli schermi o esperienze sonore. All’interno dei responsive environment di Krueger il movimento fisico del partecipante può causare suoni, generare immagini grafiche, sovrapposizioni video che gli consentono di navigare all’interno di uno spazio visivo definito un computer. È la composizione dei rapporti tra azione e reazione che è importante. La bellezza della risposta visiva e auditiva degli ambienti che crea, è del tutto secondaria. La risposta è il mezzo! L’indagine di Krueger è legata soprattutto alle modalità con cui il medium diventa strumento in grado di approfondire gli aspetti comportamentali, psicologici e comunicativi che avvengono all’interno delle esperienze artificiali. Così come una forma d’arte, i medium di Krueger sono unici. Invece di creare un dipinto, una scultura, l’artista delle realtà artificiali sta creando una sequenza di possibilità. Al contrario, il pubblico non è semplicemente l’osservatore distaccato museale, ma è attivamente coinvolto nella creazione dell’opera d’arte. Le opere di Krueger sono dei contesti di interazione, in cui i fruitori possono dare vita, più o meno spontaneamente e collettivamente all’evento artistico, che è in continuo divenire e sempre mutevole. Il senso dell’opera è costruito attivamente attraverso l’azione fisica dei partecipanti all’interno dell’ambiente stesso, ma è soprattutto grazie al mezzo tecnologico che è possibile generare una fusione tra il corporeo e gli elementi video-grafici dei responsive environments. Un altro aspetto determinante delle opere di Krueger (data la loro caratteristica di essere luoghi sensibili al comportamento umano) è che i complessi elementi 120 fondamentali che stanno alla base del loro linguaggio e dei loro meccanismi di interazione, sono facilmente elaborabili dalla mente del fruitore in modo semplice ed intuitivo, creando così un continuo scambio di aspettative, illusioni, azioni e reazioni tra l’ambiente e il partecipante. Ognuna delle esperienze dei mondi di Krueger è strettamente personale, ed è legata alle capacità espressive e creative di ogni singolo individuo che vi partecipa: l’opera, e conseguentemente il suo significato, quindi non è unica, ma sono tante quanti sono i personaggi che interagiscono con essa. man-machine interaction is usually limited to a seated man poking at a machine with his fingers...I was dissatisfied with such a restricted dialogue and embarked on research exploring more interesting ways for men and machines to relate. (Myron Krueger) 5.4 L’ingresso nel Cyberspazio L’idea di interagire con un ambiente fisico intelligente, che capisce i nostri comportamenti, rispondendo di conseguenza, e che proietta la mente umana all’interno di una nuova forma di esperienza artificiale strettamente collegata allo spazio in cui si trova il corpo, può essere considerata per molti aspetti rivoluzionaria. Sebbene i primi approcci alle realtà virtuali tra la fine degli anni '60 e la prima metà degli anni '70 siano da considerare come i primi “voli” dei fratelli Wright, avevano comunque tracciato il percorso da seguire per ciò che avrebbe dovuto essere il futuro. Ivan Sutherland sperimentò i primi dispositivi Head Mounted e i primi dispositivi di input gestuali (apprendista stregone), diversamente Myron Krueger aveva concepito un'idea differente di realtà virtuale: non sarebbero stati gli ingombranti (ed isolanti) marchingegni a condurre l’uomo all’interno di mondi artificiali, bensì le pareti di una stanza appositamente studiata. A Myron Krueger, come abbiamo visto, interessavano gli aspetti artistici, comportamentali, performativi e comunicativi che potevano essere generati all’interno di questi ambienti. Inevitabilmente per raggiungere il suo scopo ha 121 dovuto costruire hardware special purpose ed utilizzare tecnologie informatiche all’avanguardia (come il riconoscimento delle forme, degli input corporei ecc...), “influenzando”, visti i risultati raggiunti, anche altri pionieri dei mondi artificiali in quella che era la sua idea di approccio alle realtà virtuali. La Media Room costruita dai ragazzi dell’Architecture Machine Group (ARCHMAC3) del MIT può essere considerata come il frutto dell’influenza di Krueger negli ambienti di ricerca più legati all’ARPA e ad un certo tipo di concezione delle tecnologie. Era una stanza dalle dimensioni e dall’aspetto simili ad un comune ufficio, al suo interno però c’erano un mini computer che controllava i display e gli altri device della stanza, una sedia controller e uno schermo di retroproiezione grande come una parete. Come negli ambienti di Krueger, questa stanza era un dispositivo di immersione all’interno di un mondo virtuale, ma differisce da essi in quanto la personificazione del fruitore con ciò che lo circonda visivamente, sonoramente, fisicamente, avviene come una navigazione all’interno di uno spazio di informazioni. La Media Room è il mezzo principale dell’ARCH-MAC per condurre ricerche nell’ambito di ciò che chiamano Spartial Data-Managment System o SDMS. Un concetto molto interessante che incominciò lentamente a prendere forma già a partire dalla fine degli anni '70. Secondo i ricercatori dell’ARCH-MAC, soprattutto per Richard Bolt e Nicholas Negroponte, i dati immagazzinati all’interno dei computer potevano essere rappresentati in qualche forma visibile ed esplorati cognitivamente, eseguendo una specie di navigazione fisica attraverso il mondo dei dati. 3 Nel 1967 all’interno del MIT grazie anche al sostegno dell’ARPA, Nicholas Negroponte fonda l’Architecture Machine Group (ARCH-MAC), un laboratorio creativo che aveva come obiettivo principale lo studio di nuovi approcci all’interazione uomo-computer. I computer, secondo Negroponte avrebbero potuto accrescere le potenzialità intellettuali e l’immaginazione degli esseri umani combinando le capacità di rappresentazione cinematografiche con il potere di elaborazione delle informazioni tipico dei calcolatori.Così come precedentemente accaduto all’ARC e successivamente al PARC, all’interno dell’ARCH-MAC si voleva inventare il futuro. I loro esperimenti partirono dall’esplorazione delle tecnologie già disponibili e si indirizzarono su quelle che sarebbero da li a poco arrivate (riconoscimento vocale, film olografici).I campi di ricerca dell’ARCH-MAC comprendevano le scienze cognitive, quelle informatiche, quelle cinematografiche e quelle delle telecomunicazioni. Nel 1985 L’ARCH-MAC diventa MEDIA LAB, tuttora ancora attivo presso il MIT quale istituto di ricerca sulle tecnologie, il design e il multimedia. 122 Ciò che loro chiamano appunto Dataland (1979). Si tratta di un prototipo di mondo virtuale fatto di informazioni computerizzate, una finestra visiva all’interno dei dati personali dell’operatore (i programmi e i file che noi oggi chiamiamo electronic desktop). La navigazione in questo ambiente non è come quella che può avvenire su un computer “normale” dei primi anni '80, ma è di tipo multimediale (ricca di grafica e suoni) e soprattutto fisicamente immersiva. L’utente, che era sulla sedia, veniva proiettato grazie ai monitor e allo schermo-parete all’interno del Dataland, dove poteva letteralmente “volare” attraverso la rappresentazione bidimensionale di una struttura di dati tridimensionale. Era l’ingresso concettuale all’interno del ciberspazio. Nel 1982 usciva nelle sale cinematografiche americane il film TRON, che incarnò l’immaginario delle realtà virtuali e introdusse il grande pubblico all’interno del Dataland dei computer. Look, just so I can tell my friends, what this dream is about, okay? Where am I? 4 Nel 1984 lo scrittore William Gibson, nel suo romanzo intitolato Neouromancer,, coniò il termine cyberspace (ciberspazio) e ne descrisse le peculiarità, come immense strutture di dati nell'allucinazione vissuta consensualmente in cui milioni di persone partecipavano collegandosi direttamente con i loro sistemi nervosi. Una rappresentazione grafica di dati di dati ricavati dai banchi di ogni computer del sistema umano. Impensabile complessità. Linee di luce allineate nel non-spazio della mente, ammassi e costellazioni di dati. Come luci di una città che si allontanano... ("Neouromancer" William Gibson, 1984) L’ingresso nel Dataland era ancora ben lontano dal poter essere realizzato tecnicamente, ma produsse un movimento culturale che influenzò notevolmente 4 Citazione dal film "TRON" di Kevin Flynn, 123 l’immaginario collettivo sui concetti di information tecnology, cibernetica, high tech e più in generale su tutto ciò che riguarda il rapporto tra le tecnologie informatiche e gli esseri umani. Il Dataland e l’ingresso nel ciberspazio sono gli obiettivi dei ricercatori dell’ARCH-MAC e forse sono la diretta conseguenza di ciò che Engelbart diceva a proposito della necessità dell’uomo di trovare altri strumenti, altre tecnologie che permettano sempre più di far fronte alle complessità degli stessi strumenti che stavano creando. La Media Room dell’ARCH-MAC grazie alla sua interfaccia fisica creava un real space environment, in cui lo spazio virtuale grafico e l’immediatezza dell’ambiente reale in cui si trova l’operatore, convergevano in un continum spazio interattivo. La consapevolezza dello spazio reale in cui si trovano gli utenti è ben evidente nelle modalità di interazione del sistema Put That There (metti quello lì). Put That There (1980) era un esperimento all’interno della Media Room dell’ARCH-MAC, realizzato da Christopher Schmandt ed Eric Hulteen, sotto la supervisione di Richard Bolt, in cui vennero collegati due sistemi tecnologici innovativi al fine di creare nuove modalità di interazione con agli ambienti. Il primo di questi era il riconoscimento vocale, mentre il secondo era un dispositivo di rilevamento della posizione nello spazio (ROPAMS, Remote Object Position Attitude Measurement System 5, sviluppato dalla Polhemus Navigation Science, Inc). Grazie alla combinazione di questi elementi e al display parete della Media Room, riuscirono a sviluppare un'interfaccia a comando gestuale-vocale. Un operatore si sedeva sulla sedia di fronte allo schermo (che poteva visualizzare una mappa generata dal computer piuttosto che un calendario), puntava il dito verso il target desiderato, pronunciando al alta voce una serie di comandi vocali del tipo “Put That”, poi spostava il dito verso un qualsiasi altro punto dello schermo e diceva “...There”. Il computer eseguiva il comando: spostava l’oggetto selezionato con la punta delle dita nel punto indicato. 5 124 L’aspetto interessante di questo tipo di ambiente virtualizzato ed intelligente è che si avvale di un linguaggio di interazione naturale che combina gesti e voce, tipico per esempio, della comunicazione con i bambini. “Metti quello lì” è un'indicazione umana che non può non prescindere dalla consapevolezza sia di colui che chiede l’azione (operatore) che di colui che la compie (computer), dell’essere compresenti all’interno dello stesso ambiente (Media Room) che è da una parte fisico (la stanza dove l’utente indica e pronuncia i comandi) e dall’altra virtuale (la proiezione dello spazio artificiale sullo schermo). Fig. 18 - Esempio del funzionamento di “Put That There” A partire 1978, parallelamente ai progetti Dataland e Put That There, all’ARCH-MAC incominciarono a sperimentare i cosiddetti viaggi simulati. Scott Fisher, all’epoca soprannominato “l’uomo 3D”, esperto della computer grafica e della creazione di ambienti virtuali tridimensionali, si spostò all’ARCH-MAC per 125 partecipare al progetto. Nel giro di poco tempo riuscirono a creare uno strumento informativo chiamato Aspen Movie Map (o semplicemente Aspen Map), tutt’ora riconosciuta da tutti come un importante predecessore della realtà virtuale. La Movie Map in un certo senso era l’evoluzione naturale del Sensorama di Morton Heilig degli anni '60. Il prototipo sviluppato da Heilig, così come quello dell’ARCH-MAC, sebbene con modalità completamente differenti, era in grado di offrire al fruitore della simulazione di un ambiente tridimensionale convincente che lo circondava e lo integrava al suo interno. L’utente poteva sentirsi parte di esso, o meglio, completamente immerso in esso. Tuttavia l’esperienza simulata di Heilig era una visione di tipo passivo, in quanto l’utente si limitava semplicemente ad osservare il mondo che si sviluppava attorno a lui. Vent’anni dopo invece, grazie alle tecnologie informatiche digitali e il talento di Fisher, il contesto della Aspen Map divenne navigabile. L’utente si trasforma in operatore attivo, in grado di muoversi più o meno liberamente all’interno della simulazione. La Movie Map era un prototipo di Mondo Virtuale diverso, ma decisamente interessante. Può essere considerato l’ascendente diretto di quello che oggi è il sistema di map browsering interattivo più famoso e forse più utilizzato online: Google Street View. La tecnologia si è gradualmente orientata verso gli ambienti di simulazione personale a basso costo nei quali lo spettatore è anche in grado di controllare il proprio punto di vista all’interno di un ambiente virtuale - una possibilità importante che mancava al prototipo del Sensorama. un esempio in tal senso è la Aspen Movie Map.... Immagini della città di Aspen, in Colorado, sono state riprese, con un sistema di ripresa speciale montato su un tetto di un’automobile, col quale sono stati filmati ogni strada ed ogni angolo della città, combinando il tutto con riprese della città dall’alto di gru, di elicotteri, di aeroplani e riprese degli interni degli edifici. La Movie Map ha dato agli operatori la possibilità di sedere di fronte ad uno schermo sensibile al tocco e di guidare nella città di Aspen a proprio piacimento, imboccando tutte le strade che volevano, toccando lo schermo, indicando quali svolte volevano fare ed in quali edifici volevano entrare. (Scott Fisher) Se da un lato Myron Krueger e i ricercatori dell’ARCH-MAC sembravano non amare l’utilizzo di dispositivi di realtà virtuale, come HMD o sistemi di input 126 indossabili, l’obiettivo di Jaron Lanier e della sua VPL Research Inc fu proprio quello di sviluppare questi nuovi strumenti di controllo, al fine di migliorare le possibilità di interazione e navigazione all’interno dei mondi generati dal computer (e creare un vero e proprio business). Jaron Lanier era un tipo strambo per un’idea apparentemente stramba. Non si interessò di computer fino a che non si convinse che "l’informazione è esperienza alienata", non era per nulla contento di come la vita doveva essere spezzettata in frammenti binari per venire modellata dai computer, ma visceralmente era attratto da essi in particolare per l’idea che potessero essere facilmente utilizzati come strumenti musicali. All’epoca si considerava prevalentemente un musicista. L’incontro diretto con i primi computer lo ispirarono a pensare a come modellare mondi, sentiva che quelle immagini che magicamente apparivano sullo schermo, frutto di decenni di ricerca e di lavoro da parte dei pionieri informatici di prima generazione (Engelbart, Licklider ecc...), erano piccole realtà che potevano essere mutate. Nel 1981, dopo aver abbandonato gli studi e anche le speranze di diventare compositore, si diresse nel cuore della Silicon Valley, che in quel periodo era il centro del mondo (informatico), a bordo di un auto “senza tetto, che si metteva in moto con un cacciavite e che aveva fori di proiettile su un lato” (era un’automobile abbandonata dai narcotrafficanti). Cercò di guadagnare qualche soldo realizzando effetti sonori per videogiochi elettronici e parallelamente imparò l’arte della programmazione. Trovarsi a metà degli anni '80 nella Silicon Valley nel pieno splendore del rinascimento elettronico, dove il boom dei personal computer e dei videogiochi aveva portato alla nascita di società come la Apple Computer o l’Atari (solo per citarne alcune), ed avere il talento e la visione di chi sapeva che le immagini sugli schermi erano in realtà mondi plasmabili, poteva sicuramente essere un'opportunità da non lasciarsi scappare. Bastava cogliere l’occasione giusta, quella che Jaron Lanier stava cercando e che aveva cercato durante tutta la sua 127 vita (e i suoi viaggi in tutti gli Stati Uniti). Puntualmente, dato il suo talento, la chance si manifestò sotto forma di lavoro da programmatore di videogiochi per l’Atari. Nel 1983 realizzò Moondust6. Fu un successo. Fig. 19 - Rappresentazione di Moondust. Guadagnò abbastanza soldi da potersi licenziare e tentare la fortuna come imprenditore. Lanier aveva un’idea ben precisa di come le potenzialità dei computer potessero generare simulazioni, suoni, immagini e modelli dinamici da condividere e scambiare con altre persone allo stesso modo in cui questi riescono a scambiarsi parole dette o scritte. È a partire da tali concetti che Lanier si avviò allo sviluppo di un nuovo linguaggio di programmazione, completamente diverso da qualsiasi altro, un linguaggio che sarebbe potuto essere utilizzato anche da non esperti del settore, e che avrebbe sfruttato immagini e suoni per comunicare con le funzioni primarie del computer al posto di aridi codici alfanumerici. L’idea di questo nuovo linguaggio maturò inizialmente dal suo desiderio di creare nuove forme musicali attraverso strumenti simulati al computer, 6 Moondust è il primo art video game in cui si impersona un astronauta, di notevole complessità grafica e con punteggio astratto, assegnato tramite un algoritmo. 128 successivamente, in corso d’opera, Lanier capì che tale sistema sarebbe potuto essere applicato ad un linguaggio di programmazione generico, che sarebbe stato in grado di fare uso di una notazione puramente simbolica. Il Mandala (il nome scelto da Lanier per questo progetto) invece delle solite incomprensibili (per i non esperti) sequenze di istruzioni logiche fatte di “if”, “else”, variabili e numeri, utilizzava disegni di canguri, cubetti di ghiaccio, uccelli cinguettanti rappresentati su un pentagramma musicale. Questi simboli erano ugualmente incomprensibili, ma di gran lunga più affascinanti perché erano il frutto di una simulazione grafica dinamica delle funzionalità del computer. Erano dei mondi virtuali, una fusione tra le capacità di linguaggio delle macchine con quello iconico, in grado di suscitare nell’uomo un più elevato stato di immersione all’interno di essi. Lanier era convinto che i linguaggi di programmazione fossero in realtà la forma larvale di qualcosa di gran lunga più interessante, che era ormai prossimo ad arrivare. Potevano diventare qualcosa di altrettanto importante quanto la comunicazione simbolica, “una nuova forma di comunicazione sullo stesso livello del linguaggio parlato e della scrittura”. Definisce questo futuro metalinguaggio potenziato dal computer “comunicazione post-simbolica”. Quando scrivi un programma e lo mandi a qualcun altro, specialmente se il programma è una simulazione interattiva, è come se stessi creando un mondo nuovo, una fusione del regno simbolico con quello naturale. Invece di comunicare simboli come lettere, numeri, immagini o note musicali, crei universi in miniatura che hanno i loro propri misteri da scoprire (Jaron Lainer, intervista di Howard Rehingold) Con il Mandala nasce più o meno ufficialmente la VPL Research, Inc, ma è grazie all’incontro del guanto di Thomas Zimmerman (1983), che le realtà virtuali divennero parte integrante della ricerca e della vita di Jaron Lanier. Thomas Zimmerman nel 1981, più o meno nello stesso periodo in cui Lanier arrivò nella Silicon Valley, era alle prese con esperimenti domestici sulla retroazione dei gesti corporei. Anche lui come Lanier si interessava di musica e stava cercando un modo intelligente e pratico per realizzare un dispositivo di input gestuale che fosse in 129 grado di controllare un sintetizzatore musicale. Pensò che la mano potesse essere lo strumento più adatto al suo scopo, o meglio che attraverso un guanto appositamente progettato, avrebbe potuto determinare facilmente la flessione delle dita e i relativi cambiamenti in tempo reale, quindi tramite lo sviluppo di un software ad hoc, simulare per esempio l’atto di suonare una chitarra senza necessità di averla fisicamente in mano. Un po' come quando ci si lascia trasportare dai riff chitarristici e dal ritmo della musica, simulando di suonare lo strumento contemporaneamente all’ascolto della canzone. Solo che il guanto di Zimmerman avrebbe prodotto suoni veri. Strumenti di questo tipo, a dire la verità esoscheletri, costringenti per le mani più che guanti, erano già stati sperimentati a partire dagli anni '50, ma erano troppo scomodi e poco precisi, così comprò un guanto da lavoro e componenti per un valore inferiore ai 10 dollari e iniziò a costruire il primo prototipo. Nel 1982 Zimmerman brevettò il suo guanto ottico in grado di rilevare la flessione delle dita. Gli venne assegnato l’US Patent No 4,542,291. Il sensore del dispositivo era costituito da un tubo flessibile con superficie interna riflettente ed estremità aperte in modo tale che da un lato di una delle due estremità possa essere posizionata o una sorgente luminosa e, all’altro capo, un rilevatore fotoresistivo, oppure in alternativa ad una fonte luminosa generica, poteva essere utilizzata una fibra ottica (di gran lunga più precisa) in modo tale che l’intensità e la combinazione dei raggi di luce diretti o riflessi potessero rilevare quando il tubo flessibile è piegato. Il tubo flessibile può essere di gomma nera o qualsiasi altro materiale idoneo, mentre la parete interna può essere trattata con vernice alluminio a spruzzo. Nella posizione di non flessione delle dita il tubo è dritto, consentendo alla luce emessa dalla sorgente di colpire direttamente il rivelatore fotosensibile. Quando il tubo viene piegato dal movimento delle dita, la luce ricevuta sarà una combinazione di luce diretta o riflessa. La quantità di luce diretta che raggiunge il rivelatore fotosensibile diminuisce man mano che la flessione del tubo aumenta, fino a raggiungere il momento in cui tutta la luce che 130 raggiunge l’altra estremità del tubo (dove è posizionata la fotoresistenza) è di tipo riflessa. La funzione del sensore fotoresistivo è di cambiare la sua resistenza a seconda dell’intensità luminosa che agisce su di esso. L'effetto combinato del tubo piegato sul percorso ottico e la fotosensibilità del rivelatore producono un dispositivo che cambia la sua resistenza elettrica quando viene flesso. Il sensore in grado di rilevare il cambiamento di intensità della luce poteva essere un fototransistor, una fotocellula, un dispositivo a fibra ottica, o qualsiasi altra componente con caratteristiche simili. Un altro sensore brevettato da Zimmerman è costituito da un tubo flessibile che, a differenza di quello precedentemente descritto, aveva la parete interna che poteva essere divisa in due o tre zone longitudinali di colore rosso, verde e giallo. Le zone di diverso colore del tubo incidono sull'intensità della luce che raggiunge il rivelatore fotosensibile all'estremità opposta del tubo. A seconda del tipo di sorgente di luce, se di colore simile o di colore diverso alla parete, veniva riflessa da quest’ultima in modo più o meno intenso. La sorgente di luce, in questo tipo di flex sensor, era multipla e in particolare doveva essere costituita da tante sorgenti luminose colorate quante sono le zone di colore nella parete del tubo (se si decideva di utilizzare tubi con pareti suddivise in due sezioni longitudinali, una di colore giallo e l’altra di colore verdi, le fonti luminose dovevano essere due, una gialla e una verde). Queste fonti luminose multiple (che potevano essere LED, luci ad incandescenza, neon etc..), a differenza del sensore con una singola sorgente, venivano emesse ad impulsi (on e off) scanditi da intervalli di tempo prestabiliti. Il parametro output del rilevatore era perciò campionato corrispondentemente all’analisi degli stessi spazi temporali. In questo modo le informazioni che si potevano ottenere permettevano di determinare non solo il grado di piegatura del dispositivo, ma anche la sua direzione (dall’alto verso il basso, da sinistra verso destra, ecc...). Più sensori di luce colorata erano utilizzati e più la precisione del dispositivo aumentava. 131 I flex sensor low cost brevettati da Zimmerman potevano essere collegati su un tessuto di un guanto, una tuta o un bendaggio elastico ed essere facilmente utilizzati per determinare elettricamente la posizione di giunture e degli arti, o ottenere informazioni sulla loro posizione, velocità e accelerazione. I segnali provenienti da questi sensori possono essere elaborati per applicazioni come: la cinesiologia7, la fisioterapia, la computer animations, il controllo remoto e nuova modalità di interfaccia uomo-computer. La portata di questo brevetto, almeno inizialmente, non fu come lo stesso Zimmerman poteva aspettarsi, poiché un anno prima di lui (1981) un ricercatore di nome Gary Grimes che lavorava ai Bell Laboratories, aveva brevettato un dispositivo di interfaccia molto simile. Il vero punto di svolta avvenne quando Lanier e Zimmerman si incontrarono qualche anno più tardi ai laboratori dell’Atari Research. Bastò poco ai due per stringere un accordo. Zimmerman divenne uno dei fondatori della VPL Research, Inc a cui cedette il suo brevetto e si mise al lavoro per migliorarlo e renderlo ulteriormente preciso. A Jaron Lanier venne l’idea di associare al guanto anche un sensore di posizione assoluta, come quelli utilizzati da Sutherland per l’Head Mounted Display o per altri dispositivi di input gestuali. Fu un passo decisivo per la carriera di entrambi e per le sorti della loro azienda. Il modello migliorato, oltre al sistema di localizzazione spaziale ad ultrasuoni, sfruttava la più costosa, sottile e precisa tecnologia a fibre ottiche al posto delle guide luminose di led. Il rivestimento su ogni fascio di fibre era inciso in corrispondenza di ogni giuntura delle dita. Il grado di flessione di ogni nocca determinava direttamente quanta luce passava attraverso le precisissime incisioni prima di arrivare ai sensori di luce, posizionati alla fine del fascio ottico. Alla VPL Research, Inc decisero che era giunto il momento di associare all’hardware un sistema di software in grado di trasformare il dataGlove in un 7 132 Scienza che tratta lo studio del movimento umano. reality engine completamente funzionante e sbarcare definitivamente in quegli ambienti simulati che Jaron Lanier coniò come Realtà Virtuali. “Virtual” means something that exists only as an electronic representation, which has no other concrete existence. Is it as if were there even if it isn’t. It’s not necessary the right world. I like it better than “artificial”. I like better than “synthetic”, “Shared Dream”, “Telereality” (An Interview with Jaron Lanier, Wole Earth Review, Kevin Kelly). Zimmerman, Lanier, Young Harvill (co-creatore del sistema a fibre ottiche del guanto) e Steven Bryson lavorarono per oltre due anni cercando di perfezionare il software di collegamento degli input gestuali del guanto ai mondi generati dai computer. L’impresa si rivelò molto ardua, in quanto dovevano riuscire a far funzionare in modo coordinato i numerosi segnali elettrici provenienti dai flex sensor con quelli del sistema di posizionamento assoluto, e conseguentemente sviluppare un programma in grado di generare l’output del mondo virtuale tramite le sue forme visive ed uditive. Jaron Lanier incominciò a trasformare il Mandala in uno strumento per la realtà virtuale. Parti del suo progetto originale, insieme ad altre completamente sviluppate ex novo dallo stesso Lanier e gli altri programmatori si sono evolute nel sistema software per virtual reality che la VPL commercializzò per molto tempo a partire dalla seconda metà degli anni '80. Il dataGlove della VPL Research, Inc, venne Fig. 20 - Esempio di body VLP caratterizzato da cavi in fibra ottica che attraversano l’intera tuta e guanti, producendo un segnale durante una qualsiasi flessione. ultimato in tutte le sue parti e commercializzato. Uno dei maggiori contratti che la VPL sottoscrisse fu con la NASA che già da qualche tempo stava conducendo esperimenti sui mondi virtuali. 133 Nel 1984, allo Human Factors Research Division del NASA/Ames, Scott Fisher venne inviato a tenere una conferenza sui display Head Mounted stereoscopici, sulle ottiche necessarie per visualizzare scenari molto ampi, e della possibilità di esplorazione di mondi Virtuali. Michael McGreevy era in prima fila. Iniziò ad interessarsi dei sistemi HMD sviluppati dall’Aviazione degli Stati Uniti che venivano chiamati VCASS. Assomigliavano vagamente al casco di Darth Vader e contenevano tecnologie ben più sofisticate dei sistemi sviluppati da Sutherland. McGreevy era convinto che un sistema di questo tipo sarebbe stato l’ideale base di partenza per la sperimentazione scientifica sui fattori umani delle realtà virtuali. Il VCASS usato dall’aviazione, usava tubi catodici miniaturizzati ad altissima risoluzione appositamente progettati, fibre ottiche e necessitava di grandi quantità di calcolo: in poche parole non badarono a spese per questo tipo di progetto, fatto per altro enormemente giustificato dalla possibilità di innalzare le capacità di sopravvivenza dei piloti e conseguentemente anche la salvaguardia di aeroplani da mezzo miliardo di dollari. Quando McGreevy si accorse che il costo del dispositivo avrebbe superato di gran lunga il budget per il progetto di ricerca (solo il casco costava un milione di dollari), decise di costruirsene uno per conto proprio. Disponeva già di un rilevatore Polhemus ed un sistema di visualizzazione Evans and Sutherland. Per la costruzione il dispositivo HMD decise di utilizzare, invece dei display a tubi catodici dotati di risoluzione e qualità superiori, display LCD ben più economici, ma comunque in grado di garantire risultati adeguati allo scopo. Ben presto grazie a McGreevy la componente “occhiali” della realtà virtuale della NASA stava diventando disponibile. Nel 1985, la NASA assunse Scott Fisher che aveva come obiettivo la costruzione di un laboratorio che fosse il banco di prova per esplorare tutti gli aspetti di stazioni di lavori virtuali, dalla telerobotica, alla chirurgia. Scott Fisher iniziò a negoziare con la VPL Research, Inc per aggiungere al sistema della NASA, denominato VIVED (Virtual Environment Display), il 134 dispositivo di input gestuale che avevano sviluppato. Ciò consentì al VIVED di collegare i movimenti della mano al mondo generato dal computer. Nel 1986 era possibile immergersi all’interno dei mondi virtuali del ciberspazio non solo con lo sguardo, ma anche con le mani. Potevano toccare ed esplorare mondi artificiali nel modo più naturale possibile: attraverso le mani e i gesti. “Quella mano fluttuante era qualcosa di più di una mano. Ero io.” Se vuoi assicurarti di essere nel mondo reale, sposta la testa molto velocemente da una parte o dall’altra. Se il resto del mondo non si muove insieme alla tua testa per un paio di centinaia di millisecondi, ti trovi in Virtualandia. Lo sfasamento temporale è sempre un problema nella costruzione di sistemi per realtà virtuale e gestire calcoli complicati molto rapidamente è sempre stato parte del problema ("Realtà Virtuali" Howard Rheingold, 1993) Il problema principale per un reality engine da questo momento in poi si spostò sulle possibilità di migliorare, con la speranza un giorno di eguagliare, le più precise caratteristiche del nostro sistema “mano-dita-occhio-cervello”, in modo tale da ridurre sempre di più la discrepanza percettiva che può esistere all’interno dei mondi virtuali. Fig. 21 - Esempio di tecnologia di rilevamento dei guanti: dataGlove Nel 1987 un’azienda denominata Abrams-Gentile Enterteinment (AGE), offrì alla VPL Reserach, Inc, la possibilità di accedere al mercato del mondo dei giocattoli con una versione appositamente riprogettata del dataGlove. L’obiettivo era quello di creare un guanto di input gestuale dai costi contenuti che funzionasse 135 come dispositivo di controllo per i popolari videogiochi da consolle Nintendo, potenzialmente un mercato nell’ordine delle decine di milioni di dollari. A partire dal 1991 venne commercializzato il PowerGlove a meno di 100 dollari. Il suo funzionamento non era dissimile a quello del dataGlove (che però costava 6.300 dollari) in quanto possedeva sia sensori di rilevamento della posizione assoluta che flex sensor per determinare il grado di flessione delle singole dita della mano. Ciò che lo differenziava erano le tecnologie utilizzate. Come abbiamo visto in precedenza, il dataGlove, utilizzava fibre ottiche e sensori di posizione assoluta ad altissime capacità performative, il PowerGlove, invece, faceva uso di un inchiostro elettro-conduttivo stampato su una striscia di plastica flessibile che seguiva il dito nei suoi movimenti e un sistema di rilevazione basato su sensori ad ultrasuoni. La precisione del guanto per i videogiochi non era il massimo, tutt’altro, ma fu comunque un importante passo nella storia dei reality engine poiché avviava la “massa” ad un nuovo modo di giocare e di concepire l’interazione con gli ambienti Fig. 22 - Jaron Lanier con dataGlove e Eyephone, i dispositivi di realtà virtuale ideati dalla sua azienda, VPL Research.. virtuali generati dall’industria dei giochi elettronici. La realtà virtuale, o meglio accenni di essa, incominciarono a materializzarsi fisicamente al grande pubblico. Tra il 1988 ed il 1990 la VPL Research, Inc era il fornitore di sistemi di realtà virtuale pronti all’uso: i laboratori di ricerca non erano costretti a reinventare i dispositivi HMD e quelli di input, potevano acquistare soluzioni già sviluppate ed 136 ampiamente rodate, facilitando quindi la costruzione dei mondi piuttosto che degli hardware necessari per navigarli. Il sensore di posizione Polhemus Navigation System costava 2.500 dollari, il data Glove altri $6.300, L’Eyephone (l’HMD della VPL) $9.400 e il pacchetto software $7.200, per un totale di 25.400 dollari, esclusi i costi per l’acquisto dei computer e delle workstation necessarie per far funzionare il tutto. La realtà che era possibile ottenere dipendeva molto dalla potenza di calcolo degli elaboratori a disposizione, ma anche delle capacità di programmazione del team di sviluppo del mondo virtuale che si voleva costruire. Ben presto i primi ambienti solidi con accenni di ombre, superfici e grafiche più dettagliate cominciarono ad essere esplorabili. Il tasso di miglioramento del livello di realtà dei mondi virtuali fu incredibilmente rapido e continuò a crescere parallelamente agli sviluppi tecnologici. La realtà virtuale ha dimostrato, e dimostra tutt’ora, che l’essere umano è in grado di poter creare qualunque esperienza si possa desiderare. I pionieri del ciberspazio, fin dai primi esperimenti di immersione all’interno di mondi generati dal computer (Sutherland, ma ancor prima di Heilig), avevano compreso che avere il potere di creare l’esperienza significava anche avere il potere di ridefinire i concetti base che la definiscono come l’identità, la comunità e la realtà. Questo implica le potenzialità di un cambiamento della natura umana. Marshall McLuhan nella sua celebre opera “Gli strumenti del comunicare” indica i mezzi di comunicazione elettronici come strumenti in grado di alterare i rapporti tra i sensi: la quantità di input uditivi e visivi generati dall’avvento della radio, dai telefoni e successivamente dalla televisione, modificarono inequivocabilmente il nostro modo di percepire la realtà. Vediamo, sentiamo e conseguentemente comprendiamo il mondo in maniera differente. Dal momento che il nostro “normale” status di coscienza è per natura una simulazione iperrealista di ciò che noi consideriamo realtà, “là fuori” (costruiamo modelli del mondo che ci circonda all’interno della nostra mente, utilizzando gli 137 input provenienti dagli organi sensoriali, opportunamente rielaborati dal nostro cervello), l’esperienza nel ciberspazio è destinata a trasformarci poiché non fa altro che fornirci nuovi modelli, nuove simulazioni alternative a quelle a cui normalmente siamo abituati. Gli esseri umani sono per natura costruttori per eccellenza di modelli mentali, così come i computer lo sono diventati nel corso degli anni per nostra volontà. La capacità delle macchine per pensare di emulare ambienti e situazioni reali è in costante progresso, come abbiamo visto, strettamente legato a quello della potenza di calcolo e dell’elaborazione-rappresentazione delle immagini tridimensionali. Dal momento in cui saranno in grado di generare modelli talmente realistici da non poter essere distinti dalla realtà non simulata elettronicamente (modello mentale umano), le nostre più fondamentali definizioni di ciò che è reale verranno completamente ridefinite. La realtà è sempre stata troppo piccola per l’immaginazione umana. L’impulso per la creazione di una “macchina per la fantasia interattiva” è soltanto la manifestazione più recente dell’antico desiderio di rendere le nostre fantasie palpabili. (Howard Rehingold, 1993) É altrettanto vero però, che almeno per quanto riguarda la tecnologia informatica degli anni '90, la realtà sembrava essere (e lo è tuttora) “troppa” da poter essere sintetizzata all’interno di un mondo computerizzato. All’epoca il più potente (e costoso) engine per la realtà virtuale era in grado di elaborare circa duemila poligoni al secondo e generava un mondo ben lontano dalle nostre aspettative di realtà. Alvy Ray Smith, co-fondatore di Pixar, affermò che “La realtà inizia ad 80 milioni di poligoni per fotogramma”. Era una previsione più che accettabile che aveva lo scopo di suggerire la direzione verso cui si sarebbero dovute muovere la tecnologie di riproduzione grafica. La tendenza futura, favorita senza dubbio dalla legge di Moore, da un lato sembrò dirigersi verso la volontà di raggiungere e sorpassare la soglia indicata da 138 Alvy Ray, dall’altro incominciò a deviare il suo percorso, in direzione di un potenziamento della realtà piuttosto di una sua simulazione iperrealistica. 6. Augmented Reality Someone once said that a Boeing 747 is not really an airplane, but five million parts flying in close formation (citazione di Caudell e Mizzel, 1992) Essere un operaio specializzato addetto alla manutenzione (quindi smontaggio e assemblaggio) dei Boeing 747, alla fine degli anni '80, non doveva essere di certo una passeggiata. Chiunque si occupasse di questo doveva essere in grado di consultare migliaia di informazioni e istruzioni dettagliate di ciascuna delle singole componenti del velivolo, solitamente fruibili tramite complessi schemi CAD su schermo di una postazione collegata ad un elaboratore oppure su immense stampe (che in quel caso occupavano interi pavimenti dell’hangar). Alla difficoltà della manodopera quindi si aggiungeva quella della consultazione dei manuali necessari a svolgere il lavoro. Il risultato era una procedura troppo macchinosa e troppo lenta. Nel 1990, negli stessi laboratori di ricerca della compagnia aerospaziale Boeing, per la prima volta venne utilizzata l’espressione “Augmented Reality” per indicare un particolare sistema di fruizione dei contenuti, concepito da Thomas Caudell e David Mizell, in grado di facilitare enormemente le operazioni di manutenzione dei velivoli. Il dispositivo sviluppato dai due ricercatori consisteva in un display Head Mounted (denominato HUDset (Heads-Up Display Head set), concettualmente simile al prototipo sviluppato da Ivan Sutherland negli anni '60, ma opportunamente migliorato in dimensioni e portabilità, dotato di ottica a lente semitrasparente (see-through) e di un sistema di tracking della posizione della testa all’interno dello spazio di lavoro. 139 Fig. 23 - L’immagine di sinistra rappresenta un operaio al lavoro,con il sistema di display Head Mounted, progettato da Tom Caudell e David Mizell. A destra un dettaglio della stessa applicazione. Questa nuova enabling technology consentiva di visualizzare gli schemi di assemblaggio e le istruzioni operative testuali, direttamente in sovrimpressione sulle specifiche componenti “fisiche” del Boeing da smontare o riassemblare, che di volta in volta entravano nel campo visivo dell’operaio. this technology is used to “augment” the visual field of the user with information necessary in the performance of current task, and therefore we refer to the technology as “augmented reality”. (citazione di Caudell e Mizzel, 1992) L’informazione percepita dalla vista degli addetti veniva “aumentata” dal dispositivo con un altro livello informativo sovrapposto al reale, in grado di arricchire di significato ciò che in quel preciso momento stava osservando. In poche parole oltre a semplificare e velocizzare notevolmente il lavoro degli addetti alla manutenzione dei giganteschi aeroplani (non dovevano più interrompere l’assemblaggio per andare a controllare le schede tecniche), introdusse il mondo informatico ad una nuova era delle Realtà Virtuali, o meglio ad una loro variante dalle potenzialità non meno affascinanti e suggestive. L’era della realtà aumentata. 140 6.1 Virtual Reality vs. Augmented Reality Il concetto di Virtual Reality o VR, coniato nel 1989 da Jaron Lanier (un anno prima che Tom Caudell e David Mizell definissero la loro tecnologia Augmented Reality) implicava nella sua accezione la sofisticata tecnologia, sviluppata già a partire dagli anni '60, che collegava i computer ad una serie di sensori in grado di stimolare la percezione umana e che consentiva un'interazione immersiva tra un soggetto attivo e il modello computerizzato generato. Il termine virtuale però non è da contrapporre al reale. Il filosofo francese Pierre Lévy8 rifletté a lungo su questo concetto, partendo dalla considerazione che ogni rappresentazione immateriale è anch’essa reale in quanto comunque percepibile, arrivando a definire il virtuale semplicemente come uno dei possibili modi dell’essere e che non ha niente a che vedere con il concetto di falso o non reale (inteso come un qualcosa che non esiste). Il termine “virtuale” deriva dal latino virtualis che, nella filosofia scolastica antica, indicava appunto un qualcosa che esiste in potenza ed è in grado di passare in atto (per esempio l’albero è virtualmente presente nel seme). Per Levy il virtuale deve essere contrapposto all’attuale e quindi ciò che è virtuale esiste, perché possibile, anche senza consistenza materiale e concreta. I mondi virtuali sono esperienze possibili che possono essere contrapposte o concordate a quelle del reale, in base al grado di sensazione di immersività e navigabilità che sono capaci di suscitare nello spettatore. Tanto più dettagliata sarà la simulazione in atto della realtà, quindi come abbiamo visto, più poligoni saranno elaborati, e più sensi verranno coinvolti, tanto più profondo sarà il suo grado di immersione. 8 Il filosofo francese Pierre Lévy (1956) è noto per i suoi studi sul mondo degli ipertesti, sulle implicazioni culturali dell'informatizzazione e sugli effetti della globalizzazione. Si interessa così di computer e Internet intesi come strumenti per aumentare le capacità di cooperazione, non solo della specie umana nel suo insieme, ma anche quelle di collettività come associazioni, imprese, gruppi locali, etc. Egli sostiene infatti che il fine più elevato di Internet è l'intelligenza collettiva (come Douglas Engelbart). 141 Il termine virtual reality quindi può essere definito come un ambiente tridimensionale immersivo generato dal computer. Da questo concetto possiamo estrapolare tre punti chiave: 1. si tratta di un ambiente generato completamente al computer secondo modelli tridimensionali ed elaborazioni real time che richiedono prestazioni di calcolo e grafica elevatissime, per fornire un adeguato livello di realismo; 2. questo modello oltre ad “ingannare” la nostra percezione visiva deve essere anche interattivo. Deve essere navigabile e reattivo. Il sistema deve reagire alle azioni dell’utente in modo efficace e credibile; 3. l’utente deve essere completamente immerso sensorialmente all’interno di questo ambiente; Uno dei segni distintivi delle realtà virtuali (nella maggior parte delle sue applicazioni) è l’uso di Head Mounted Display come dispositivo privilegiato di visualizzazione che isola completamente l’utente dal mondo esterno, in quanto la sua percezione dipende esclusivamente da ciò che il computer “decide” di mostrare. L’ esperienza visiva, uditiva e più in generale dei canali sensoriali propriocettivi9 è sotto il controllo del reality engine che ne determina il grado di coinvolgimento e il livello di affidabilità. Affinché questa immersione sia considerata realisticamente valida, almeno per quanto riguarda la sensazione di presenza (non per i dettagli grafici), il sistema deve necessariamente reagire in modo coerente ad ogni movimento del soggetto, determinando di volta in volta la scena così come si sarebbe comportata nella realtà. Questo senza dubbio risulta essere uno dei problemi più complessi e difficilmente risolvibili delle realtà virtuali, poiché, come abbiamo visto in precedenza, non si tratta solo di modellare un mondo graficamente credibile, ma che reagisca ai nostri sensi percettivi nel modo più realistico possibile. Ogni movimento o modifica effettuata da parte dell’utente comporta una conseguente ed appropriata modifica all’interno del mondo virtuale percepito. Tale sistema è chiuso in sé stesso e non esiste nessuna connessione diretta tra le 9 Capaci di percepire e riconoscere la posizione del proprio corpo nello spazio, grazie alla ricezione delle informazioni dai sistemi sensoriali. 142 coordinate propriocettive dell’utente e quelle dell’ambiente in cui è immerso. Il collegamento deve essere creato artificialmente10 tramite dispositivi e tecnologie di rilevamento degli input sensoriali. Qualsiasi incongruenza riguardante il sistema di rilevamento delle coordinate, che ha il compito di determinare il punto di vista della scena virtuale rispetto alla posizione del corpo dell’utente, viene percepita come un errore di registrazione, ossia una discrepanza tra quello che ci si aspetterebbe normalmente di vedere e ciò che effettivamente vediamo. Tali errori sono riconosciuti come veri e propri conflitti tra il sistema visivo e quello cinestetico o propriocettivo dell’utente. Tuttavia, a causa della maggiore influenza della vista rispetto agli altri canali sensoriali (come aveva anche evidenziato Heilig nei suoi studi per il Teatro dell’Esperienza e il Sensorama), è possibile che l’utente all’interno di una realtà virtuale accetti o regoli lo stimolo visivo errato, sostituendo più o meno inconsciamente le discrepanze che si verificano. Un dispositivo di realtà aumentata, contrariamente a quello della realtà virtuale, consente di osservare direttamente la realtà che ci circonda, aumentandola con informazioni aggiuntive generate dal computer. Non si tratta perciò di una rappresentazione simulata di un intero mondo in cui si è immersi sensorialmente, ma di un potenziamento attraverso oggetti virtuali coerentemente registrati all’interno di quello esistente e reattivi alla fisicità dell’utente. Il senso di presenza delle applicazioni di realtà aumentata non deve essere ricreato sinteticamente, poiché l’utente agisce nel contesto reale. Il vantaggio di questo aspetto è duplice. In primo luogo, gli ambienti reali contengono una quantità di informazione tanto più elevata quanto più difficilmente riproducibile in un qualsiasi altro ambiente simulato. In secondo luogo, se l’obiettivo finale delle applicazioni dei virtual environment è quello di migliorare le prestazioni umane per un compito specifico, questo sarà svolto sicuramente in modo più naturale se il soggetto si 10 Azuma 1993 143 sente immerso e a suo agio all’interno dell’ambiente (che riconosce o conosce) in cui deve svolgere l’attività. Anche per gli augmented reality engine il problema di mantenere coerente la visione degli oggetti virtuali con la posizione dell’utente nel contesto reale in cui sono rappresentati gli oggetti stessi, è un grande e difficile ostacolo da superare. In questo caso un errore di registrazione non può essere né compensato né accettato dall’utente, in quanto è compreso tra due stimoli visivi differenti per natura (realtà osservata direttamente e virtualità di oggetti-testi generati), che sono fusi all’interno di un'unica scena. L’osservatore è ben più sensibile a questo tipo di situazioni percettive devianti, rispetto a quelle che possono riscontrarsi negli ambienti puramente virtuali. Ciò impone ai progettisti di applicazioni e sistemi augmented una più rigida attenzione alla risoluzione di queste problematiche. Sia i sistemi di realtà virtuale che quelli di realtà aumentata devono assicurare all’utente un senso profondo di immersione all’interno dell’ambiente, garantendone di conseguenza anche la ricezione di un insieme coerente di input. Fig. 24 - Tabella in cui vengono riportate tutte le varie tipologie con relative caratteristiche di augmented display. 144 6.2 Enabling Display Tecnologies Per mantenere questo status di immersione ibrido tra il virtuale ed il reale, i sistemi di augmented reality, così come quelli di virtual reality, necessitano di un dispositivo, o diversi dispositivi comunemente definiti augmented display, in grado di fondere visivamente i due diversi punti di vista (quello generato dal computer e quello osservato direttamente) in un'unica visione. Le tecnologie di display più comuni, o meglio quelli considerabili “storici”, sono i see-through head-mounted display che grazie a tecnologie video o ottiche consentono di vedere il mondo reale “aumentato” con oggetti, informazioni, dati virtuali sovrapposti e perfettamente integrati ad esso. Come indicato dal nome stesso (head-mounted) si posizionano ovviamente tra le categorie di display indossabili, ossia head-worn (di cui fanno parte anche i virtual retinal display e gli head-mounted pjojective display), e offrendo così un buon grado di mobilità e libertà di azione dell’utente. Fig. 25 - Schema del funzionamento di un dispositivo video see-through. Oltre ad essere la tipologia di head-mounted display più economica e semplice da realizzare, il video see-through è anche il dispositivo di visualizzazione per la realtà aumentata tecnicamente più simile a quelli dedicati per l’esplorazione degli ambienti totalmente virtuali (quelli sviluppati dalla NASA o dell’EyePhone sviluppato da Lanier). 145 Generalmente è costituito da una o due videocamere, poste in corrispondenza degli occhi che sostituiscono appieno la vista dell’utente, generando un feed video digitalizzato della realtà. Quest’ultimo, opportunamente combinato in real time con la scena virtuale corrispondente (prodotta dal sistema grafico dell’applicazione AR in base alle coordinate della posizione della testa e del punto di vista), viene proiettato sul monitor situato di fronte agli occhi dell’utente, permettendo così di ottenere una percezione aumentata dell’ambiente circostante. L’utente quindi non osserva la realtà direttamente, ma ciò che osserva è mediato dall’utilizzo delle telecamere. Questa tecnica nella sua semplicità offre alcuni vantaggi interessanti. Dal momento che la realtà osservata è “digitalizzata”, così come le immagini generate virtualmente, risulta molto più facile manipolarne i contenuti, aggiungendo o rimuovendo elementi da essa. Ciò consente inoltre di avere sia un miglior risultato visivo, grazie al controllo pressoché totale sui parametri di luminosità, tonalità, saturazione e contrasto delle immagini acquisite, sia una maggiore precisione nel tracking degli oggetti e dei movimenti della testa dell’utente. Tuttavia a queste facilitazioni, che potrebbero tranquillamente rendere i video see-through una tecnologia largamente utilizzata nel campo delle realtà aumentate, bisogna aggiungere altrettanti svantaggi, ad iniziare proprio dalla bassa risoluzione con cui necessariamente agisce. La realtà ripresa attraverso le telecamere perde inevitabilmente risoluzione e conseguentemente qualità. Per quanto fedele possa essere al reale, un'immagine ripresa attraverso un dispositivo di video capture, sarà comunque inferiore rispetto a ciò che i nostri occhi sono in grado di percepire. Non è solamente una questione pixel, ma di una serie di caratteristiche fisiche del sistema occhio-mente che nessuna telecamera riuscirà mai ad eguagliare. Alcune di queste features riguardano, per esempio, la gestione del punto di vista, della visione periferica e della messa a fuoco. Il punto di vista percepito dall’utente del sistema video HMD (dato principalmente dal posizionamento della fonte di input video), seppur 146 migliorabile, risulta essere decisamente limitato e poco fedele a quello reale, causando nell’utente disorientamento e sforzi troppo significativi per cercare di “aggiustare” a livello percettivo la visualizzazione. Limiti che sono da segnalare anche per quanto riguarda la visione periferica e la messa a fuoco che di certo non consentono un uso prolungato di questo tipo di dispositivi. A differenza di quelli video, gli HMD see-through ottici sfruttano le innovative tecniche di beam-splitting (sperimentate già da Sutherland con il three dimensional head-mounted display del 1968) per riflettere e sovraimprimere la realtà aumentata direttamente negli occhi dell’utente. Le scene virtuali, generate dal sistema grafico, vengono sovrapposte a quelle provenienti dal punto di vista reale dell’utente, mediante l’utilizzo di appositi optical combiners che hanno la peculiarità di essere in parte sia trasmissivi che riflessivi. Questo particolare sistema di lenti lascia passare le immagini provenienti dalla realtà (come se l’utente indossasse un paio di occhiali da sole) e contemporaneamente riflette in direzione degli occhi le immagini corrispondenti alla scena, generate virtualmente. Fig. 26 - Schema in cui viene rappresentato il funzionamento dei display optical see through. I display head-mounted see-through non solo hanno il vantaggio di mantenere intatta la risoluzione del mondo reale, ma risultano anche più sicuri e privi di aberrazioni visive da risolvere (come per esempio accade nei dispositivi HMD che utilizzarono telecamere per riprodurre l’ambiente reale) 147 Un’altra categoria molto interessante da prendere in considerazione nella nostra breve analisi, riferita agli augmented display, è quella dei cosiddetti handheld display, ossia tutti quei dispositivi di visualizzazione video o ottici che devono essere letteralmente “tenuti in mano”. A differenza degli head-worn sono utilizzati ad una distanza superiore (circa la distanza di un braccio appunto), il livello di immersività dell’esperienza che assicurano non è elevato e sono sicuramente più “ingombranti”. Tuttavia attualmente sono la migliore soluzione per introdurre la realtà aumentata nel mercato di massa a causa dei bassi costi di produzione, della notevole Fig. 27 - Esempi di più recenti display headworn. A sinistra il prototipo di display retinale monocromatico della MicroVision. A destra i “famosi”Google Glasses (Sergey Brin) facilità d’uso e soprattutto della discrezione con la quale agiscono. Fanno parte di questa categoria gli smartphone, cellulari multifunzione, che proprio grazie alla loro versatilità e alle tecnologie di cui sono dotati (GPS, magnetometro, accelerometro, giroscopio, connessione WiFI, 3G, Bluetooth ecc...),rappresentano forse lo strumento ideale per sviluppare a costi contenuti applicazioni di realtà aumentata. Sulla base di quanto preso in considerazione fino ad ora, possiamo definire con precisione il concetto di realtà aumentata. Come ci suggerisce Ronald T. Azuma11 un sistema AR12, per essere considerato tale, deve: 1. combinare assieme oggetti reali e virtuali all’interno di un real environment; 2. essere interattivo ed in tempo reale; 3. allineare correttamente oggetti reali e virtuali con gli altri elementi dell’ambiente. 11 Ha costruito il primo sistema di realtà aumentata funzionante, grazie all'allineamento tanto curato tra oggetti 3D reali e virtuali che l'utente percepiva la coesistenza con gli oggetti nello stesso spazio ("Per questo lavoro mi sono concentrato esclusivamente sul problema di registrazione, sulla tracciabilità, la calibrazione e il lavoro di sistema necessari per raggiungere questo obiettivo con un ottica see-through head-mounted display"). Ci sono stati precedenti sistemi di AR ma avevano errori di registrazione di notevoli dimensioni. 12 148 Iniziali di Augmented Reality (Realtà Aumentata) L’aspetto importante della definizione proposta da Azuma è che non limita l’augmented reality né ad una particolare tipologia di display (come ad esempio gli HMD che, come abbiamo visto, ne esistono molte tipologie con caratteristiche e possibilità diverse), né limita la sua applicazione alla sola esperienza visiva, in quanto può potenzialmente essere applicata a tutti i sensi che compongono la complessità della percezione umana (udito, tatto e olfatto). Inoltre con il termine “augmented” si intende in generale la capacità di potenziare l’esperienza sensoriale dell’uomo, non soltanto aggiungendo ad una determinata scena oggetti virtuali che aiutano a comprendere meglio ciò che ci circonda, ma anche rimuovendo da essa all’occorrenza oggetti reali. Sebbene questa pratica sia meno diffusa e venga chiamata Mediated Reality o Diminished Reality, è comunque un interessante sottoinsieme delle tecnologie Augmented Reality. 6.3 I continuum di Paul Milgram Nel 1994 Paul Milgram, in collaborazione con Fumio Kishino, Akira Utsumi e Haruo Takamura, pubblica un documento dal titolo “Augmented Reality: A class of displays on the reality-virtuality continuum”, in cui definisce la tassonomia delle correlazioni esistenti tra gli ambienti Virtual, quelli Augmented ed i relativi display. L’opinione diffusa di una Virtual Reality, come abbiamo visto in precedenza, è quella in cui il partecipante-osservatore è completamente immerso all’interno di un mondo sintetico, che può o non può imitare le proprietà di un ambiente reale, di uno già esistente o di uno di pura fantasia, ma che per certi versi può anche essere superiore, per esempio superando le leggi della fisica che regolano la gravità, il tempo e le proprietà materiali. Al contrario, un ambiente strettamente collegato al reale dovrà per forza rispettarle. 149 Fig. 28 - Reality Virtuality Continuum di Paul Milgram (1994). A partire da questa semplice distinzione Milgram pone i concetti di “reale” e “virtuale” come antitesi di un Reality-Virtuality Continuum (fig. 28) in cui agisce una Mixed Reality, ossia tutto l’insieme degli ambienti generici misti, composti da oggetti ed immagini sia del mondo reale che di quello virtuale e rappresentati contemporaneamente all’interno di un unico display. La Mixed Reality è un qualsiasi punto tra i due estremi del continuum Reality Virtuality, come può esserlo per esempio la Realtà Aumentata (AR). L’estremità a sinistra del continuum definisce qualsiasi ambiente costituito esclusivamente da oggetti reali (Real Environment) e include tutto ciò che è possibile percepire direttamente tramite i canali sensoriali. L’estremo a destra invece rappresenta l’opposto, ossia un ambiente costituito unicamente da oggetti virtuali generati attraverso simulazioni grafiche computerizzate (Virtual Environment) e fruibili mediante l’utilizzo di dispositivi Head Mounted immersivi o semplici display. Augmented Reality augmenting natural feedback to the operator with simulated cues (conference papers by Millgram and Kishino, 1994) L’Augmented Reality nello schema del continuum di Milgram si posiziona a fianco del Real Environment da cui ne è direttamente dipendente, in quanto è predominante in questo caso la percezione del mondo reale, che diventa “aumentata” grazie ad informazioni generate dal computer e inserite all’interno del contesto. L’Augmented Virtuality include tutti quei sistemi che sono 150 prevalentemente sintetici, ma che annoverano la presenza di immagini attinte dal mondo reale. Proprio per questa sua caratteristica è relazionata ai Virtual Environment. Il continuum Reality-Virtuality di Milgram del 1994, sebbene si tratti di un’estensione del concetto di Mixed Reality e delle relazioni esistenti tra gli ambienti reali e quelli virtuali (e conseguentemente tra le tecnologie che le rendono possibili), a causa della sua struttura monodimensionale non può includere tutte le variabili di cui questi ambienti sono pregni, risultando quindi fin troppo semplice per una corretta distinzione tra i sistemi Augmented Reality e Augmented Virtuality da altri. Milgram quindi definisce una tassonomia specifica con cui i mondi misti e quelli virtuali possono essere rappresentati sulla base delle loro proprietà essenziali (tecnologie di visualizzazione), grazie a un continuum multidimensionale formato da tre assi: Reproduction Fidelity (Riproduzione Fedeltà, RF)), Extent of Presence Metaphor (Estensione della Metafora della Presenza) e Extent of World Knowledge (Estensione della Conoscenza del Mondo). Fig. 29 - Reproduction Fidelity Continuum. Molte delle discussioni sugli ambienti virtuali (intesi come le parti che agiscono all’interno del Reality-Virtuality continuum), riguardano prevalentemente gli strumenti (computer, display) e le tecniche grafiche con cui si possono generare oggetti virtuali dalla qualità sufficientemente elevata da farli apparire “reali”. Il Primo asse che Milgram identifica è appunto relativo a questi aspetti di 151 riproduzione più o meno fedeli alla realtà: le immagini generate sono classificate nel continuum RF a partire da semplici immagini wireframe (Ivan Sutherland e la sua “Spada di Damocle”) fino a quelle di 3D Animation fotorealistica. In questo contesto i fattori che influenzano un’applicazione di realtà aumentata o virtualità aumentata nel posizionarsi in un qualsiasi punto lungo l’asse del continuum RF, sono essenzialmente legati alla loro capacità hardware di elaborare e riprodurre le informazioni/immagini in tempo reale (per visualizzare immagini wireframe in tempo reale la potenza di calcolo necessaria sarà di gran lunga inferiore a quella per immagini ad alta definizione), ma anche alla tecnologia del display di rappresentazione delle scene generate (per immagini wireframe sarà sufficiente un display monoscopico, viceversa per una riproduzione tridimensionale un display 3D HDTV). Altre discussioni sugli ambienti virtuali invece si concentrano sui fattori relativi alla sensazione di “presenza” che suscitano all’interno del mondo computerizzato. Il continuum Extent of Presence Metaphor analizza proprio questi fattori, misurando il livello di immersione dell’utente all’interno di un Virtual Environment o Mixed reality. Anche in questo caso la classificazione è strettamente legata alla tecnologia di visualizzazione utilizzata dal sistema. Ognuna di queste conferisce un grado diverso di immersione che può variare da un senso di presenza minima, dato da immagini monoscopiche su monitor WoW (Window on the World) , fino ad un coinvolgimento totale, dato dalla vista Realtime imaging attraverso particolari e sempre meno invasivi display head mounted che lentamente incominciano ad assomigliare a normali occhiali o futuristici retinal display13. 13 Il display retina è un display ad alta definizione con una quantità di pixel quattro volte superiore rispetto ai modelli precedenti. La densità di pixels, 326 ppi (pixel-per-inch, pixel per pollice) è maggiore rispetto al limite di risoluzione dell'occhio umano (ovvero la minima distanza tra due punti tale che sia ancora possibile distinguerli) che è di 300 ppi. Lo schermo appare così come "stampato" con i colori delle immagini in completa continuità, come se si osservasse un foglio di carta. 152 Fig. 30 - Extent of Presence Metaphor. Per esempio gli Artificial environment di Myron Krueger (che abbiamo avuto modo di analizzare nel paragrafo 5.3) possono essere posizionati circa a metà del continuum EPM, poiché fanno uso di immagini panoramiche su schermi grandi che hanno il potere e il fascino di avvolgere letteralmente lo spettatore all’interno di una realtà artificialmente generata, garantendo anche libertà di movimento ed azioni all’interno di essa. Le tecnologie di visualizzazione utilizzate nei sistema di realtà aumentata invece sfruttano la vista diretta degli utenti sul mondo reale. L’immersione degli utenti in questo ambiente avviene semplicemente tenendo gli occhi aperti ed osservando ciò li che circonda. Un altro importante elemento che molto spesso viene ignorato nella definizione di questi environment (VR, AV o AR), è il grado di conoscenza del mondo (EWK), in pratica quanto sappiamo degli oggetti e del mondo virtuale in cui questi sono esposti. Fig. 31 - Extent of World Knowledge 153 L’estremo di sinistra del continuum EWK, World Unmodelled, che rappresenta il caso in cui l’utente non conosce nulla del mondo remoto che sta osservando, si caratterizza come una serie di scene fatte da immagini ed informazioni non modellate (se non per migliorarne la qualità), che sono esplorate “alla cieca” e visualizzate tramite l’ausilio di appositi display. Fanno parte di questa categoria per esempio i sistemi di telemanipolazione, in particolare quelli che sono effettuati in ambienti ostili all’uomo o semplicemente difficili da raggiungere, come l’esplorazione subacquea o di altri pianeti. Man mano che ci si sposta verso l’altra estremità della dimensione EWK invece, troviamo il mondo completamente modellato. É questo il caso delle virtual reality nel senso tradizionale (e storico) del termine, ossia di ambienti totalmente virtuali che possono essere generati solamente se il Reality Engine dispone di una conoscenza completa su ogni aspetto del mondo che sta elaborando: la posizione degli oggetti, quella della vista dell’osservatore e, nel caso in cui si tratti di esplorazione attiva (quindi con possibilità di interazione sul mondo da parte dell’utente), anche delle azioni che il soggetto compie per manipolare gli oggetti. La definizione di Azuma di Augmented Reality, quella di Mixed Reality e dei continuum multidimensionali descritti da Paul Milgam (nei testo pubblicato nel lontano 1994), hanno portato ad un’idea ben precisa dei concetti e delle tecnologie che sono alla base degli ambienti virtuali, siano essi più affini al reale (Augmented Reality) o completamente distaccati da esso (Virtual Reality). I continui sviluppi innovativi nel campo della rappresentazione (display), dell’elaborazione multimediale (computer) e della mediazione dei contenuti (interfacce ed input sensoriali) hanno altresì contribuito enormemente ad incentivare la sperimentazione e l’esplorazione all’interno dei mondi sinteticamente modificati, in particolare di quelli maggiormente legati alla realtà (AR) e ai suoi rapporti con la percezione e i comportamenti umani causati dal suo utilizzo. L’inerzia dello sviluppo delle augmented reality è attualmente nel pieno della sua potenza, anzi se possibile, ancor più amplificata grazie all’esplosione 154 dapprima di nuovi mezzi comunicativi (internet) e successivamente dai nuovi strumenti smart di fruizione ed elaborazione delle informazioni (smartphone, tablet). 6.4 Che cos’è la Realtà Aumentata? E di cosa si occupa? Ma che cos’è la realtà aumentata? In che modi si distingue dalle altre tecnologie? E quali sono le sue applicazioni pratiche? Sono tutte domande legittime riguardanti le nuove possibilità offerte dallo sviluppo dell’AR, a cui cercheremo, in questo ultimo paragrafo, di dare una risposta. La realtà aumentata è una tecnologia “ancestrale”che fonda le sue radici nel lavoro pionieristico di Ivan Sutherland del 1968, salvo poi trovare nuovo lustro e un’identità ben precisa (come abbiamo visto in precedenza), differenziandosi dalla realtà virtuale di concezione tradizionale, a partire dagli anni '90, con la realizzazione del primo dispositivo AR funzionante presso i laboratori della Boeing e le successive definizioni di Milgram e di Azuma. La realtà aumentata si presenta alla percezione del senso comune come un’idea estremamente potente (e per certi versi anche troppo rivoluzionaria) e, come tutte le altre idee potenti che hanno fatto la storia dell’informatica (la internet, le realtà virtuali ecc...) e non solo, si presta ad una facile mitizzazione e ideologizzazione. É un “mito del presente14” come lo definirebbe Roland Barthes (1915-1980), già ben strutturato nelle sue caratteristiche, funzionalità e modi espressivi, benché sia appena nato. Occorre tuttavia demistificarlo, sottraendo da esso il fascino e la potenza dell’innovazione tecnologica quasi “magica” che porta con sé, al fine di farne risaltare esclusivamente gli aspetti specifici di cui è impregnato: in particolare quello di essere un mezzo che non solo ha il potere di agire nei discorsi della società, ma anche nei discorsi sulla società (meta-sociali) e nei modi in cui la cultura rappresenta se stessa. 14 Presentava come “naturali” delle situazioni e delle qualità che erano in realtà storicamente determinate. 155 In questo ambiente comunicativo nuovo, la realtà aumentata istituisce una diversa forma di lettura-scrittura del reale, ossia una nuova modalità di significazione e di testualità che si differenzia enormemente rispetto a quelle tradizionali (come successe negli anni '60 con l’invenzione dell’ipertesto), proprio perché strettamente collegata alla fisicità di un oggetto o di un determinato ambiente in cui essa agisce. Sotto questo aspetto l’AR può essere definita come un dispositivo intertestuale sincretico, ovvero un insieme eterogeneo di significanti (elementi testuali e contenuti) che convergono in un’unica esperienza fruitiva attraverso diverse modalità sensoriali (visive, uditive, gestuali, spaziali ecc...). Per esempio come accade nella realtà aumentata di Tom Caudell e David Mizell per gli operai addetti alla manutenzione della Boeing oppure nelle sue forme più evolute, o ancora sulle più attuali applicazioni per dispositivi smartphone come Wikitude15, Google Goggles16 oppure Soundhood17 (solo per citarne alcuni). In queste applicazioni gli elementi del reale sono strettamente collegati al mondo virtuale multimediale, che agisce nella percezione umana attraverso i canali sensoriali per determinare nuove modalità cognitive ed espressive. Tuttavia gli aspetti di intertestualità e sincretismo non sono sufficienti a distinguere la realtà aumentata per esempio da un gioco interattivo su schermo, dalla navigazione quotidiana su internet o da un film. Anche in questi casi si è di fronte a testi complessi, che fanno uso di linguaggi differenti e che sono imprescindibili da esperienze e rimandi multimediali e multisensoriali, interconnessi tra loro secondo una serie di citazioni e rimandi continui a volte impliciti, altre volte espliciti. Una realtà aumentata come quella generata dal sistema brevettato nel 1998 da Sportvision e battezzato 1st & Ten, è l’esempio 15 Applicazione per smartphone che sfrutta a pieno la realtà aumentata, permettendoci di sapere in tempo reale cosa c’è intorno a noi con relative indicazioni su come arrivare a destinazione e la distanza stimata. 16 Applicazione per smartphone che consente di utilizzare, per esempio, codici a barre, copertine dei libri o immagini come chiavi di ricerca verbali su google. 17 Applicazione per smartphone che consente di riconoscere e visualizzare facilmente i dettagli informativi testuali (titolo canzone, autore, casa discografica) o iconici collegati (copertina disco, video, immagini ecc..) di una canzone, a partire dalla sua melodia. 156 forse più opportuno per dimostrare come gli aspetti intertestuali e sincretici delle AR siano parte integrante delle tecnologie già assimilate nell’immaginario sociale, quindi per nulla innovative se osservate senza tenere in considerazione le modalità in cui il prodotto finale (cioè l’immagine risultante dalla fusione delle fonti reali con quelle virtuali) è stato generato. Il 1st & Ten fu il primo sistema AR ad essere utilizzato nei broadcasting televisivi per aumentare di contenuti testuali e visivi utili al pubblico un evento sportivo trasmesso in diretta, ed è tuttora considerabile come uno dei pochi esempi concretamente operativo su larga scala mediatica (ancora in uso) e perfettamente aderente alla definizione scientifica di AR proposta da Azuma solamente un anno prima in A Survey of Augmented Reality18. Le immagini virtuali (first-down line, linea del fuorigioco, tempo dei piloti in una gara, pubblicità ecc...) inserite nel contesto reale (campo di gioco, circuito) sono accuratamente registrate secondo le tre dimensioni (i segmenti della linea virtuale calpestati dai giocatori scompaiono così come fanno le linee reali di demarcazione del campo) e tracciate utilizzando differenti punti di vista (molteplici telecamere), quindi sono sincronizzate con lo streaming video live attraverso un leggero delay che consente di eliminare qualsiasi tipo di problematica relativa alla registrazione. Fig. 32 - A sinistra il sistema 1st & Ten, ideato da Sportvision. La linea gialla è “aggiunta” alle riprese in diretta. A destra un altro esempio di augmented reality nei broadcasting televisivi. Il cartellone pubblicitario è virtuale. 18 Augmented Reality (AR) is a variation of Virtual Environments (VE), or Virtual Reality [...] AR allows the user to see the real world, with virtual object superimposed upon or composited with the real world [...] AR systems that have the following charateristics: 1) Combines real and virtual 2) Interactive in real time 3) Registered in 3-D. 157 Tecnicamente e concettualmente una linea aggiunta su un campo da football non differisce per esempio dagli effetti speciali dei film. In entrambi i casi gli elementi “virtuali” interagiscono con altrettanti reali secondo una perfetta sincronia, creando l’illusione di presenza fisica all’interno della scena e “ingannando” lo spettatore (o meglio i suoi sensi). Nei film tuttavia questa “magia” è frutto di un lavoro di post produzione che può essere più o meno lungo e/o di qualità a seconda dei risultati che si vogliono ottenere. In un sistema AR le immagini, i testi-oggetti virtuali sono sia perfettamente inseriti nel contesto reale mediante una generazione automatica, sia in tempo reale quindi fedeli al punto di vista dell’osservatore (nel caso di 1st & Ten le telecamere posizionate per riprendere l’evento), sia si comportano esattamente come elementi fisicamente presente in scena. L’augmented reality a differenza di altre esperienze può, e deve, essere soprattutto indirizzata alla generazione di contenuti a livello user o crowd, implementabili quindi soggettivamente e/o collettivamente. Sotto questi aspetti molte delle più interessanti applicazioni AR disponibili per smartphone si basano proprio sulla possibilità di “aumentare” la realtà attraverso contenuti personalizzati all’interno dell’ambiente circostante, apponendo fisicamente dei marker (ARcode o QRcode19) agli oggetti, testi e mondi fisici per connetterli direttamente con i rispettivi virtuali, oppure, così come avviene per esempio in TagWhat20 , applicare in un dato luogo una tag che lo identifica e lo trasporta in una nuova dimensione, conferendo all’utente la possibilità di lasciare un messaggio proprio come su una bacheca tridimensionale. Sebbene quella di “taggare” sia un’accezione derivata dalle piattaforme comunicative tipiche del web 2.0 (social network) e quindi non distintivo della 19 Abbreviazione inglese di "quick response" (risposta rapida), derivata dal fatto che il codice è stato sviluppato per garantire una veloce decodifica del suo contenuto. E' un codice a barre bidimensionale composto da moduli neri disposti all'interno di uno schema di forma quadrata, impiegato per memorizzare informazioni destinate alla lettura tramite un telefono cellulare o uno smartphone. 20 App che offre la possibilità di elaborare delle mappe personalizzate, basate su proprie fotografie, su cui collocare le più svariate informazioni: testo, immagini, video e link. Dei veri e propri ipertesti fortemente contestualizzati. 158 realtà aumentata, implica comunque interessanti sviluppi nel campo di ciò che è stato definito internet of things21, in cui appunto la fisicità degli oggetti e delle cose viene collegata con il sapere della Rete. Una rete fatta di cause ed effetti in cui il dialogo tra soggetti ed oggetti avviene in modo istantaneo, generando così uno scenario in cui la simulazione non è più tale, non è più una semplice aggiunta (augmentation)o sottrazione (diminishing) o trasformazione, ossia mediazione rispetto alla realtà, ma diventa realtà stessa già nel momento in cui è figurata, immaginata, percepita. Uno scenario in cui il simbolico confluisce nelle things (cose) che diventano quindi il principale device di comunicazione. il web non è più un insieme di pagine HTML che descrivono qualcosa. Il web è diventato il mondo stesso e ognuno in questo mondo riflette un' ombra di informazioni22, un set di dati che vengono catturati e processati in maniera intelligente dai dispositivi, dai sensori, da codici offrendo notevoli opportunità. (O’Reilly & Battelle 2009) Quindi se definiamo l’internet delle cose come l’estensione naturale della Rete al mondo degli oggetti e dei luoghi concreti, e indichiamo la realtà aumentata come uno degli strumenti in grado di connettere tali oggetti e luoghi alla rete, allora device come gli smartphone, grazie alle loro tecnologie sempre più sofisticate (GPS, giroscopio, magnetometro, accelerometro, fotocamera rete WiFI, 3G ecc...), possono essere considerati la finestra, o meglio gli occhi e le orecchie, con la quale possiamo osservare e soprattutto generare il nuovo mondo e i nuovi modi di pensare. É interessante notare come la prima esplosione “mediatica” del concetto di AR, favorita senza dubbio dal rilascio di ARToolKit23 (1999) e successivamente di 21 "Internet delle cose" citata per la prima volta da Kevin Ashton, nel 1999. 22 Secondo Tim O’Reilly (2009) ogni persona possiede informazioni che sono come la sua ombra e si riflettono nelle sue caselle e-mail, nei contatti skype, nei post del blog o su facebook, nei cinguettii di Twitter, nelle foto, nei video... In poche parole in ogni aspetto della sua essenza online. 23 Una libreria software open-source che permette al programmatore di sviluppare applicazioni AR, utilizzando un algoritmo di visione per calcolare la reale posizione e orientazione della telecamera relativamente al marker, permettendo così al programmatore di disegnare oggetti virtuali sulla scena reale. 159 FLARToolKit24 (2004), sia stata meno penetrante rispetto a quella che è attualmente in atto, incentivata soprattutto dalla diffusione massiccia degli smart device. La diffusione di questi dispositivi è iniziata già a partire dal 2009 e non ha ancora subìto rallentamenti o brusche frenate, anzi secondo le recenti ricerchestatistiche sta addirittura accelerando: negli Stati uniti oltre il 50% degli “utilizzatori” di internet in mobilità accede alla rete utilizzando uno smartphone25 (circa 84 milioni), mentre in Italia è appena avvenuto il sorpasso di questi dispositivi sui cellulari tradizionali (oltre 20 milioni) 26. La loro diffusione massiccia è il simbolo della nuova rivoluzione digitale, l’ennesimo passo verso la simbiosi sognata da Licklider tra l’uomo e le tecnologie. Gli smartphone ad oggi sembrano essere il terreno più fertile della sperimentazione sulle realtà aumentate e sulle loro possibilità interattive tra gli ambienti, oggetti, testi e gli esseri umani. Sicuramente uno dei primi step verso l’internet delle cose alla portata di tutto e tutti. Il potere di collegare il reale al virtuale, l’attuale al possibile (e viceversa), tipico delle applicazioni AR, è prevalentemente un atto di potenziamento informativo e percettivo, non tanto riferito alla realtà in sé, quanto all’esperienza e ai nuovi modi di interazione che il soggetto acquisisce con essa. Difatti ciò che viene aumentato grazie alle applicazioni dell’Augmented Reality non è la realtà in sé, ma piuttosto la percezione che gli utenti hanno del mondo che li circonda (tramite informazioni virtuali che altrimenti sarebbero state impossibili da visualizzare attraverso i propri sensi) e le possibilità di interazione con esso (le informazioni trasmesse dagli oggetti virtuali aiutano gli utenti ad eseguire le attività del mondo reale). Sono queste le caratteristiche che rendono l’Augmented Reality veramente interessante, l’esempio specifico della Man24 Versione Actionscript (v3) di ARToolKit in grado di riconoscere un marker visuale da un'immagine in input e calcolare sia l'orientamento che la posizione della telecamera nel mondo 3D, per poi sovrapporre grafiche virtuali sull'immagine video reale. 25 blog.nielsen.com/nielsenwire/?p=31688 26 www.nielsen.com/it/it/news-insights/comunicati-stampa/2011/continua-a-crescere-lanavigazione-da-mobile-in-italia-.html 160 Computer Symbiosis teorizzata da Licklider e della tecnologia immaginata da Engelbart in grado di potenziare l’intelletto umano. Si tratta di un processo di augmentation che può avvenire secondo due modalità: il primo è di tipo qualitativo, ossia avviene tramite l’aggiunta di contenuti più dettagliati e approfonditi, il secondo è di tipo quantitativo, cioè semplicemente tramite l’aggiunta di più contenuti. Per esempio un sistema AR che permette di applicare un marcatore virtuale sul luogo in cui è parcheggiata la macchina, rappresenta un accrescimento qualitativo dell’esperienza (Augmented Car Finder), mentre le applicazioni che permettono di recuperare, a partire da un oggetto, le informazioni legate ad esso (prezzo, modelli disponibili, produttore ecc...) sono da considerare come augmentation quantitative, quindi essenzialmente di natura cognitiva. Il dominio di applicazione di una realtà aumentata in cui il livello di intensificazione ed estensione, inteso come accrescimento qualitativo dell’esperienza, tanto elevato quanto necessario, è sicuramente quello medico. Già agli albori del concetto di augmented reality iniziarono i primi interessanti esperimenti sull’effettiva possibilità di estendere grazie all’AR le capacità dei medici durante semplici analisi “scopiche” di controllo, o veri e propri interventi di chirurgia assistita e microinvasiva. Uno dei primi sistemi di controllo in ambito Fig. 33 - Esempio di sistema medico per visualizzare in tempo reale le immagini 3D del feto all’interno del grembo materno. medico venne progettato a partire dal 1992, presso l’University of Noth Carolina a Chapel Hill. Un gruppo di ricercatori condusse diverse sessioni di prova con un dispositivo ad ultrasuoni per scansionare il ventre di una donna incinta. L’obiettivo del progetto era quello di creare un vero e proprio “3-D stethoscope” che riuscisse a conferire al medico la capacità di visualizzare tramite un See-Through Head Mounted Display, le immagini 161 tridimensionali in tempo reale del feto (sviluppo e posizione) all’interno del grembo materno. Vedere ciò che ad occhio nudo non era possibile osservare e farlo nel modo più naturale possibile. Ben diversa invece può essere considerata l’applicazione dell’augmented reality in situazioni più complesse come gli interventi chirurgici. Il sistema immaginato a questo scopo prevedeva l’uso di un modello tridimensionale delle anatomie del paziente (generato attraverso una raccolta di immagini 3-D, ricavate da risonanza magnetica o sistemi di rilevamento ecografico), che avrebbe permesso di mappare l’esatta posizione delle formazioni maligne da rimuovere o analizzare. Il modello, opportunamente combinato in Real Time con il paziente e con “mockup” di istruzioni, avrebbe guidato la mano del chirurgo (e/o dell’apprendista) alle corrette operazioni da eseguire. Indubbiamente un sistema di questo tipo profila scenari decisamente suggestivi e futuristici, ma la sua concreta realizzazione era (ed è tuttora) considerata di difficile praticabilità, anche se applicativi AR di simulazione e training per operazioni chirurgiche, di natura molto simile a quella appena descritta, sono in realtà in via di sperimentazione (simulatore Canada National Research Council27 e Mini-Virtual Reality Encanced Mannequin for self-directed learning28). Sebbene questi esempi non siano concretamente attivi, rappresentano comunque l’idea di AR come strumento in grado di potenziare significativamente le capacità percettive dell’uomo, quindi di migliorare sensibilmente le sue possibilità di azione all’interno delle situazioni della vita di tutti i giorni: da quelle lavorative, 27 Simulatore neurochirurgico che utilizza l'innovativa tecnologia NRC per ricreare l'atmosfera da sala operatoria, consentendo ai medici di "allenarsi" per prove complesse, come operazioni al cervello, prima di eseguire l'intervento chirurgico vero e proprio. 28 Ambiente digitale di formazione in cui si riproducono, attraverso la sovrapposizione tra elementi reali e digitali, situazioni e azioni complementari a quelle che possono verificarsi nello svolgersi della loro professione medico-sanitaria. Per creare questo contesto immersivo, vengono posizionati sui polsi del personale medico in formazione due marker che permettono la visualizzazione delle azioni, direttamente sul monitor. Contemporaneamente il sistema permette anche il monitoraggio delle azioni (compressioni toraciche e ventilazioni di salvataggio) e dei gesti eseguiti, per avere un riscontro immediato sulle procedure fatte ed una auto-valutazione del lavoro eseguito, consentendo una correzione degli eventuali errori commessi. 162 dove sono richiesti interi sistemi dedicati, a quelle ludiche in cui è sufficiente semplicemente un app da scaricare ed installare sul proprio smartphone. Oltre a queste possibili augmentation qualitative o quantitative dei contenuti tipici dei sistemi AR, occorre analizzare un'ulteriore caratteristica già più volte indicata come elemento chiave nella riuscita di esperienze aumentate del mondo reale e più in generale degli ambienti che fanno parte del Reality-virtuality Continuum. Tale tratto distintivo è legato al fattore “immersione”, cioè la possibilità di creare simulazioni di ambienti in modo tale che risultino percettivi e reattivi (cioè in grado di rispondere coerentemente e in modo intelligente ai mutamenti di postura, punto di vista, orientamento, gestualità ecc...) specificatamente indirizzati ad uno schema corporeo. Ovviamente il grado di immersione nelle realtà aumentate è a sua volta legato al tipo di tecnologia utilizzata (difatti Milgram nel continuum EPM associa direttamente il livello di immersione al dispositivo di visualizzazione) e alle necessità dell’applicazione L’esempio più eclatante in merito ad un'immersione pressoché completa di questo tipo di facilitazioni, tralasciando le centinaia di applicazioni per smartphone (che per evidenti limiti tecnici sono da considerare come i sistemi “poveri” dell’augmented reality),è rappresentato dall’utilizzo dei complessi sistemi AR dedicati in ambito militare. Diversamente dal dominio medico (che abbiamo visto in precedenza), quello militare, è sempre stato terreno fertile per la nascita, lo sviluppo e l’affermazione delle nuove tecnologie. Successe con i computer, con internet, con le Realtà Virtuali (HMD, simulatori per addestramento ecc...) e naturalmente anche con le Realtà Aumentate. L’esercito già nei primi anni '90 utilizzava (e utilizza ancora) display augmented che presentano al pilota, direttamente sulla visiera o sul vetro della fusoliera del velivolo, dati ed informazioni che possono essere sia di natura tecnica (equipaggiamenti disponibili, autonomia carburante, altezza di volo, inclinazione ecc...) che di tipo operativo, cioè direttamente collegate alla zona in 163 cui sta agendo in quel momento il pilota (presenza di nemici o alleati, obiettivi, allarmi etc..). A partire da questi dispositivi la Tanagram Partner, grazie anche al contributo del DARPA, sta attualmente sviluppando una tecnologia militare in AR, che se dovesse rispettare quanto promesso nei prototipi, senza dubbio cambierebbe completamente gli scenari di guerra per come li conosciamo noi oggi. L’Intelligent Augmented Reality Model (IARM) è stata presentata nel giugno del 2010 in occasione del meeting-workshop sulle Augmented Reality a Santa Clara, in California, dal CEO Joseph Juhnke ed è stata accolta con enorme entusiasmo da tutto l’ambiente. La mission di Tanagram Partner è quella di dotare i soldati di fanteria di un dispositivo intelligente, in grado di aumentare la percezione degli ambienti e migliorare lo scambio di informazioni tra le truppe: immerge completamente i militari nella visione potenziata della realtà che li circonda. IARM sarà dotato di sensori leggeri e display che raccolgono e forniscono dati da e per ogni singolo soldato nel campo di battaglia. L’equipaggiamento tecnologico include un computer, una videocamera a 360 gradi, sensori UV e infrarossi, telecamere stereoscopiche e goggles display OLED 29 trasparenti. I soldati saranno messi in condizione di comunicare direttamente con la base operativa e tra di loro, trasmettendo informazioni importanti e utili all’ottimizzazione delle loro azioni, attraverso l’utilizzo di un linguaggio testuale o iconico specifico (simboli e colori potrebbero essere utilizzati per indicare la pericolosità di una determinata zona oppure la presenza di nemici, pericoli, cecchini lungo un determinato percorso) o attraverso gesti e posture corporee specifiche. IARM in poche parole intende migliorare i processi di decision making dei singoli soldati rispetto agli obiettivi della missione, grazie soprattutto alla possibilità di “arricchire” collaborativamente in tempo reale di oggetti-testi, 29 Dispositivo dall'aspetto di un paio di occhialini, ma con il display in oled situato a lato di una delle lenti. Fornito inoltre di fotocamera frontale che permetterà l'utilizzo di app di AR, mentre i comandi verranno impartiti tramite input cinetico o vocale. L'hardware sarà probabilmente un single core da 1ghz e una quantità di ram tra i 256 e i 512 MB. Inoltre sono dispositivi autonomi, quindi potremo reperire le informazioni di AR direttamente dalla rete. 164 informazioni e nuovi significati la mappa dell’ambiente in cui essi agiscono. Sebbene questo tipo di applicazione sia legato a specifici usi strategici militari, incarna perfettamente quello che è il concetto di immersività all’interno di un ambiente aumentato da testualità e possibilità comunicative strettamente connesse gli uni alle altre. Non è da escludere che nel prossimo futuro strumenti come questi possano essere utilizzati nella quotidianità e nei rapporti sociali: il progetto Tanagram prevede infatti di dotare di questi equipaggiamenti anche forze civili, come pompieri e unità di soccorso. Fig. 34 - Illustrazioni del dispositivo progettato dalla Tanagram Partners. Un’altra caratteristica essenziale delle applicazioni AR, come per molte altre tecnologie, è legata alla possibilità dell’utente di generare il proprio testo, di intervenire non solo sul significato, ma anche a livello del significante, modificandolo aggiungendo, sottraendo collegando e scollegando elementi da esso. Una tendenza questa della ricombinazione degli elementi che è uno dei tratti forti della cultura digitale, ma rappresenta anche il fondamento su cui si basa in generale tutta l’attività culturale dell’uomo. In particolare nelle applicazioni di augmented reality non si tratta tanto di creare il proprio testo attraverso un 165 intervento diretto, ma piuttosto fare in modo che il testo si crei da sé, secondo un processo generativo che si avvale della comunicazione come principale forza trainante e trasformatrice che avviene come risposta a determinate e specifiche sollecitazioni semantiche e gestuali degli utenti. La realtà aumentata può essere intesa come modi diversi di percepire la realtà, tanti quanti sono i layer di contenuti-testi che sono stati generati, siano essi frutto di processi e mappe autogenerative che ricreano il percorso esperienziale dell’utente in base a ciò di cui ha bisogno oppure di precise augmentation sviluppate collaborativamente o singolarmente per qualsiasi finalità specifica (marketing, advertising, lettura interattiva, istruzione, ecc...). Ogni livello rappresenta un particolare aspetto di ciò che si osserva, un punto di vista differente sul mondo e il suo comportamento. Ciò rende l’AR uno strumento particolarmente adatto a riappropriarsi dei propri spazi, soprattutto nei contesti urbani, ormai da tempo deturpati dalle pubblicità, che possono essere rimodellati, arricchiti o depotenziati. Il concetto di realtà aumentata per esempio può portare alla costruzione di edifici come l’N Building a Tachikava (Tokio), grazie alla Fig. 35 - N’building collabrazione tra il gruppo Teradadesign e Qosmo. Si tratta di un palazzo commerciale intelligente che nella sua unica facciata visibile (rivolta verso i passaggi pedonali) integra un sistema di controllo climatico e gestione della luce solare, con uno design neutro (privo di insegne luminose, cartelloni pubblicitari ecc...) e un sistema di comunicazione basato appunto sull’augmented reality. 166 In realtà tutta la facciata dell’edificio è una gigantesca composizione di “finestre” QRcode, che hanno la funzione di mascherare alla vista tutto ciò che riguarda il contenuto interno dell’edificio, spogliandolo di fatti di qualsiasi tipo di espressività. Tuttavia utilizzando un dispositivo in grado di interpretare i disegni dei marker, il palazzo comunica con l’esterno mostrando tutta la sua vitalità, si scoprono quindi promozioni, saldi, informazioni, ma anche messaggi, tweet e possibilità di interazione con l’edificio stesso o chi c’è al suo interno. L’N building è il risultato della sovrapposizione di più layer: uno fisico (materiale con cui è costruito), uno tecnologico (controllo climatico) e uno appunto informativo-interattivo virtuale (realtà aumentata). La sua stretta interconnessione tra il mondo reale e quello informatico (virtuale) lo rende un concreto (ed interessante) esempio di internet delle cose applicata ad un edificio, ma ciò che forse è ancora più interessante è rappresentato dal fatto che: da un lato gli utenti possono sperimentare attivamente l’aumento delle capacità sensoriali osservando qualcosa che non è visibile ad occhio nudo, dall’altro l’ambiente fisico urbano viene privato di tutte quelle informazioni accessorie che hanno il potere di saturare le nostre capacità cognitive (pubblicità, promozioni, etc...), trasferendole nella virtualità. Riappropriarsi degli spazi urbani è anche l’obiettivo di molti artisti o gruppi collettivi che sfruttano proprio l’AR per “correggere” la realtà inquinata visivamente dalle campagne di advertising. While other media outlets such as television and the Internet have founds ways to provide users with the ability to filter their informational intake, public space remains the elusive frontier in which commercial interests govern the discourse In an effort to highlight the individual’s lack of autonomy in this arena [...] have begun to explore the potential of augmented reality to reappropriate outdoor commercial singage in order to transform, filter, and democratize the messaging in public space [...] (gruppo anti-advertising Public Ad Campaign) Utilizzando uno dei più popolari browser AR, Junaio, il gruppo Public ad Campaign ha creato un canale denominato AR | AD Takeover in cui alcune campagne pubblicitarie vengono utilizzate come marker per essere riconosciute e 167 sostituite in realtà aumentata con opere d’arte. L’intento, come esplicato nel manifesto, è proprio quello di riappropriarsi degli spazi urbani, monopolizzati dai brand commerciali, quindi della realtà in modo tale da democratizzarla, filtrarla ed eventualmente rimodellarla secondo nuove modalità. Il consumatore si riappropria del suo territorio e torna a percepire il mondo per com’è davvero, sottraendo da esso i miti e falsi miti indotti dalla pubblicità. Se da un lato il futuro degli spazi urbani e delle AR sembra indicare la via della purificazione, dall’altro l’augmented reality è sicuramente considerata la nuova frontiera della pubblicità, se possibile, ancora più persistente e per certi versi anche più “pericolosa”, in quanto fortemente incentrata sulla singola persona, sui suoi gusti, georeferenziata e sempre più presente, coinvolgente e persuasiva. In pratica un terreno ancora vergine tutto da conquistare. I concept video di Keiichi Matsuda, Augmented (Hyper) Reality: Domestic Robocop e Augmented City sono proprio questa realtà: mondi di pubblicità che invadono tutti i nostri spazi virtuali (quasi) fino a soffocarci, tanto da doversi dotare di schermi “respingenti” anche solo per camminare in città. É evidente che gli scenari di Matsuda siano ben lontani dall’essere possibilmente attuabili, ma manifestano quello che è il concetto chiave: la realtà aumentata è un mondo di contenuti significanti e significati, siano essi testuali o multimediali, che instaurano legami sempre più profondi e inscindibili con il nostro sé, man mano che le tecnologie-dispositivi di visualizzazione e delle interfacce divengono sempre più human freindly e trasparenti, nonché socialmente accettabili. Il prototipo del Sixth Sense, sviluppato da Pranav Mistry (come progetto di dottorato di ricerca in Fluid Interfaces al Media Lab del MIT) e presentato al TED nel novembre del 2009, rappresenta proprio questa tendenza. É un anteprima di ciò che potrebbe riservare il futuro. Un futuro a dire la verità non troppo lontano. Il Sixth Sense è un dispositivo di interfaccia gestuale wearable (indossabile) che “aumenta” il mondo fisico di informazioni digitali e consente alle persone di 168 utilizzare movimenti e gesture naturali della mano per interagire con le informazioni e i contenuti virtuali. Il prototipo del dispositivo di Mistry è composto da: un proiettore miniaturizzato (pico projector), uno specchio, una mini camera e un dispositivo di mobile computing tascabile. Fig. 36 - Pranav Mistry alla presentazione del suo dispositivo augmented reality indossabile, Sixth Sense. Le immagini, informazioni e i testi-contenuti sono proiettate su enabling surfaces utilizzate come interfaccia, ossia qualsiasi parete o oggetto fisico attorno al soggetto che indossa il dispositivo. La mini camera riconosce gli oggetti fisici e traccia i gesti dell’utente attraverso l’utilizzo di fiducials colorati posti sulla punta delle dita. I movimenti di questi ultimi vengono elaborati ed interpretati dal software e fungono da istruzioni di interazione per le interfacce delle applicazioni previste. Il numero massimo di fiducials, quindi di gestures multitouch, è ovviamente limitato al numero delle dita. Il sistema Sixth Sense implementa diverse applicazioni che ne dimostrano la vitalità, l’utilità e la flessibilità. Per esempio l'app delle mappe consente all’utente di navigare in una mappa 169 visualizzata su una superficie vicina con i semplici gesti delle mani, consentendo, similmente a quanto accade sui dispositivi multitouch (smartphone, tablet), di interagire con essa ingrandendola, rimpicciolendola o ruotandola. Sixth Sense inoltre permette di disegnare sulle superfici e di controllare l’interfaccia del sistema, attraverso l’utilizzo di particolari gesture o tramite il riconoscimento di simboli disegnati con le dita nello spazio di fronte al raggio d’azione della telecamera. Per esempio disegnando una lente di ingrandimento sarà attivata l’applicazione delle mappe, disegnando il simbolo “@“ sarà possibile controllare la posta. Il sistema Sixth Sense aumenta gli oggetti fisici nella realtà con la quale l’utente interagisce, proiettando sopra di essi informazioni che li riguardano. Per esempio un giornale cartaceo può mostrare direttamente video, notizie live o informazioni dinamiche attinte dalla rete, oppure disegnando virtualmente un cerchio sul polso permette di visualizzare la proiezione sul proprio braccio di un orologio analogico. In poche parole il Sixth Sense è veramente un sesto senso, o meglio, è un potenziamento di tutti i sensi umani che grazie alle tecnologie riescono a manifestare e ad interagire con oggetti, spazi, ambienti arricchiti di informazioni, di nuovi contenuti e significati. In un futuro non troppo lontano quindi potrà essere possibile, incontrando una persona di nostra conoscenza, vedere proiettate sul suo corpo o intorno ad esso tutte le informazioni che la riguardano, tutti i dati della sua vita online e offline che ha deciso di condividere. A questo punto della nostra analisi è giusto chiedersi se l’augmented reality è destinata a durare nel tempo, quindi affermarsi come tecnologia stabile, oppure se rappresenta una moda passeggera, “un mito del presente” che terrorizza e attira allo stesso tempo, e che senza il giusto mix di contenuti e utilità potrebbe essere un soltanto ennesimo hype tecnologico destinato a scomparire. L’hype cycle30 diffuso da Gartner nel luglio del 2012 colloca la realtà aumentata al cosiddetto “Peak of inflated expectations”, ossia quella fase del ciclo di esposizione mediatica di un emergente tecnologia in cui si iniziano a produrre 30 Letteralmente significa "il ciclo di eccitazione", è il modello di analisi per verificare l’esposizione mediatica rispetto all’introduzione di una qualsiasi nuova tecnologia. Messo appunto dalla società di consulenza tecnologica americana Gartner. 170 articoli, commenti ed analisi generalmente positivi che attivano aspettative “gonfiate” rispetto a quelle reali. Ciò indica anche una possibilità di adozione definitiva entro i prossimi 5 anni. Fig. 37 - L’hype cycle delle reltà aumentate nel 2012 conferma la tendenza di crescita rispetto ai precedenti anni. Nella stessa analisi condotta nel 2008 (figura 38) l’AR veniva considerata al primo stadio del ciclo (Technology trigger, sostanzialmente l’inizio di un lieve interesse mediatico), con possibile adozione oltre i 10 anni. Solamente l’anno successivo (2009), in contemporanea con l’esplosione degli smartphone, l’AR incomincia a scalare l’hype cycle e la sua adozione passa da più di 10 anni a meno di 10 (tra i 5 e i 10 per l’esattezza). Da un punto di vista dello sviluppo, i dispositivi e le applicazioni AR non solo, come abbiamo visto nei precedenti paragrafi, hanno tutte le caratteristiche tecnologiche e sociali (dispositivi portatili di visualizzazione, affidabilità, semplicità e immediatezza d’uso, utilità pratica, possibilità comunicative tutte da esplorare) per poter essere largamente utilizzati, ma implicano anche un impatto 171 Fig. 38 - Confronto dell’hype cycle delle realtà aumentate redatto da Gartner tra il 2008 e il 2011. 172 Motivazioni e obiettivi del progetto _____________________179 Descrizione del progetto we.are.able_____________________182 Risultati raggiunti ___________________________________192 Conclusione ________________________________________201 Bibliografia Sitografia 7 un'esigenza sempre più forte di socializzare, quindi di rimare in rete (Nomofobia o disturbi da Social Addiction o Friendship Addiction). Le rivoluzioni tecnologiche portano così ad un progresso umano e quindi all'esplorazione di nuovi orizzonti. Si fanno i primi passi verso il mondo in Realtà Virtuale e in Realtà Aumentata. Uno dei primi fu Heiling che diede vita al Sensorama Simulator, un'esperienza multisensoriale mai provata prima. Susseguirono Sketchpad e The Ultimate Display, entrambe di Sutherland, in cui pose le basi per l'avvento della realtà virtuale. Nel 1968 completato l'Head Mounted Three Dimensional Display (spada di Democle), Sutherland e il suo staff svilupparono il matrix multiplier e il clipping divider. A differenza di Shuterland, Myron Krueger concepì un'idea diversa di realtà virtuale: non sarebbero stati ingombranti ed isolanti marchingegni a condurre l'uomo in mondi artificiali, ma una stanza appositamente studiata. Nascono così parallelamente altri esperimenti di realtà virtuale, come Put that there (1980), sotto la supervisione di Richard Bolt, con interfaccia a comando gestuale-vocale, come Aspen Movie Map, una sorta di evoluzione del Sensorama di Hollerith e ascendente dell'attuale Google Street View (immersività), come Moondust, ideato da Janor Lanier. Nel 1981 si assaggiò quello che oggi definiamo wearable computer. Difatti Thomas Zimmerman, appassionato di musica come Lanier, ideò Dataglove ("quella mano fluttuante era qualcosa di più di una mano. Ero io"), un guantosensore impiegato nella realtà virtuale. Si respirava così una nuova aria. Un'aria di una nuova era dalle potenzialità non meno affascinanti e suggestive: l'era della Realtà Aumentata. Nata per agevolare l'uomo (manutenzione Boeing 747), prese subito campo mediatico. Brevettato da Sportvision, 1st & Ten è il primo esempio di AR ad essere utilizzato nei broacasting televisivi. Si ha così la prima esplosione mediatica del concetto AR. Esplosione favorita dall'uscita di ARToolKit e successivamente di FLARToolkit (2004), grazie alle quali si potevano creare applicazioni in AR (alcuni esempi sono il 3-D stethoscope per l'ambito medico, IARM per quello militare e N'Building per quello architettonico). Anteprima di ciò che ci potrebbe riservare il futuro, è data da Pranav Mistry, con la creazione del dispositivo augmented reality wearable, Sixth Sense. Questo dispositivo di interfaccia gestuale wearable aumenta il mondo fisico di informazioni digitali, attraverso l'utilizzo di movimenti e gesture naturali della mano per interagire con i contenuti virtuali. Si ritorna così,dopo un excursus di migliaia di anni, alla mano, da strumento calcolatore a strumento di realtà aumentata. Mano che avrà un ruolo anche nella seconda parte del mio elaborato, quella dedicata al progetto. 10 13 1.1 La mano, il primo computer “digitale” Le nostre mani senza dubbio rappresentano la prima forma, seppur primitiva, di amplificatore dell’intelletto (e non solo): sono la chiave che ha aperto all’essere umano la porta dell’evoluzione, distinguendolo così dagli altri esseri viventi. La mano ci ha permesso di: costruire utensili e strumenti di caccia, riprodurre graficamente e simbolicamente ciò che i nostri occhi o la nostra mente vedevano (grotte di Lascaux), e soprattutto di calcolare. Grazie all’uso della dattilonomia3 i nostri antenati potevano fare calcoli aritmetici e, tramite sistemi di rappresentazione, potevano visualizzare numeri complessi semplificando notevolmente il lavoro che la mente (diversamente da questa tecnologia) avrebbe dovuto compiere. Sebbene non ci siano prove concrete e le sue origini siano del tutto oscure, del sistema dita-mente si hanno tracce in diverse epoche storiche. Quintiliano (35-96 d.C.), maestro di retorica e oratore romano, per esempio, afferma che un oratore sarebbe stato considerato ignorante se avesse sbagliato un calcolo o se avesse utilizzato gesti con le dita in modo errato mentre era impegnato nella risoluzione del medesimo. Gli Arabi (abilissimi matematici) chiamavano la dattilonomia “aritmetica dei nodi”4 , ampiamente utilizzata per tutto il Medioevo Islamico. Tale tecnica venne inserita tra i cinque metodi di espressione umana e preferita a qualsiasi altro sistema di calcolo perché non richiedeva materiali né strumenti particolari oltre che a un arto. Si hanno tracce anche nel Medioevo Europeo dove il teologo anglosassone Beda (672-735 a.C, monaco divenuto santo inglese), nel primo capitolo del “De computa vel loquela digitorum”, dimostra la possibilità di esprimersi ed eseguire calcoli con numeri da 1 a 9999 utilizzando la mano. 3 Arte ormai (quasi del tutto) abbandonata del conteggio aritmetico tramite l’uso delle dita, adoperando invece dei caratteri le varie inflessioni e movimenti di quest’ultime in modo da rappresentare cifre e calcoli complessi. 4 Aritmetica basata sull'utilizzo di un insieme di cordicelle, annodate tra loro, di diversi colori,che rappresentavano dei numeri e dalla loro reciproca posizione se ne potevano ricavare le unità, le decine, le centinaia e le migliaia. 16 e a lungo necessitava di maggiore precisione e forza, ma ciò non toglie il fatto che la macchina calcolatrice realizzata da Pascal, segnò l’inizio di una corsa inarrestabile che porterà fino ai moderni calcolatori. Il principio meccanico della Pascalina non è molto diverso dalla suddetta macchina di Antikythera e fondamentalmente si basa, come per gli abachi, sul sistema di numerazione posizionale, in cui i simboli (cifre) usati per scrivere i numeri, assumono valori diversi a seconda della posizione che occupano nella notazione. La Pascalina era in grado di computare solo semplici addizioni e sottrazioni, un limite che nel 1670 Gottfried Wilhelm von Leibniz7 cercò di superare grazie al prototipo della sua macchina a scatti, dotata di tecnologia per eseguire anche calcoli più complessi, come moltiplicazioni e divisioni. Fig. 2 - La Pascalina 1.4 Leibniz e il sistema binario Nonostante fosse un enorme progresso rispetto alla Pascalina, la macchina a scatti risulta essere un’innovazione che passa in secondo piano se confrontata a quello che lo stesso Leibniz, dal punto di vista teorico-matematico, stava introducendo al mondo. Per molti anni infatti Leibniz dedicò i suoi studi all’aritmetica binaria 8 (1701), compiendo così uno dei passi più importanti e significativi nella storia delle macchine elaboratrici: oltre a codificare un alfabeto appropriato per la logica 7 Gottfried Wilhelm von Leibniz (1646-1716) era un matematico tedesco, oltre che scienziato e filosofo, noto più come precursore dell'informatica e del calcolo automatico. 8 Il sistema numerico binario è definito un sistema numerico posizionale in base 2, cioè che utilizza 2 simboli, tipicamente 0 e 1, invece dei 10 del sistema numerico decimale tradizionale. 19 telaio di Jacquard rappresenta comunque uno stadio evolutivo tecnologico di interessante rilievo e di notevole importanza per le future applicazioni. Un esempio da seguire. 1.6 I primi computer meccanici Ascendenti dirette invece possono essere definite e considerate a tutti gli effetti come i primi computer meccanici della storia, le macchine di Charles Babbage (1791-1871), matematico inglese e scienziato proto-informatico. Rispetto ai suoi predecessori che hanno sempre cercato di costruire macchine calcolatrici capaci essenzialmente di eseguire le quattro operazioni principali (addizione, sottrazione, divisione, moltiplicazione), il matematico inglese voleva creare calcolatori universali dotati di memoria, di una parte operativa e di un’unità di controllo (concettualmente e “architetturalmente” molto simili a quelli moderni), capaci di svolgere sequenze di calcoli determinati dall’esecuzione di uno specifico programma. I calcolatori numerici presentati da Babbage hanno introdotto il concetto per la quale una macchina può imitare molto da vicino alcune azioni umane, semplicemente istruendole tramite apposite tavole di istruzioni programmate. to “programme a machine to carry out operation A” means to put the appropriate instruction table into the machino so that it will do A ("Computing Machinery and Intelligence" A.M. Turing, 1950) Al tempo di Babbage i tabulati numerici (prevalentemente ad uso astronomico) erano calcolati da operatori umani che venivano chiamati “computers”(che significa dall'inglese “colui che calcola”, così come il termine “conductor” significa “colui che guida”) e naturalmente erano soggetti ad un elevato tasso di errori. Il suo obiettivo divenne quindi quello di annullare tali imprecisioni tramite l’utilizzo di macchine calcolatrici. 22 concorso indotto dal United States Census Office (ufficio censimenti degli Stati Uniti) e finalizzato alla costruzione di una macchina in grado di classificare e contare automaticamente le schede necessarie per il controllo censitorio del paese. Hollerith utilizzò l’ormai consolidata idea delle schede perforate del sistema Jacquard-Babbage, non per specificare un programma da eseguire, ma per indicare alla macchina i dati da elaborare. Le risposte degli individui venivano interpretate e codificate su apposite schede da operatori umani secondo la logica binaria, mediante la rappresentazione di fori o non fori (per esempio un individuo “maschio” poteva essere rappresentato tramite un foro, mentre una “femmina” con l’assenza di foro). Per ogni foro la macchina attivava un circuito elettrico, altrimenti spento in sua assenza, che a sua volta metteva in funzione un complesso sistema di contatori in grado di immagazzinare ed interpretare le informazioni relative alle risposte fornite dall’individuo nel questionario del censimento. La tabulatrice di Hollerith16 divenne il primo dispositivo di calcolo a fare uso dell’elettricità. Completò il suo lavoro di conteggio e analisi schede in 50 giorni, (ci vollero 8 anni per portare a termine il precedente censimento senza l’uso di questo tipo di tecnologia) alla media di circa 800 schede al minuto. Una vera e propria rivoluzione per l’epoca. 1.7 Alan Turing La prima metà del XX secolo richiama alla mente da una parte il ricordo di distruzione e morte dettato dalle due grandi guerre mondiali, dall’altra lo straordinario progredire delle tecnologie informatiche. Guerra e ricerca tecnologica fanno parte in questo contesto di un sistema simbiotico, sono gli ingredienti essenziali che hanno scandito nell’ultimo periodo storico l’evoluzione che ci ha portato fino ai computer per come li conosciamo e li utilizziamo ancora 16 La macchina tabulatrice era congegnata su un meccanismo molto semplice: un insieme di fili metallici venivano sospesi sopra il lettore di schede, poste in corrispondenza di appropriate vaschette di mercurio; una volta che i fili venivano spinti sulla scheda, essi permettevano di chiudere elettricamente il circuito solo in corrispondenza dei fori praticati durante la rilevazione. Il circuito elettrico attivato consentiva l’avanzamento del relativo contatore, avvertendo l’operatore della lettura avvenuta. 25 femmina. Nell’eventualità che una macchina si sostituisse ad A o B, e se i risultati forniti da C fossero statisticamente identici alla situazione precedente, allora la macchina poteva essere considerata pensante. The reader must accept it as a fact that digital computers can be constructed, and indeed have been constructed, according to the principles we have described, and that they can in fact mimic the actions of a human computer very closely. ("Computing machinery and intelligence" A.M.Turing, 1950). Turing riconosce la difficoltà sulla fattibilità delle sue idee, ma non la loro impossibilità. È convinto che presto saremo in grado di innestare all’interno delle macchine il dono del pensiero, predicendo di fatto che entro la fine del secolo (XX secolo) chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto. La questione “Can machine think?” è rimasta insoluta ancora oggi (e forse una soluzione non la avrà mai), ma senza dubbio progresso tecnologico e decenni di ricerca nel campo delle intelligenze artificiali hanno aumentato le nostre possibilità di risposte al quesito proposto da Turing oltre 60 anni fa. the only way by which one could be sure that machine thinks is to be the machine and to feel oneself thinking ("Computing machinery and intelligence" A.M.Turing, 1950). 1.8 “As We May Think” secondo Vannevar Bush Il 1945 oltre ad essere ricordato come l’anno della fine del secondo conflitto mondiale, è anche l’anno in cui lo scienziato e tecnologo statunitense Vannevar Bush (1890-1974) pubblica un articolo dal titolo “As We May Think”. Sebbene i due eventi abbiano una portata in termini di rilevanza storica ben diversa, in qualche modo sono entrambi segnali, speranze e motivo di enormi ennesimi cambiamenti sociali, economici, politici, culturali e tecnologici. Il dopoguerra ha 28 C’è abbondanza di aiuti meccanici con i quali effettuare trasformazioni nei documenti scientifici [...] Per il pensiero evoluto non esiste nessun sostituto meccanico. Ma il pensiero creativo e il pensiero essenzialmente ripetitivo sono cose molto differenti. Per il secondo esistono, e possono esistere, potenti aiuti meccanici. (“As We May Think” Vannevar Bush, 1945) 2. La “visione” utopistica di Engelbart e Licklider “As We May Think” e l’intuizione del Memex del 1945 sono passaggi fondamentali che hanno notevolmente influenzato i fautori della prima rivoluzione informatica, avvenuta tra gli anni ‘60 e ‘70 e che ci ha condotto fino ai giorni nostri. Leggere il testo di Bush e immaginare il Memex come lo strumento capace di amplificare le conoscenze umane è, facendo le dovute proporzioni (e senza voler ricadere nella blasfemia), come osservare Mosé che indica al suo popolo la strada verso la terra promessa (computer). Le condizioni tecniche e tecno-logiche affinché si possa raggiungere erano tuttavia ancora proibitive (occorreva attraversare il Mar Rosso). 2.1 I “Giant brain” degli anni ‘40 Colossus (completato nella sua prima versione nel 1943) era completamente elettronico, funzionava attraverso 1500 valvole per la logica (2400 nella seconda versione del 1944) e cinque lettori a nastro perforato, capaci di leggere fino a 5000 caratteri al secondo. Sebbene fosse il primo calcolatore elettronico programmabile della storia e fosse tra le tecnologie più avanzate dei primi anni ‘40, aveva comunque molte limitazioni rispetto agli standard a cui siamo abituati (a parte chiaramente la potenza di calcolo). In primo luogo non è dotato di nessun tipo di programma pre installato: affinché potesse eseguire altre operazioni occorreva intervenire direttamente sul cablaggio e sulle valvole. Colossus inoltre non è definibile come computer General-purpose22 poiché progettato esclusivamente per compiti crittoanalitici. 22 Identifica hardware e software che risolvono problemi generali e quindi non sono dedicati ad una specifica funzione. 31 Ciò che aveva immaginato Bush andava ad intaccare proprio quel sistema elitario, poiché mirava ad un rapporto più diretto, personale ed immediato con le macchine elaboratrici. Non sorprende quindi il fatto che tali idee abbiano avuto credito e (molta) stima solo parecchi anni dopo, grazie all’avvento della miniaturizzazione delle tecnologie di base e soprattutto ad altre menti altrettanto brillanti e profetiche, che hanno rivoluzionato il mondo creandone di nuovi: Douglas Carl Engelbart, Joseph Carl Robnett Licklider e David Edward Sutherland(di quest’ultimo ci occuperemo più approfonditamente nel terzo capitolo). 2.2 Engelbart e il potenziamento dell’intelletto umano Engelbart nel 1945 era un giovane radarista della Marina statunitense (1925), impegnato in gran parte delle sue giornate a distinguere le minacce rappresentate dai puntini sugli schermi. Poco prima della fine della guerra si imbatte nell’articolo di Bush “As We May Think” e ne rimane davvero affascinato. “Sopravvissuto” al conflitto, trova lavoro in una piccola ditta di elettronica a Mountain View (che nel giro di pochi anni si sarebbe trasformata da frutteto a cuore pulsante e trainante della Silicon Valley), si compra una casa e si sposa. All’età di trent’anni compresi che avevo raggiunto tutti gli obiettivi della mia vita [...] mi chiesi che cosa avrei fatto da quel momento in poi e compresi che si trattava di una decisione importante. ("Realtà Virtuali" Howard Rheingold, citazione di Douglas Engelbart, 1983) Nel 1950 mentre attraversava i frutteti della valle per recarsi (come tutti i giorni) al lavoro, incominciò a pensare al futuro. Non solo il suo, ma quello di tutti. Cercava di capire quali opportunità avrebbe potuto cogliere per rendere il mondo migliore. Gli ritornò alla mente quanto letto dall’articolo di Bush in merito alla tecnologia e alla sua possibilità di essere d’aiuto per la collettività, e subito si rese conto che gli scenari che cercava di immaginare si imbattevano sempre sugli stessi ostacoli: i problemi dell’uomo diventavano ogni giorno sempre più 34 cervello seguendo due tipologie di processi: conscio e inconscio. Il primo si occupa di tutte quelle azioni che coinvolgono in qualche modo la nostra volontà (come riconoscere una forma, ricordare, visualizzare, astrarre, dedurre etc.), mentre il secondo implica la mediazione delle informazioni ricevute dai sensi e quelle rielaborate dal sistema conscio. La capacità di mediazione degli input sensoriali generati consciamente e inconsciamente è inoltre dettata anche dal background culturale ed esperienziale che contraddistingue ogni individuo. In determinate situazioni complesse l’individuo tende ad ignorare questo tipo di informazioni, cercando di privilegiare le sue capacità innate derivate dal suo bagaglio di conoscenze. For instance, an aborigine who possesses all of our basic sensory-mental-motor capabilities, but does not possess our background of indirect knowledge and procedure, cannot organize the proper direct actions necessary to drive a car through traffic, request a book from the library, call a committee meeting to discuss a tentative plan, call someone on the telephone, or compose a letter on the typewriter ("Augmenting Human Intellect: A Conceptual Framework" D. C. Engelbart, 1962) Ogni processo del pensiero ed agire umano, a partire dalle cose più semplici fino ad arrivare a quelle più complesse, è costituito da sotto-processi strutturati gerarchicamente e indipendenti tra loro, la parte integrate di un bagaglio, un toolkit di capacità che tutti devono conoscere, imparare ad usare al meglio ed amplificare. Fanno parte di questo repertoire hierarchy tutte le abilità di base (definite Explicit Human: movimenti muscolari, utilizzo dei sensi etc.), quelle acquisite dall’uso di oggetti (definite Explicit Artifact) e quelle composte dalla combinazione di entrambe le competenze (Composite). Engelbart definisce questo tipo di sistema attraverso un modello denominato H-LAM/T26 in cui il linguaggio umano, gli oggetti, la metodologia e la specializzazione nel loro utilizzo sono gli ingredienti essenziali del comportamento umano, dell’intelletto e della percezione del mondo. 26 Human using Lauguage, Artifacts, Methodology, in which he is Trained 37 Per scrivere accuratamente un testo, seguendo questa premessa, occorrerà scrivere più grande e magari premere maggiormente per rendere più nitido, preciso e leggibile il tratto. Come prima conseguenza ci sarà un dispendio di energie maggiore, ma anche una produzione di documenti di dimensione nettamente più voluminose. Le modalità di archiviazione (che consentono l’organizzazione del commercio e del governo) e i calcoli (che consentono lo sviluppo delle scienze) assumeranno una forma molto diversa rispetto alla nostra. Un’altra conseguenza diretta sarà un progressivo rallentamento della produzione scritta di testi a causa dei libri troppo grandi e più in generale della cultura, scoraggiando notevolmente le persone dall’apprendere e dal comprendere. I concetti all’interno di questa civiltà si evolveranno diversamente e la simbologia per rappresentarli sarà dissimile rispetto alla nostra. It thus seems very likely that our thoughts and our language would be rather directly affected by the particular means used by our culture for externally manipulating symbols, which gives little intuitive substantiation to our Neo-Whorfian hypothesis ("Augmenting Human Intellect: A Conceptual Framework" Douglas Engelbart, 1962) Tramite l’uso di computer appositamente progettati, dotati cioè di schermo di visualizzazione (output) e strumenti di interazione uomo-macchina adatti (input), e un linguaggio appropriato fatto di immagini e segni, l’uomo è in grado di rappresentare facilmente i concetti che vuole manipolare, oltre ad organizzarli (direttamente davanti agli occhi), trasformarli, immagazzinarli e ricordarli. Ogni individuo così potrà adoperare gli strumenti di cui il computer sarà composto (non sono posti limiti al riguardo): potrà creare immagini estremamente sofisticate, grafici, scrivere testi secondo nuove modalità più affini ai flussi del pensiero ed eseguire una vasta quantità di processi non più legati alla semplice elaborazione numerica. Comunicherà con il computer mediante interazioni minime in grado però di produrre risultati dal potenziale immenso. 40 Secondo lo scienziato americano, la cooperazione tra l’intelletto-capacità umane e le componenti elettroniche dovranno consentire in primis di facilitare l’esternazione dei pensieri così come ora consentono la risoluzione dei problemi formulati, e secondariamente di avere un maggiore controllo decisionale in merito a situazioni complesse senza la dipendenza da programmi predeterminati. Si tratta di un concetto biologico più che tecnico. La simbiosi dei due “organismi” diversi tra loro (computer e uomo) si ottiene tramite un'intima collaborazione, finalizzata alla costruzione di conoscenza così come avviene in natura nelle società simbiotiche (Blastophaga grossorum e albero di fico). “living together in intimate association, or even close union, of two dissimilar organisms” (“ManComputer Symbiosis” Joseph Licklider, 1960) Tra non molti anni, secondo le speranze di Licklider, i cervelli umani ed i calcolatori saranno associati molto strettamente tra loro e il sodalizio che ne risulterà avrà capacità intellettuali che nessun essere umano ha mai avuto, elaborerà dati in un modo a cui nessuna delle macchine per la manipolazione delle informazione che attualmente conosciamo riesce ad avvicinarsi. I computer di prima generazione (come abbiamo visto) erano progettati per risolvere problemi pre-formulati e processare dati tramite procedure predeterminate. Ad ogni imprevisto o risultato inatteso, l’intero processo si fermava finché non veniva sviluppata l’estensione necessaria per risolvere le complicazioni riscontrate nella risoluzione del problema principale. Una collaborazione di questo tipo può essere considerata tutt’altro che simbiotica. Il cervello umano deve pre-disporre un programma specifico ad ogni necessità, sottoporlo alla macchina assieme ai dati utili ed attendere che il computer, una volta terminato il processo, ne restituisca il risultato. Tuttavia il requisito della pre-formulazione per la maggior parte dei problemi che l’uomo deve affrontare (in ambiti di ricerca scientifico-tecnologico) non può essere considerato l’approccio più corretto in quanto le formulazioni, i dati e le 43 loro sogni e trascinare, assieme ad altri “illuminati” tecnologici, il mondo verso il nuovo mondo. Nel 1957, dopo aver cercato senza successo di far conoscere la propria idea di computer, Engelbart trova lavoro presso lo Stanford Research Institute in qualità di “semplice” ricercatore. Questo gli permette di mettere a punto un modo per far capire alla gente di cosa stava parlando nella sua “visione”. Dedica gran parte del suo tempo libero ad elaborare formalmente la struttura concettuale di cui aveva bisogno (quello che poi diventerà “Augmenting Human Intellect”). Nello stesso periodo Licklider, affermato professore-ricercatore al Massachussetts Institute of tecnology, incominciava ad intuire qualcosa circa la possibilità di delegare parte dei lavori da scienziato alle macchine. Engelbart e Licklider non si conoscevano ancora, ma lentamente i loro percorsi incominciarono ad avvicinarsi. Per farli convergere fu necessario un evento avvenuto dall’altra parte del mondo. Una "causa scatenante" capace di aprire le menti di molti scienziati e ricercatori (all'epoca ben più importanti ed influenti di Doug e Lick) dallo stallo culturale e tecnologico che si insinuò a decorrere dalla fine della Seconda Guerra Mondiale. Non è che dal 1945 la tecnologia si fosse fermata, anzi tutt'altro, accelerò notevolmente ma sempre verso un'unica direzione: potenziare sempre più i computer affinché elaborino sempre più informazioni e più velocemente possibile. Ad eccezione di pochi isolati casi, il computer, o meglio il suo scopo, era sempre quello ereditato dagli anni '40. Engelbart e Licklider sono i simboli di quei "isolati casi" che negli anni '60 avrebbero reso possibile la nascita del computer per come lo conosciamo noi oggi. Gli occhi di tutta l’umanità in questo (ennesimo) delicato momento storico carico di tensioni, pronte a sfociare in una nuova guerra, è rivolto principalmente in direzione delle due super-potenze artefici di questo status: da una parte gli Stati Uniti e dall’altra parte la Russia. Siamo in piena Guerra Fredda e la corsa agli armamenti, oltre ad aver pericolosamente “arricchito” le due parti di testate nucleari, ha anche incentivato notevolmente il progresso tecnologico-scientifico. 46 della Rand Corporation, dell’Università dello Utha e dei più affermati gruppi di ricerca degli Stati Uniti. Aveva mosso l’interesse collettivo verso un progetto di futuro che ormai in molti iniziarono a condividere ed ammirare. Tra i tanti “convertiti” alla visione di Licklider ci fu un certo Robert William Taylor (1932). Bob Taylor in quel periodo era un giovane direttore di ricerca della NASA che stava sostenendo progetti scientifici di un certo rilievo storico e culturale (si occupava del programma Apollo33, che di lì a poco avrebbe mandato, e fatto ritornare vivi, un equipaggio umano). Come Licklider aveva interessi in psicoacustica (argomento del suo progetto di laurea) e condivideva l’approccio alle nuove tecnologie esplicato in Man-Computer Symbiosis del 1960. Più o meno nello stesso periodo, Taylor ebbe modo di incontrare anche Engelbart nel suo laboratorio allo Stanford Research Institute, ed entusiasmato dal futuro che riusciva ad immaginare e a far immaginare, decise di finanziarne direttamente le ricerche teoriche, le stesse che saranno presenti in Augmenting Human Intellect del 1962. Le strade di Licklider e di Engelbart confluirono definitivamente nel 1964 grazie all’aiuto di Taylor, che raccomandò a Licklider Engelbart il suo team di ricerca dell'SRI. Licklider aveva gli strumenti, sopratutto economici, per sviluppare nuove idee, Engelbart aveva le idee, i progetti giusti e un team di ricerca avanzato. Un gruppo di finanziatori dell’ARPA si recò allo Stanford Research Institute e promise ad Engelbart attrezzature informatiche di ultima generazione e fondi (1 milione di dollari all’anno) per creare gli amplificatori dell’intelletto che aveva concepito nella sua “visione” e descritto nel suo testo pubblicato circa 2 anni prima. Finalmente Engelbart aveva tutti gli elementi necessari a realizzare ciò che aveva immaginato nel lontano 1950: aveva i progetti, una ricerca lunga un decennio e adesso anche i mezzi tecnologici ed economici. I piani di Engelbart erano chiari e semplici. 33 Programma americano spaziale che portò allo sbarco dei primi uomini sulla Luna. 49 trattava ancora di una vera e propria bit-map, ma Sutherland aveva intuito il modo più efficace per far funzionare computer relativamente poco potenti come quello del Lincoln Laboratory con il display a tubo catodico. Aveva fatto qualcosa di incredibile (Sketchpad) tanto da meritarsi l'appellativo di programma più importante della storia. Grazie a Sketchpad chiunque poteva vedere che i computer potevano essere utilizzati anche per scopi ben diversi dalla semplice elaborazione dati. Vedere Sketchpad all’opera, voleva dire convincersene fortemente. Si poteva disegnare un’immagine sullo schermo con la penna ottica - e poi riportarla nella memoria del computer. In questo modo infatti si potevano salvare molte immagini. [...] C’erano già stati schermi grafici e penne ottiche nell’esercito, ma Sketchpad era storico nella sua semplicità - una semplicità, occorre aggiungere, che era stata deliberatamente costruita da un intelletto capace -e nel fatto che non rendeva necessaria nessuna competenza specifica [...] Era, per farla breve, un programma semplice che mostrava come potrebbe essere semplice il lavoro dell’uomo se ci fosse un computer tale da essere veramente d’aiuto. ("The Home Computer Revolution" Ted Nelson, 1977) Il Fall Joit Computer Conference del 9 dicembre del 1968 e più in particolare la sessione denominata “A research center for Augmentig Human Intellect”, erano il luogo e il momento ideale per osservare il futuro. Engelbart e il suo ARC erano pronti a presentare al mondo le innovazioni che avrebbero cambiato la storia dei computer. Venne ricordata come “The mother of all demos”. La dimostrazione che Engelbart compie del suo sistema NLS (oN Line System) lascia tutti senza fiato. Vennero introdotte features come: il mouse, la video conferenza, l’ipertesto, il software per l’elaborazione di testi e il concetto di collaborazione in tempo reale a distanza. Praticamente stavano dimostrando il futuro. Improvvisamente, agli occhi dei 1000 professionisti del settore presenti fisicamente alla conferenza, qualsiasi altro computer sembrò obsoleto. Non poteva essere altrimenti, guardare Engelbart che si muoveva all'interno dei dati, li organizzava, li condivideva, li memorizzava, li rielaborava, in poche parole che 52 così come il cervello umano, riesce a “sopravvivere” anche se alcuni nodi sono danneggiati. Un’altra brillante idea suggerita da Baran e ripresa successivamente da Leonard Kleinrock 35 (1934) e Donald Watts Davies 36 (1924-2000) , è il concetto di commutazione a pacchetto. Baran suggerisce infatti di: suddividere le comunicazioni in entità elementari di lunghezza specifica (pacchetti di dati), trasmetterle in seguito assieme alle informazioni necessarie sulla composizione delle informazioni ed instradarle individualmente e in modo indipendente (tramite percorsi e tempi differenti), per essere successivamente ricomposte nel punto di destinazione. Questo tipo di comportamento, a differenza di quello a trasmissione continua, consente da un lato di limitare perdite di informazioni (se un pacchetto non arriva a destinazione o arriva danneggiato o corrotto, il sistema provvede a inviare nuovamente la parte mancante) e dall’altro di garantire una maggiore velocità di comunicazione in quanto ogni pacchetto tenderà sempre a seguire il percorso (momento per momento) meno saturo. Le idee di Baran inizialmente non trovarono riscontro presso la comunità scientifica dell’ARPA, salvo poi essere riconsiderate grazie ai successivi esperimenti e ricerche di Kleinrock e Davies. Basically, what I did for my PhD research in 1961-1962 was to establish a mathematical theory of packet networks [...] (L. Kleinrock) La commutazione a pacchetti e il concetto di rete distribuita erano le fondamenta su cui la futura Rete avrebbe dovuto poggiare. 35 Informatico statunitense, noto per essere stato il primo a stabilire la comunicazione tra computer nell'ottobre del 1969. 36 Informatico gallese, ritenuto uno dei primi inventori della commutazione a pacchetto. 55 accuratamente in un memorandum del 1959 dal titolo “A Time Sharing Operator Program for our Projected IBM 709”. Questo tipo di sistema fu l’essenziale precursore che ha permesso lo sviluppo del Computer Networking. Licklider assimilò il concetto di time-sharing per sviluppare un’idea altrettanto importante per quanto riguarda il futuro dell’interazione uomo-computer. Non pensò (almeno per il momento) di dotare ogni individuo di un computer dedicato (costi troppo elevati), pensava piuttosto a sistemi centralizzati, cui tutti potevano accedere attraverso un terminale remoto. Questo tipo di applicazione avrebbe consentito, oltre un utilizzo più intelligente delle risorse (in termini di uomini e di macchine) distribuite nei vari centri affiliati al progetto ARPA, anche comunicazione ed interscambio di informazioni. Il concetto di time-sharing, dove una grossa macchina divideva le sue capacità di calcolo per un certo numero di utenti ad intervalli di operazioni regolari, è l’idea chiave alla base dei programmi scientifici dell’IPTO di Licklider. L’obiettivo principale ben presto divenne quello di costruire una macchina multi-user che fosse in grado di eseguire programmi software in parallelo. Licklider riteneva che nel giro di pochi anni il sogno di creare una macchina dalle potenzialità spiccatamente interattive e in grado di far comunicare le persone a distanza e in un modo del tutto differente dal telefono, si sarebbe concretizzato. Inoltre notò anche che la rete intergalattica che di lì a poco si sarebbe sviluppata, avrebbe potuto affermarsi solo se tali macchine interattive sarebbero state alla portata di tutti. Twenty years from now, some form of keyboard operation will doubtless be taught in kindergarten, and forty years from now, keyboards may be as universal as pencils, but at present good typists are few. ("One-Line Man Computer Communication", Licklider, Welden E. Clerck, August 1962) Nel 1963 Licklider scrive una serie di appunti interni al progetto ARPA dal titolo “Memorandum For Members and Affiliates of the Intergalactic Computer Network” in cui espone profeticamente i concetti, i problemi da risolvere al fine di creare l’Intergalactic Network voluto dall’ARPA e collegare così in una rete gli elaboratori a disposizione nei vari centri. Il periodo di Licklider al comando 58 Sai, Larry, questa rete sta diventando troppo complessa per essere disegnata sul retro di una busta"41 È bene sottolineare a questo punto la duplice importanza che ha avuto, e che ha tuttora, l’idea della commutazione a pacchetto (elemento cardine che ha permesso la nascita e lo sviluppo della Rete), per il mondo non tecnico: in primo luogo ha permesso la creazione di un sistema comunicativo decentralizzato (senza un controllo centrale), in cui ogni nodo di smistamento sa dove e come fare arrivare le informazioni richieste a destinazione; in secondo luogo, l’idea dei “pacchetti” garantisce la possibilità non solo di trasportare semplici messaggi, ma anche di dislocare tutto ciò che gli uomini sono in grado di percepire e le macchine di elaborare (voci, suoni, video, immagini ecc...). Fattore determinante per l’esplosione della Rete come mezzo di comunicazione universale e multimediale. Parallelamente ai primi esperimenti di time-sharing degli anni '60 nei laboratori affiliati all’ARPA che consentivano a molti individui di interagire direttamente con il computer centrale per mezzo di un punto di accesso (terminale), invece di aspettare il loro turno per presentare i programmi agli operatori informatici, vennero sviluppate anche altri tipi di risorse che diventeranno il cardine della nuova rete. Come suggerisce Howard Rehingold 42 (1947) nel libro "Comunità virtuali", dal momento che si costruisce un sistema Fig. 10 - Illustrazione di Leonard Kleinrock dei nodi della Rete ARPANET nel 1972 di elaborazione che consente a cinquanta-cento programmatori di interagire direttamente e individualmente con 41 Leonard Kleinrock tramite un commento ironico al suo amico Larry Roberts fa notare la somiglianza della rete ad una busta. 42 Critico letterario statunitense noto per aver coniato il termine "comunità virtuali". 61 Il computer di nuova generazione (che Licklider ed Engelbart avevano immaginato e che stavano contribuendo a creare) capace di combinare nuove modalità di rappresentazione delle immagini alle tecnologie di comunicazione, se messo a disposizione di tutti, avrebbe rappresentato lo strumento di collaborazione più potente che sia mai stato inventato. Condividere informazioni, passare da livelli di macro analisi a livelli più dettagliati delle stesse, assemblare e costruire nuovi modelli di pensiero, tagliare ed incollare dati, sono tutte potenzialità concepite dai nuovi mezzi informatici con i quali è possibile costruire forme di comunicazione fluide e dinamiche, completamente differenti a qualsiasi altra forma collaborativa resa possibile con i precedenti ausili tecnologici. Se a questo ci aggiungiamo anche le capacità di collegare tale conoscenza generata dal lavoro di un gruppo, di una comunità locale, di un centro di ricerca o università attorno ad un computer, con altre geograficamente distribuite, otteniamo una crescita esponenziale delle potenzialità dell’intelletto collettivo. [...] Allo stato attuale vi sono forse non più di una dozzina di comunità che operano con computer interattivi multi-accesso. Si tratta di comunità socio-tecniche pionieristiche, e pre diverse ragioni molto più avanti del resto del mondo che ha a che fare con i computer [...] Essere collegati sarà un privilegio o un diritto? Se la possibilità di sfruttare il vantaggio dell’amplificazione dell’intelligenza sarà riservata a un’élite privilegiata, la rete non farà che esasperare le differenze tra le opportunità intellettuali. Se invece l’idea della rete dovesse risultare, come noi speravamo progettandola, un ausilio per l’istruzione, e se tutte le menti vi dovessero reagire positivamente, di certo il beneficio per il genere umano sarà smisurato. ("The Computer As Communication Device" J.C.R. Licklider and Robert W. Taylor, 1968) La rete immaginata da Licklider sconvolge il paradigma della comunicazione tipico dei media, come il telefono e la televisione. Non c’è una più un sistema composto da una sola fonte, un solo canale di trasmissione e un solo ricevente. La comunicazione mediata dal computer nella Rete assume forme più instabili e mutevoli che sono sempre nuove. I partecipanti alle comunità in Rete sono soggetti attivi che costruiscono di volta in volta il proprio mondo di significati e di modelli costantemente 64 Il computer è un medium! L’avevo sempre considerato uno strumento, forse un veicolo [...] Quello che McLuhan voleva dire è che se il computer è un nuovo vero mezzo di comunicazione, allora il suo uso effettivo dovrebbe addirittura cambiare gli schemi di pensiero dell’intera civiltà. (Alan Kay) Nel 1973 il team dello Xerox PARC progettò e costruì per uso interno, come strumento di esplorazione delle nuove tecnologie e progettazione di sistemi sempre più avanzati, il primo Personal Computer della storia: lo Xerox ALTO. s Lo sviluppo di ARPANET continuò ad essere costante fino al 1983 quando si sdoppiò in ARPANET (utilizzata per la ricerca) e MILNET (utilizzata per scopi militari). Entrambe le reti continuavano ad essere geograficamente distribuite, disponevano, tra i vari nodi, di linee di connessione ad alta velocità e ad alta portata di utenza. Sempre nello stesso anno venne realizzata da alcuni programmatori dell’ARPA una nuova versione di Unix (sistema operativo altamente utilizzato in ambienti accademici e universitari) compatibile con i protocolli di comunicazione della Rete (TCP/IP45 ) e distribuito ad un prezzo accessibile. Ben presto ARPANET incominciò ad espandersi di sottoreti locali a temi di discussione specifiche interne agli ambienti accademici ed universitari, diventando sempre più una Rete di reti. Più cresceva e più le persone volevano entrare a far parte di questo network di intelligenze che si scambiano conoscenze, informazioni e dati in ogni parte degli Stati Uniti. A partire dagli anni '80 fu chiamata dapprima ARPA Internet e successivamente solo INTERNET. Il progetto iniziato negli anni '60 dall’IPTO di Licklider divenne nel giro di vent’anni la rete intergalattica che aveva ipotizzato e sognato, i suoi sforzi, così come quelli di tutti i ricercatori, hanno reso possibile la nascita del più potente mezzo di comunicazione e condivisione che l’uomo abbia mai inventato. Il luogo ideale per amplificare l’intelletto. 45 Transfer Control Protocol / Internet Protocol 67 70 Queste riflessioni lo portarono a definire il concetto di entropia1, o meglio a ridefinirlo secondo un nuovo punto di vista2, strettamente legato alla comunicazione. Shannon osservò che l’incertezza in ogni sistema è dovuta alla mancanza dell'informazione, quindi se prendiamo in considerazione la comunicazione tra due persone, oppure la decifrazione di un messaggio alfanumerico, osserviamo che man mano che diminuisce la casualità delle informazioni, si riduce anche l’incertezza. Il messaggio, o parte di esso, diventa quindi più chiaro e comprensibile ai nostri sensi. E' proprio grazie alla possibilità di eliminare o escludere completamente il rumore dal messaggio, che riusciamo a ricavare informazioni. In conclusione, sintetizzando quanto espresso da Shannon nel documento del 1948 “A Mathematical Theory of Communication”, è possibile affermare che l’informazione è riduzione dell’incertezza. Shannon oltre a queste osservazioni identifica quelli che sono gli elementi di base di un sistema di comunicazione, qualunque esso sia e qualunque sia la tecnologia su cui regge. Questi elementi, generalmente identificabili e descrivibili con facilità, sono: 1. una fonte di informazione, che può essere rappresentata come una persona o una macchina (oggetto), in ogni caso si tratta di un dispositivo di diffusione dell’informazione (messaggio), in grado di trasformarla in un formato adatto ad essere veicolato. É la cosiddetta fase di codifica del messaggio, che avviene mediante precise caratteristiche dettate appunto da chi lo trasmette (fonte); 1 E' un concetto attinto dalla fisica, risalente alla seconda legge della termodinamica, elaborata nel XIX secolo. Secondo questa legge, l’entropia è il grado di casualità che esiste in ogni sistema, e tende ad aumentare per effetto dell’incontro tra molecole, rendendo incerta l’evoluzione del sistema stesso. 2 La probabilità relativa che si verifichi un evento tra tutti quelli possibili (per esempio, che si indovini una lettera dell’alfabeto), dipende dal numero totale di casi nella popolazione degli eventi (le lettere dell’alfabeto) e dalla frequenza dell’evento specificato (numero di domande con risposta si - no necessarie per trovare la risposta corretta). Quindi per una lettera dell’alfabeto, occorre ridurre il valore di incertezza, che in questo caso è pari a 20 (il numero delle lettere dell’alfabeto). Per farlo è sufficiente porre semplici domande a cui si possa rispondere affermativamente o negativamente (si, no), per esempio si potrebbe chiedere se la lettera viene dopo la “L” (lettera che ipoteticamente divide a metà l’alfabeto), e così via fino ad escludere ad ogni domanda i valori possibili riducendo l’incertezza. Nel caso preso in esame l’incertezza potrebbe essere ridotta ad un valore di cinque. Secondo Shannon l’ entropia di un sistema è rappresentata quindi dal logaritmo del numero di possibili combinazioni di stati in quel dato sistema. Il logaritmo rappresenta il numero delle domande per ridurre l’incertezza. 73 l’evoluzione del computer, da semplice strumento di calcolo a manipolatore di simboli, fino ad arrivare a potentissimo mezzo relazionale, quindi di comunicazione. Nel saggio "The computer as communication device" di Licklider e Taylor (che abbiamo analizzato nel paragrafo 3.4) sono già implicati una serie di concetti che saranno di fondamentale importanza per lo sviluppo delle teorie sulla CMC. Ciò che viene descritto nel loro testo, non è un elaboratore tipico, “tradizionale”, era qualcosa di più: era un computer pensato come mezzo di comunicazione, ossia come vero e proprio medium sociale in grado di sviluppare relazioni creative tra gruppi di lavoro, che se svolte attraverso le nascenti reti, avrebbero trasformato definitivamente lo stesso computer in uno spazio di comunicazione. Dopo gli studi di Licklider e Taylor, negli anni '80 grazie soprattutto all’evoluzione e la proliferazione di quelli che furono i primi sistemi computerizzati, l’interesse e lo studio della CMC diventa sempre più di attualità e utile nella progettazione e organizzazione strategica di reti di comunicazione all’interno delle aziende. In questo contesto nasce l’esigenza di valutare gli strumenti informatici sia da un punto di vista tecnico (legato alla produttività) sia da quello socio-psicologico (legato agli effetti della comunicazione e interazione con le macchine). Gli studiosi focalizzarono il loro interesse soprattutto nella comprensione degli effetti che avrebbe provocato un tipo di una comunicazione semplice e rapida, capace di raggiungere istantaneamente qualsiasi luogo. Altre importanti considerazioni avrebbero implicato i potenziali effetti derivati dalla natura prevalentemente testuale della CMC, quindi priva di situazioni e comportamenti tipici della comunicazione e dei codici non verbali, e gli effetti dovuti alla mancanza di informazioni relative all’identità degli interlocutori con una conseguente notevole accentuazione dell’anonimato. Nel tentativo di trovare riscontri alle problematiche che questo tipo di comunicazione avrebbe potuto causare alle/nelle persone e nei rapporti sociali, si svilupparono diversi approcci di studio, che possiamo categorizzare in: CMC 76 Burgoon (1992), sostiene che la comunicazione mediata dal computer può veicolare la stessa socialità di una qualsiasi altra comunicazione face to face se chi ne fa parte dispone del tempo strettamente necessario per svilupparla. Secondo i due studiosi infatti gli esseri umani, a prescindere dal mezzo con cui comunicano, sviluppano il bisogno di ridurre l’incertezza che può scaturire in situazioni in cui il messaggio è impoverito di tutti gli aspetti sociali-emozionali, al fine di raggiungere una certa affinità nei confronti degli altri individui. Gli utenti della CMC tendono a soddisfare questi bisogni ancestrali adattando le proprie strategie comunicative al medium utilizzato. Quindi la CMC Social information processing non è meno efficace nelle interazioni sociali rispetto ad una comunicazione faccia a faccia, ma è semplicemente meno efficiente, ossia occorre più tempo agli interlocutori per veicolare lo stesso tipo di sensazioni. Questi nuovi modelli hanno messo in evidenza l’importanza del contesto sociale in cui si svolge la comunicazione. All’inizio, come abbiamo visto, la CMC si svolgeva prevalentemente nei luoghi di lavoro, quindi risultava più fredda e impersonale, ma a partire dagli anni '90, parallelamente alla diffusione capillare anche in situazioni domestiche della tecnologia telematica, incominciò a “sovraccaricarsi” di contenuti sociali, tanto da poter essere definita Hyperpersonal3. Socialmente attiva. Le interazioni diventano sia ad un livello conscio che inconscio attive e più stereotipate (rispetto alla comunicazione faccia a faccia), ossia si tende a categorizzare socialmente l’interlocutore, e in mancanza d'informazioni sulla sua persona, si tende a farlo in modo stereotipato, basandosi esclusivamente su ciò che si ha a disposizione (nickname, firma del messaggio, homepage, blog ecc...). Ognuno quindi ha la possibilità di curare attentamente la presentazione del sé online, progettando accuratamente l’immagine che desidera dare di se stesso agli altri, nascondendo o potenziando le caratteristiche che ritiene più o meno socialmente utili in quel determinato contesto comunicativo. 3 Iperpersonale, Walter 1997 79 situazione. Può esistere quindi una sola personalità per un solo corpo. L’individuo che manifesta personalità multiple è difatti tracciato come patologico, disturbato o, nel migliore dei casi, considerato semplicemente bizzarro. Nella rete invece, non solo l’identità multipla è possibile, ma difatti è l’unica modalità possibile di presentazione, poiché se ciò che scriviamo ci identifica, allora la soggettività di ognuno è il personaggio del racconto che si vuole raccontare agli altri. Internet offre la possibilità di presentarsi intenzionalmente in un'infinita varietà di modi differenti (è possibile avere un’altra età, sesso, storia, aspetto fisico ecc...), esternando difatti la rappresentazione della molteplicità che ogni essere umano incarna nella vita reale (si è figli, ma anche genitori, si lavora o si studia, si è vicini di casa, amici, parenti ecc... e chiaramente per ognuna di queste possibilità si attuano comportamenti differenti). Questi diversi aspetti del sé in rete possono essere dissociati (si possono presentare solo alcuni aspetti, quelli ritenuti più opportuni al contesto), potenziati (migliorare al massimo una propria caratteristica o un proprio interesse specifico) o integrati (versione completa di se stessi). L’aspetto dell’intenzionalità è sicuramente una delle componenti principali che riguardano questi processi comunicativi, e la CMC, date le sue caratteristiche, rende il controllo e la gestione del proprio “Io online” più facile. Come abbiamo visto, su internet e più in generale nel mondo della comunicazione mediata dal computer, non esistono discriminazioni, ognuno può presentarsi per quello che è oppure può costruirsi un'identità differente. La costruzione di un'identità online avviene innanzitutto con la scelta di un nome, dove a differenza della vita reale, rispecchia una grande importanza sociale. Il nome o meglio il nickname è il punto d'ingresso all’interno del mondo della rete, il contatto diretto tra il nostro essere reale e il nostro essere digitale. Non è un'aggiunta al nome anagrafico, ma è una sua sostituzione, l’incarnazione della nuova identità dell’individuo online. Questa possibilità consente infatti di dare luogo a relazioni sociali stabili e significative che non sarebbero state possibili se la comunicazione fosse stata completamente anonima. Inoltre, la tendenza a mantenere l’identità piuttosto 82 determinate circostanze può provocare il distacco dal sociale e far cadere gli individui nella solitudine e depressione. Internet e i Social Network al pari dell’alchool, del fumo e delle droghe possono creare forme di dipendenza più o meno gravi. Si tratta di veri e propri disturbi della persona(lità) e come tali vanno curati. Questi possono essere l’IAD (Internet Addiction Disorder), la Social Network Disorder, la Friendship Addiction e la Nomofobia. Si manifestano principalmente in soggetti “predisposti”, ossia che trascorrono molte ore sul web senza praticamente mai riuscire a staccare il collegamento e comportano prevalentemente un ossessivo controllo dei nuovi messaggi, notifiche, aggiornamenti, oltre che una ricerca senza sosta di nuove amicizie. L’individuo soffre lo status di disconnessione dalla vita online, tanto da desiderare il momento in cui finalmente potrà accedere ed immedesimarsi al suo Io virtuale. Ovviamente questo pensiero costante influisce sulla propria vita privata e lavorativa. Oltre a questo stato di assuefazione al web, che prelude alla necessità di restare collegato al mondo virtuale per un certo periodo di tempo e cresce man mano che trascorrono le ore, sono presenti veri e propri disagi fisici (mal di testa, disturbi del sonno, stanchezza, apatia etc...). Il web rappresenta nella modernità un mondo sicuro e controllabile dove è possibile instaurare facili rapporti sociali, senza rischi, poiché questi non richiedono, come nella vita reale, un contatto diretto faccia a faccia, che per molti può rappresentare un vero e proprio ostacolo. I Social Network per esempio rispondono in modo efficace ad alcuni dei bisogni fondamentali dell’essere umano: 1. bisogni di sicurezza: le persone con cui tendiamo a comunicare nei social network sono “amici“, non estranei (come in realtà sarebbero da considerare nella maggior parte dei casi), ed è nel potere di ciascun individuo di decidere chi è amico e chi no, chi seguire e chi ignorare. É possibile quindi controllare ciò che egli mostra di sé, della sua vita e condividere con lui esperienze, commenti etc. ; 85 88 CAPITOLO TERZO: Dalle Realtà Virtuali alle Realtà Aumentate 5. L’Ultimate Display e i primi passi in Realtà Virtuale Le rivoluzioni tecnologiche (come abbiamo visto nel primo capitolo) non avvengono semplicemente perché il progresso umano è un processo inevitabile che sistematicamente (nel corso dei secoli) avviene portandoci verso nuovi orizzonti culturali, sociali e tecnici. I veri cambiamenti di paradigma tecnologici hanno bisogno di incastri e situazioni ben precise. Uno o più visionari devono avere la disponibilità e l'accesso alle tecnologie di base che rendano possibili le loro “visioni” e devono incontrare finanziatori che li sostengano economicamente. Se queste condizioni non vengono rispettate, difficilmente l’idea giusta, anche fosse la più importante e geniale di tutte, diventa parte integrante di una nuova tecnologia. Un esempio di questa “legge” dei paradigmi tecnologici può essere ritrovato in Engelbart e Licklider. Entrambi hanno avuto idee visionarie: pensare al computer non come calcolatore, ma come strumento capace di aumentare l’intelletto umano tramite una collaborazione simbiotica. Licklider trovò subito nell’ARPA un finanziatore generoso per sviluppare le sue idee, mentre Engelbart dovette aspettare parecchi anni prima di trovare nello stesso Licklider (IPTO) il sostegno economico necessario a realizzare la sua visione di computer. 5.1 Il teatro dell’esperienza e “la realtà per un nichelino” di Heilig. Se Morton Leonard Heilig avesse avuto un supporto finanziario adeguato, forse le realtà virtuali avrebbero potuto essere sperimentate a fondo già a partire dagli anni '60 e non grazie all’ausilio tecnologico delle macchine per pensare bensì alle possibilità offerte dal cinema. Hollywood avrebbe potuto essere la forza trainante dello sviluppo del nuovo paradigma tecnologico della realtà virtuale. 91 temperatura, la pressione e le texture, sono tutti gli organi che compongono “the building bricks, which when united create the sensual form of man’s consciousness”. Individua anche il grado d'influenza sulla percezione del reale dei vari sensi, identificando nella vista quello che monopolizza maggiormente la nostra percezione (70%), mentre l’udito (20%), l’olfatto (5%), il tatto (4%) e il gusto (1%) sono considerati meno influenti, anche se è dall’insieme di tutti che possiamo percepire il mondo come reale. Considerare solo la vista come la principale delle nostra abilità di percezione, sarebbe riduttivo. L’obiettivo di Heilig era quello di replicare la realtà per ciascuno di questi sensi all’interno di un teatro appositamente progettato, che chiama appunto Teatro dell’Esperienza. [...] La bobina cinematografica del futuro sarà un rotolo di nastro magnetico suddiviso in tracce separate per ogni modalità sensoriale importante [...] Lo schermo non riempirà solo il 5% del vostro campo visivo come gli schermi dei cinema rionali, o il mero 7,5% del Wide Screen o il 18% dello schermo “miracle mirror” del Cinemascope, o il 25% del Cinerama - ma il 100%. Lo schermo si curverà accanto alle orecchie dello spettatore da entrambi i lati ed oltre il suo limite visivo sopra e sotto [...] Saranno concepiti mezzi ottici ed elettronici per creare profondità illusoria senza occhiali. (“The Cinema of The Future”, pubblicato sulla rivista messicana “Espacios” da Morton Heilig, 1955 - traduzione italiana "La Realtà Virtuale" di Howard Rehingold, 1993) Heilig per la sua idea di cinema del futuro trovò estimatori disposti ad investire in Messico, ma sciaguratamente poco tempo dopo aver iniziato a sperimentare alcune proiezioni con lenti ottiche particolari, l’investitore morì in un incidente aereo. Rientrato negli Usa cercò nuovi finanziamenti e persone disposte ad aiutarlo nella sua impresa, ma anche in questo caso la cattiva sorte giocò un ruolo da protagonista: il direttore di una grossa azienda di proiettori interessata al progetto morì in un incidente aereo. Non se ne fece più nulla. Heilig decise che se voleva trovare investitori doveva far provare loro direttamente l’esperienza. Tutto quello che aveva erano solo delle idee e degli schizzi. Troppo poco per far capire esattamente quello che voleva essere la sua 94 Fu una vera e propria rivoluzione che influenzò notevolmente i percorsi nella delle future tecnologie dell’interazione tra le macchine e le menti umane. Con "Sketchpad: A Man-Machine Graphical Communication System" (questo era il titolo completo della sua tesi di dottorato, supervisionata da Claude Shannonn) nasce difatti la computer grafica ed il primo sistema di CAD (computer aided design). Sketchpad non era soltanto uno strumento per disegnare. era un programma che obbediva alle leggi che si voleva fossero vere. per disegnare un quadrato si tracciava una linea con la penna ottica, poi si davano al computer pochi comandi [...] Sketchpad prendeva la linea e le istruzioni e via! Un quadrato appariva sullo schermo. ("La Realtà Virtuale" Howard Rehingold, 1993, citazione di Alan key sul software Sketchpad) Sutherland aveva appena incominciato ad esplorare la soglia di un nuovo mondo, il mondo della grafica computerizzata, e ben presto sentì l’esigenza di varcare quella soglia, calandosi letteralmente all’interno di essa. Voleva portare all’estremo il concetto di contatto intimo tra intelletto umano e computer che Licklider aveva profetizzato nel suo saggio "Man-Computer Symbiosis" del 1960. Nel 1965 Sutherland, succeduto proprio a Licklider al “comando” dell’IPTO, scrive "The Ultimate Display", un breve saggio in cui espone lucidamente e profeticamente l’avvento di un nuovo modo di rappresentare le informazioni generate dai computer. Il mondo in cui viviamo è un “physical world” in cui le sue proprietà e caratteristiche fondamentali diventano a noi note solo con l’esperienza. In particolare i nostri sensi ci danno la capacità di comprendere e prevedere i comportamenti all’interno di questo mondo. Per esempio, possiamo facilmente intuire dove un oggetto cadrà, che tipo di forma ha un determinato angolo che non riusciamo a vedere oppure quanta forza ci occorre per vincere la resistenza di un oggetto e spostarlo. Quello che ci manca, secondo Sutherland, è la familiarità con concetti di natura più scientifica ed astratta, difficilmente collegabili all’esperienza sensoriale diretta. 97 A partire dal 1966 (dopo aver lasciato la direzione dell’IPTO a Robert Taylor) all’interno del Lincoln Laboratory del MIT, Sutherland e il suo staff iniziarono a condurre i primi esperimenti sulle tecnologie necessarie a realizzare un sistema coordinato, che consentisse all’utente di camminare e calarsi completamente all’interno dei (dati generati da un) computer. Occorreva creare tutto dal nulla. L’idea fondamentale che è alla base del display tridimensionale è di presentare all’utente un’immagine in prospettiva che cambia in base ai suoi movimenti. L’immagine retinica degli oggetti che vediamo, è dopo tutto, soltanto bidimensionale. Perciò potendo porre due immagini bidimensionali appropriate sulle retine dell’osservatore, possiamo creare l’illusione della vista di un oggetto tridimensionale [...] L’immagine rappresentata dal display tridimensionale deve cambiare esattamente nello stesso modo in cui cambierebbe l’immagine di un oggetto reale a causa di movimenti della testa dello stesso tipo. ("Realtà Virtuali" Howard Rehingold, 1993, citazione di Ivan Sutherland sul Three dimensional head mounted display) Fig. 13 - Due immagini della “spada di Damocle” (il Three dimensional head mounted display) di Ivan Sutherland del 1968. L’Head Mounted Three Dimensional Display, completato in ogni sua parte nel 1968 e denominato dagli “addetti ai lavori” spada di Damocle, era composto da sotto-sistemi interconnessi, molti dei quali costruiti proprio durante la prima fase di sperimentazioni del MIT: “occhiali” speciali contenenti due tubi a raggi 100 “lavoro” era svolto dall’hardware matrix multiplier e clipping divider, tuttavia essi recuperavano le informazioni da elaborare direttamente dal sistema di rilevamento della posizione dell’utente. Quindi se l’obiettivo di Sutherland era quello di calare le persone all’interno di un mondo virtuale che si comporti prospetticamente in modo “credibile”, allora era necessario che tutto il sistema, ed in particolare il dispositivo di tracking, fosse preciso, veloce e quindi affidabile. Per questo motivo Sutherland decise di sperimentare diverse soluzioni di rilevamento, in particolare si concentrò su un sistema ad ultrasuoni sperimentale e su un altro di tipo meccanico. Il sistema ad ultrasuoni era in grado di rilevare, grazie alla combinazione di tre trasmettitori ad onde continue, posti direttamente nel dispositivo head mounted,e 4 ricevitori posizionati sul soffitto in corrispondenza dei quattro angoli della “stanza”, l’esatta posizione della testa dell’utente e i suoi movimenti all’interno di uno spazio prestabilito. Forniva al fruitore dell’esperienza virtuale un grado di libertà di movimento superiore rispetto al sistema meccanico, ma era poco affidabile perché soggetto ad interferenze che compromettevano la lettura corretta delle coordinate spaziali dell’utente. La tecnologia ad ultrasuoni sperimentata da Sutherland era ancora ad uno stato embrionale per questo tipo di applicazioni in cui era necessaria la massima precisione. I risultati raggiunti durante gli esperimenti comunque facevano ben sperare per il futuro. Il sistema meccanico invece venne realizzato appositamente per garantire misurazioni accurate e in tempo reale della posizione della testa. Consisteva in una coppia di tubi che si agganciavano mediante appositi giunti al dispositivo head mounted e ad una serie di binari sul soffitto. Il mechanical head position sensor costringeva l’utente in una morsa vincolante ad un volume di pochi movimenti della testa: 180 centimetri lateralmente e poco meno di un metro in altezza. L’utente comunque era libero di muoversi, voltarsi, inclinare lo sguardo in alto o in basso fino a 40°. 103 cala gli astanti in un’atmosfera di stregoneria ed è alla base per il suo nome Apprendista Stregone. ("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers) L’Apprendista stregone aumentò sensibilmente il senso di presenza percepito dall’utente all’interno del mondo virtuale poiché implicava un coinvolgimento attivo da parte di altri sensi. Rendeva possibili azioni magiche come far apparire oggetti, allungare, rimpicciolire, ruotare, far scomparire, fondere e separare. Tutto grazie a pochi semplici comandi. scoprimmo che il senso di presenza aumentava quando aggiungevamo la bacchetta. Più sensi vengono coinvolti, più completa è l’illusione ("La Realtà Virtuale" Howard Rehingold, 1993, Daniel Vickers) La possibilità di interagire con il mondo che ci circonda è il fattore determinante che ci permette di conoscere ed esprimere il nostro potenziale e quello di ciò che ci sta attorno. 5.3 Ambienti Virtuali interattivi: Myron Kreuger I concetti di immersione e navigazione all’interno di uno spazio computerizzato non implicano che essi siano per forza generati tramite l’uso di tecnologie specifiche. Le visioni che creano il coinvolgimento sensoriale all’interno dello spazio possono essere plasmate attraverso l’uso di mezzi ottici, elettronici o entrambi. Gli input gestuali che permettono l’esplorazione dell’ambiente in cui si è immersi sono tendenzialmente legati all’uso di dispositivi indossabili, quali Head Mounted Display piuttosto che occhiali, bacchette magiche, tastiere e guanti speciali in grado di rilevare la posizione e i movimenti delle mani (di questi ultimi ce ne occuperemo nel prossimo paragrafo). Tuttavia non sono l’unico modo per poter entrare dentro il computer. Le realtà virtuali, o meglio quelle pratiche tecnologiche che sarebbero diventate le realtà virtuali, a cavallo tra gli anni '60 e '70 erano ancora in una fase sperimentale in cui venivano abbozzate le tecnologie del futuro. Sutherland e i 106 In realtà GLOWFLOW era un progetto Universitario disegnato appositamente per studiare il rapporto tra arte e tecnologie, a cui Krueger era stato invitato a partecipare. GLOWFLOW non faceva uso di grafica computerizzata ma creava effetti visivi tramite l'utilizzo di altre tecnologie. Una semplice rete di tubi riempiti con fluidi fosforescenti collegati sapientemente ad un sistema computerizzato e a sintetizzatori sonori, rendevano uno spazio buio in qualcosa che nessuno aveva mai visto prima. Grazie alla presenza di pannelli sensibili alla pressione incastrati nel pavimento, il pubblico semplicemente camminando all'interno della stanza interagiva inconsciamente con essa. Le pareti dell'ambiente GLOWFLOW erano rivestite da colonne verticali opache e tubi di vetro trasparente orizzontali. Le particelle fosforescenti erano sospese nell'acqua contenuta all'interno dei tubi che veniva pompate velocemente da una parte all'altra della stanza ad ogni input generato dal pavimento. Passando attraverso le colonne opache (che al loro interno contenevano una luce nascosta) i fosfori venivano attivati temporaneamente, generando così vettori di luce che schizzavano nello spazio per poi ritornare nell'oscurità. Simultaneamente all'effetto visivo, venivano eseguiti suoni sintetizzati elettronicamente. Le possibili configurazioni sonore e visive si accendevano e si spegnevano in base ad una serie di istruzioni provenienti dal minicomputer nascosto, che elaborava gli input e ne determinava un conseguente output più o meno casuale. La gente reagiva all'ambiente in modo sorprendente: si formavano gruppi di persone fra loro estranee. Giochi, battimani e canti nascevano spontaneamente. La stanza sembrava soggetta a sbalzi di umore, a volte piombava in un silenzio di tomba, a volte era rumorosa e disordinata. Ognuno si inventava un proprio ruolo. [...] Altri si comportavano da guide, spiegando che cosa erano i fosfori e che cosa stava facendo il computer. Sotto molti punti di vista la gente all'interno della sembrava primitiva, intenta ad esplorare un ambiente che non comprendeva, tentando di farlo corrispondere a ciò che già sapeva o si aspettava. [...] molti erano preparati a sperimentare questo aspetto e se ne andavano convinti che la stanza aveva reagito alle loro azioni in modi determinati, mentre in realtà non era così. ("La Realtà Virtuale" Howard Rehingold, 1993) 109 L'ambiente progettato da Krueger era composto da due strutture situate in edifici diversi: una stanza METAPLAY (dove avviene la partecipazione) e una dedicata alla regia. Una parete della stanza METAPLAY era occupata da un enorme schermo di retroproiezione (250 cm x 300 cm) in cui veniva proiettato l'otuput visivo. Una videocamera, posizionata davanti allo schermo, era puntata direttamente verso i partecipanti e consentiva di acquisirne in tempo reale l'immagine video. All'interno del centro di controllo, situato a circa quattrocento metri di distanza, c'era l'artista (che non per forza doveva essere tale) che poteva disegnare attraverso una tavoletta grafica e visualizzare il risultato su un sistema special purpose. Una seconda videocamera acquisiva le immagini generate dall'artista, le inviava ad un mixer che le combinava assieme a quelle generate dalla videocamera nella stanza METAPLAY. Sia le immagini computerizzate che le quelle convertite erano sotto il controllo diretto dell'operatore che aveva il compito ed il potere di sovrapporre le immagini computerizzate tracciate con la tavoletta grafica alle immagini del pubblico dell'altra sala. Alcuni comandi erano stati programmati in modo tale da consentire all'artista di manipolare le immagini, rimpicciolirle, espanderle, applicare ad esse effetti speciali. I partecipanti potevano guardare lo schermo ed osservare le proprie immagini video; talvolta quelle immagini video venivano arricchite dalle immagini grafiche generate dall'artista nel centro di controllo. Gli interruttori sensibili alla pressione, che erano nascosti nel pavimento sotto una superficie di polietilene nero, consentivano ai partecipanti di interagire con gli output visivi e sonori mediati dall'operatore del un centro di controllo. Con l'obiettivo di provocare una reazione in uno dei primi gruppi in visita al METAPLAY, Krueger scelse uno dei partecipanti ed utilizzò la tavoletta grafica per sovraimporre un contorno luminoso alla sua mano. Quando il partecipante muoveva la mano, Krueger velocemente disegnava un nuovo contorno della mano nella sua nuova posizione. Poi il partecipante rovesciò la situazione trasformando 112