Open Access Publications - Open Media-Center Lab
Transcript
Open Access Publications - Open Media-Center Lab
Open Access Publications Alessandro Soro editor Human Computer Interaction Fondamenti e Prospettive Polimetrica International Scientific Publisher La pubblicazione di quest‘opera è cofinanziata da Sardegna Ricerche, nell‘ambito del P.O.R. Sardegna 2000-2006, Misura 3.13. 2008 Polimetrica ® S.a.s. Corso Milano, 26 20052 Monza – Milano Phone ++39. 039.2301829 Web site: www.polimetrica.com Cover design by Elisabetta Falqui ISBN 978-88-7699-XXX-X Printed Edition ISBN 978-88-7699-XXX-X Electronic Edition The electronic edition of this book is not sold and is made available in free access. Every contribution is published according to the terms of ―Polimetrica License B‖. ―Polimetrica License B‖ gives anyone the possibility to distribute the contents of the work, provided that the authors of the work and the publisher are always recognised and mentioned. It does not allow use of the contents of the work for commercial purposes or for profit. Polimetrica Publisher has the exclusive right to publish and sell the contents of the work in paper and electronic format and by any other means of publication. Additional rights on the contents of the work are the author‘s property. Printed in Italy by XXXXXXXXXXX - XXXXXXX DOS, Windows, Windows Xp e Windows NT sono marchi registrati della Microsoft Corporation. Linux è un marchio registrato da Linus B. Torvalds. Altri nomi e marchi citati in questo volume sono depositati o registrati dalle loro case produttrici. I marchi e le immagini dei vari siti Internet citati sono di proprietà dei rispettivi detentori dei diritti. Benché ogni cura sia stata posta nella realizzazione di questo volume, né gli Autori né l‘Editore si assumono alcuna responsabilità per l‘utilizzo dello stesso. Sommario Prefazione ................................................................................................ 11 Alessandro Soro Fondamenti, Storia e Tendenze dell'HCI ............................................. 17 Sebastiano Bagnara , Simone Pozzi Introduzione .......................................................................................... 17 1. L‘Ergonomia Cognitiva..................................................................... 18 2. L‘HCI e l‘Evoluzione del Computer ................................................. 20 3. Dinamiche Sociali e Tecnologiche di Lungo Periodo ....................... 23 4. Le Sfide Future dell‘HCI ................................................................... 35 Conclusioni ........................................................................................... 42 Inclusione nella Società dell’Informazione ........................................... 47 Pier Luigi Emiliani Introduzione .......................................................................................... 47 1. Dall‘Accessibilità ai Calcolatori ed ai Terminali all‘Inclusione nella Società dell‘Informazione ................................................................. 49 2. Accessibilità ai Calcolatori e Terminali – la Tecnologia Assistiva ... 56 3. Progettazione Universale (Design for All) ........................................ 64 4. La Società dell‘Informazione ............................................................ 94 Conclusioni ......................................................................................... 110 Introduzione all’Ingegneria dell’Usabilità ......................................... 115 Roberto Polillo 1. Progettazione Centrata sull‘Utente .................................................. 115 2. Modelli di Progettazione e Sviluppo ............................................... 129 3. I Requisiti ........................................................................................ 138 4. Prototipi ........................................................................................... 152 5. Valutazioni ...................................................................................... 163 Conclusioni ......................................................................................... 177 8 Sommario Misure di Qualità: Dall’Usabilità all’Esperienza dell’Utente ........... 181 Antonella De Angeli Introduzione ........................................................................................ 181 1. Usabilità .......................................................................................... 182 2. Esperienza dell‘Utente .................................................................... 186 3. Metodi di Valutazione ..................................................................... 189 4. Misure di Valutazione ..................................................................... 193 Conclusioni ......................................................................................... 196 Analisi Cognitiva delle Interfacce Utente ........................................... 201 Hélène Pigot Introduzione ........................................................................................ 201 1. Abilità Cognitive ............................................................................. 203 2. Approcci Analitici ........................................................................... 206 3. Valutazione per mezzo di Approcci Analitici ................................. 209 Conclusioni ......................................................................................... 217 Interfacce Utenti Multi-Dispositivi ..................................................... 221 Fabio Paternò Introduzione ........................................................................................ 221 1. Concetti di Base .............................................................................. 222 2. Gli Ambienti Multi-Dispositivi ....................................................... 224 3. Comprendere le Interfacce Utenti Multi-Dispositivi ....................... 228 4. La Progettazione di Interfacce Utenti Multi-Dispositivi ................. 233 5. Progettazione Interfacce Utenti basata su Modelli .......................... 236 6. Adattamento Automatico al Dispositivo a Run-Time ..................... 242 7. Interfacce Utenti nell‘Ubiquitous Computing ................................. 250 Conclusioni ......................................................................................... 253 Mobile Computing ................................................................................ 259 Stefano Sanna Introduzione al Mobile Computing ..................................................... 259 1. Sistemi Operativi e Ambienti Applicativi ....................................... 264 2. HCI su Dispositivi Mobili ............................................................... 267 3. Mobile Sensor: l'Evoluzione della Mobile HCI .............................. 282 4. Ambient Interaction e Capillary Computing ................................... 288 Conclusioni ......................................................................................... 291 Sommario 9 Interfacce Uomo-Macchina nella Realtà Virtuale ............................. 295 José A. Iglesias Guitián, Marco Agus Introduzione ........................................................................................ 295 1. Caratteristiche e Requisiti ............................................................... 304 2. Hardware per il Feedback Sensoriale .............................................. 309 3. Esempi di applicazioni di realtà virtuale ......................................... 315 Conclusioni ......................................................................................... 328 Fuori dallo schermo: Teoria e Pratica dell’Interazione Tangibile .... 337 Patrizia Marti Introduzione ........................................................................................ 337 1. Attività, Strumenti e Rappresentazioni ............................................ 340 2. Temi di Design per l‘Interazione Tangibile .................................... 342 3. I Domini Applicativi ....................................................................... 354 Conclusioni ......................................................................................... 359 Prefazione Quale curatore di quest‘opera, ho il privilegio di illustrarne la genesi, e di raccontare in che modo dall‘idea di ospitare in Sardegna un ciclo di seminari sull‘Interazione Uomo- Macchina, si sia giunti, in quasi un anno di lavoro, alla pubblicazione di questa raccolta, alla quale hanno contribuito alcuni fra i più affermati docenti, ricercatori e professionisti. Gli Incontri sul tema dell’Interazione Uomo-Macchina (HCIM‘08), organizzati dal laboratorio Open Mediacenter, con il quale ho il piacere di collaborare, e dal laboratorio Modelli 3D, entrambi creati e ospitati da Sardegna Ricerche presso il Parco Scientifico della Sardegna, si sono svolti tra il 15 e il 19 Settembre del 2008, catalizzando l‘interesse e la partecipazione di studenti, ricercatori e professionisti del settore ICT su un tema che, già oggi importantissimo, nel prossimo futuro indicherà la direzione nella ricerca scientifica e la strategia nello sviluppo industriale. Primi fra coloro che hanno sposato e incoraggiato questo progetto, Gavino Paddeu e Sebastiano Bagnara, rispettivamente responsabile e membro del gruppo di coordinamento del Laboratorio Open Mediacenter, ai quali va un ringraziamento speciale, hanno avuto un ruolo determinante nel coinvolgimento dei relatori, che, a propria volta, hanno dato vita ai più affascinanti seminari a cui chi scrive abbia mai avuto occasione di partecipare. È tuttavia merito esclusivo dei relatori, che hanno poi accettato di dare forma scritta ai propri contributi e riunirli in questo libro, se le lezioni apprese non saranno affidate alla sola memoria dei presenti, ma potranno invece andare a beneficio di tutti. I nove capitoli che compongono quest‘opera tracciano la storia, lo stato e alcune tra le più affascinanti prospettive future dell‘interazione uomo-macchina, una disciplina che a fronte di numerose conquiste, ormai assodate e mature, è caratterizzata da un continuo fermento e un sorprendente ritmo di evoluzione. 12 Alessandro Soro Questa duplice natura corre parallela alle tensioni e contraddizioni che sono proprie della vita, del lavoro e dei rapporti sociali nel nuovo millennio. Allo stesso tempo lo sviluppo tecnologico, la continua miniaturizzazione, la produzione di massa e relativo abbattimento dei costi, aprono nuove possibilità e creano nuovi bisogni, in un continuo meccanismo di retroazione. Per questo lo studio dell‘interazione uomo-macchina pone una sfida affascinante e inesauribile: lo studio dell‘interazione non può prescindere dall‘esame dei suoi attori, l‘uomo e la macchina, che a propria volta sono coinvolti in una incessante trasformazione. Da qui la natura multidisciplinare di questa materia e la necessità di un esame ad ampio spettro di tutte le dinamiche in essa coinvolte, come sapientemente illustrato da Sebastiano Bagnara e Simone Pozzi nel primo capitolo. Se da un lato la diffusione pervasiva delle tecnologie informatiche sta modificando la nostra vita, è pur vero che il computer inteso come medium, ossia come amplificatore delle capacità umane, innesca il meccanismo opposto, amplifica il divario, tra coloro che hanno accesso a tali tecnologie e colore che non ce l‘hanno. In tal senso moltissimo lavoro e grandi progressi sono stati fatti per garantire a persone con limitazioni di attività la possibilità di fruire delle informazioni e dei servizi offerti dalle nuove tecnologie. Se i primi approcci basati su tecnologie assistive, come sintetizzatori vocali, screen readers, terminali Braille, peraltro largamente impiegati, mostrano limitazioni legate ai costi, al ritardo con cui vengono resi disponibili e, talvolta, a specifiche difficoltà di adattamento, è importante notare come l‘approccio moderno della Progettazione Universale, descritto da Pier Luigi Emiliani, sia imperniato sul diritto delle persone ad avere accesso in modo completo e pienamente soddisfacente alla società dell‘informazione. Un cambiamento di prospettiva tutt‘altro che sottile, che pone l‘accento sulla persona piuttosto che sull‘utente e rappresenta dunque quasi una rivoluzione copernicana per coloro i quali, come chi scrive, hanno alle spalle una formazione tecnico-scientifica piuttosto che umanistica. La progettazione dell‘interazione, appare quindi come la naturale evoluzione dell‘ingegneria del software, prima centrata sul sistema, in direzione della persona, caratterizzata da bisogni, preferenze e aspettative. Roberto Polillo illustra i principi dell‘ingegneria Prefazione 13 dell’usabilità, descrivendone le motivazioni e i concetti di base, per poi spiegare i modelli di progettazione basati sulla produzione e il raffinamento iterativo di prototipi, e introducendo le tecniche di definizione dei requisiti e di valutazione. Tali tecniche sono, al momento, le sole che permettano al progettista di gestire da un lato l‘enorme complessità dei sistemi moderni, e dall‘altro (forse soprattutto) l‘inclusione nelle specifiche di requisiti difficilmente definibili, e ancor più difficilmente quantificabili. La capacità di curare tali aspetti è tuttavia la soglia necessaria per il balzo da giganti che siamo chiamati a compiere: dalla progettazione di software efficaci e corretti, la cui qualità si può misurare in minuti e secondi necessari a completare un lavoro, verso la progettazione di un ambiente intelligente, in cui la tecnologia permea e influenza molte delle attività umane. Antonella De Angeli descrive come la reazione individuale che deriva dall‘interazione con strumenti informatici possa essere compresa e quali variabili la definiscono. Non sorprenderà scoprire che la user experience è caratterizzata da un insieme estremamente ampio di parametri personali, sociali, culturali e dalle caratteristiche specifiche del contesto e del prodotto. Sarà forse più sorprendente vedere come la psicologia sperimentale possa quantificare realtà che all‘occhio dell‘informatico appaiono quasi evanescenti, quali la soddisfazione, l‘interesse, la piacevolezza estetica. Parallelamente è possibile valutare in modo oggettivo se, e quanto, l‘interazione con un sistema informatico sia calibrata sulle capacità umane. Gli approcci analitici alla valutazione delle interfacce utente, illustrati da Hélène Pigot, permettono di stimarne le proprietà cognitive, e capire quali abilità, e in che misura, saranno richieste nell‘interazione. Infatti, se come individui amiamo descriverci ricorrendo a ciò che ci distingue, rendendoci unici, come esseri umani siamo sorprendentemente simili (e quindi prevedibili) rispetto alle capacità motorie, di memorizzazione, di attenzione. Sebbene la trattazione fin qui non sia entrata nella definizione del temine computer, è pur certo che la parola evoca nella mente di chi legge un‘immagine ben precisa: uno schermo, una tastiera, spesso un mouse, solitamente posati su una scrivania, talvolta sulle ginocchia. I successivi quattro capitoli eroderanno questa concezio- 14 Alessandro Soro ne. Infatti, se l‘interazione uomo-macchina studia i fenomeni che avvengono al confine tra uomo e computer, come regolarsi quando tale confine sfuma e il computer risulta ubiquo, disperso nell‘ambiente, se non addirittura indossato o impiantato? Fabio Paternò spiega le problematiche relative alla progettazione di interfacce utente multi-dispositivi. Una volta appurata l‘enorme varietà di terminali a cui abbiamo quotidianamente accesso sorge il problema di come progettare l‘interazione uomo-macchina laddove la macchina non è contenuta nei confini del proprio chassis, ma è piuttosto un sistema complesso (e spesso dinamico e instabile) di piccoli e grandi unità interconnesse. Spesso informazioni e servizi concepiti per un tipo di terminale vengono fruiti per mezzo di un altro. Altre volte l‘interazione ha inizio su un certo terminale per concludersi su uno diverso. In tale panorama, il mobile computing merita un discorso a parte. Un settore talvolta considerato di nicchia, salvo, statistiche alla mano, notare che tale nicchia ha venduto un miliardo di terminali nel solo anno 2007. Una diffusione tecnologica mai vista prima nella storia del genere umano, che non poteva non riservare sorprese e opportunità. Stefano Sanna traccia una panoramica del settore più frenetico esistente al giorno d‘oggi e ne delinea le prospettive future. Il tema del capitolo successivo affascina anche chi non è appassionato di fantascienza: la realtà virtuale rievoca la capacità di creare e sperimentare mondi fantastici, con applicazioni pratiche (se mai ce ne fosse bisogno) che vanno dall‘addestramento di piloti e chirurghi al gioco immersivo. Nel contributo di José Guitián e Marco Agus si vedrà come gli ologrammi siano una realtà e non più una finzione cinematografica e come l‘input e l‘output abbiano superato le barriere di schermo e tastiera per coinvolgere tutti i cinque sensi. Come conclusione, nell‘ultimo capitolo Patrizia Marti demolisce definitivamente l‘idea di computer dotato di video e tastiera e ci porta, per usare le sue stesse parole, fuori dallo schermo. Le Tangible User Interfaces riuniscono il mondo fisico e quello digitale in oggetti e ambienti interattivi: se nella mente del designer, fino ad oggi, i dati, l‘interfaccia, i dispositivi di input e quelli di output corrispondono a componenti precise e distinte del sistema, con i Tan- Prefazione 15 gibles il controllo diventa un tutt‘uno con la fruizione e la manipolazione dell‘informazione. Questo libro è rivolto a tutti coloro che desiderano avvicinarsi alla disciplina dell‘interazione uomo-macchina. Abbiamo cercato di unire ad una trattazione didattica il rigore scientifico, suggerendo ove possibile letture di approfondimento al termine del capitolo, e riportando i riferimenti bibliografici per i temi più avanzati che sono attualmente oggetto di ricerca. Il mio personale auspicio è che questo lavoro possa essere un utile ausilio per lo studente e una lettura stimolante per il lettore appassionato di tecnologie. La realizzazione di quest‘opera non sarebbe stata possibile senza il contributo di tutti i relatori e del comitato organizzativo di HCIM‘08 e senza i preziosi suggerimenti di tutti coloro che hanno partecipato ai seminari. Desidero anche ringraziare qui il Presidente di Sardegna Ricerche Giuliano Murgia, il Direttore Francesco Marcheschi, tutto lo staff di Sardegna Ricerche e in particolare Giorgio Pisanu e Enrico Mulas, il direttore del programma ICT – Information Society del CRS4 Pietro Zanarini e il responsabile del Laboratorio Modelli 3D Enrico Gobbetti. Novembre 2008 Alessandro Soro, Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna – [email protected] Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Fondamenti, Storia e Tendenze dell'HCI Sebastiano Bagnara – Facoltà di Architettura dell'Università di Sassari – Alghero [email protected] Simone Pozzi – Deep Blue (Roma) & Dipartimento di Psicologia dei Processi di Sviluppo e Socializzazione della Sapienza Università di Roma [email protected] Abstract. Questo contributo offre una definizione della disciplina dell‘HCI attraverso la descrizione delle principali dinamiche sociali e tecnologiche che ne hanno plasmato la storia e che probabilmente ne indirizzeranno gli sviluppi futuri. Si evidenziano le continuità con discipline quali l‘ergonomia fisica e quella cognitiva, per poi discutere le contraddizioni non risolte nelle dinamiche di lungo periodo. L‘analisi è condotta tessendo insieme le questioni di metodo, con quelle di pura innovazione tecnologica, con i fattori più prettamente sociali e culturali. L‘obiettivo è inquadrare l‘HCI come scienza sociale applicata, ovvero come disciplina il cui ruolo nella società sia migliorare e progettare le attività umane, raccogliendo le istanze sociali che riguardano l‘interazione tra uomo e calcolatori. L‘ultima parte del contributo sviluppa una riflessione sulle più rilevanti sfide future dell‘HCI, ragionando sui punti cruciali e sulle conseguenze per la disciplina. Keywords: HCI, CSCW, Interaction Design, user centred, human centred. Introduzione Definire una disciplina come l‘interazione uomo-macchina (Human-Computer Interaction – HCI) non è un compito facile. A causa della sua natura applicativa la disciplina si sposta velocemente e ridefinisce piuttosto spesso il suo oggetto di indagine. Semplificando, 18 Sebastiano Bagnara, Simone Pozzi potremmo dire che la disciplina si propone di analizzare la relazione tra uomo e computer, dove l‘elemento ―computer‖ ha mutato la propria natura drasticamente nelle ultime decadi, seguendo una dinamica molto rapida di cambiamento. L‘HCI studia oggetti molto eterogenei, quali il personal computer, i palmari e i cellulari, ma anche strumenti digitali più semplici, quali orologi o semplici elettrodomestici, oppure le tecnologie legate ad internet, oppure ancora applicazioni tecnologiche complesse quali la strumentazione di una cabina di pilotaggio, il pannello di controllo di un‘industria chimica, etc. Per tale motivo, la definizione che a noi appare più appropriata è quella storica, ovvero una descrizione delle dinamiche sociali e tecnologiche con cui la disciplina si è trovata a confrontarsi nella sua vita. Questo contributo si propone pertanto di tracciare una breve storia della disciplina, prima descrivendo brevemente il campo di studi da cui è derivata l‘HCI (l‘ergonomia) e le spinte che ne hanno accompagnato (e plasmato) la crescita, per poi delineare le più interessanti sfide future. 1. L’Ergonomia Cognitiva La storia dell‘HCI procede in parallelo alla presenza sempre più pervasiva dei calcolatori nell‘attività umana. L‘Association for Computing Machinery (ACM) propone la seguente definizione di HCI (non senza aver premesso che non esiste una definizione comunemente riconosciuta): La Human-computer interaction è una disciplina che si occupa della progettazione, della valutazione e dell‘implementazione di calcolatori interattivi per l‘uso da parte dell‘uomo e dello studio dei principali fenomeni che li circondano. (Association for Computing Machinery, 2008, nostra traduzione) Nell‘HCI confluiscono numerose discipline, accomunate dall‘interesse per un medesimo oggetto di studio, ovvero i sistemi interattivi digitali, ponendo pertanto la disciplina all‘incrocio tra diversi confini disciplinari. Tra le discipline che partecipano a vario titolo all‘HCI possiamo annoverare la computer graphics, la psico- Fondamenti, Storia e Tendenze dell'HCI 19 logia cognitiva, l‘ingegneria del software, il design, gli studi economici e di gestione di processi economici. Questa natura multidisciplinare deriva in realtà dall‘ergonomia, sia indirizzata agli aspetti fisici che a quelli cognitivi. L‘ergonomia è definita dall‘International Ergonomics Association (IEA) come: L‘Ergonomia (o Fattori umani) è la scienza volta alla comprensione delle interazioni tra i soggetti umani e le altre componenti di un sistema, e la professione che applica teorie, principi, dati e metodi per progettare con la finalità di accrescere il benessere dei soggetti umani e le prestazioni complessive del sistema. Gli ergonomi contribuiscono alla progettazione e alla valutazione di compiti, funzioni, prodotti, ambienti e sistemi in modo da renderli compatibili alle esigenze, alle capacità e ai limiti delle persone (International Ergonomics Association, 2008, nostra traduzione) L‘elemento più rilevante di questa definizione è la descrizione dell‘unità di analisi dell‘ergonomia. La disciplina non ha l‘obiettivo di studiare i singoli elementi presi separatamente, quanto l‘interazione tra gli elementi di un sistema (esseri umani inclusi). Tale studio si alimenta naturalmente di conoscenze specialistiche sui vari elementi (ovvero sull‘ingegneria delle parti software e hardware, e sulla psicologia degli esseri umani), ma tali risultati vanno comunque collocati nella relazione tra i vari elementi. Ciò che distingue l‘HCI dall‘ergonomia in generale è una diversa enfasi sui vari aspetti dell‘interazione uomo-sistema. L‘ergonomia tradizionale si è infatti indirizzata principalmente agli aspetti fisici, quali la compatibilità tra caratteristiche fisiche umane (antropometria) e caratteristiche della macchina (ad esempio: misure spaziali, peso, calore emanato), mettendo in luce anche situazioni assurde, di assoluta incompatibilità fisica: l‘uomo costretto a muoversi per lavorare in spazi impossibili e a compiere dei movimenti innaturali per interagire con la macchina. Con il fiorire del cognitivismo e la nascita dei primi calcolatori, l‘enfasi degli studi ergonomici non è più sulle caratteristiche fisiche della macchina, quanto sugli elementi di interfaccia, che consentono all‘uomo di operare un adeguato controllo del sistema. La parte fisica dell‘interazione uomo-macchina passa in secondo piano, mentre diventano più importanti gli aspetti di controllo e presa di 20 Sebastiano Bagnara, Simone Pozzi decisioni, ovvero la ―compatibilità‖ tra la macchina, il sistema cognitivo umano e gli aspetti socio-culturali. L‘interfaccia diviene sempre più complessa e di dimensioni sempre più predominanti rispetto al ―motore‖ della macchina, a volte anche per la necessità di porre l‘operatore a debita distanza dal processo lavorativo (si pensi all‘industria chimica e nucleare). Agli inizi del 1960, Bartlett già individuava alcune delle tendenze tipiche degli anni a venire (Bartlett, 1962): 1. crescente isolamento fisico degli individui 2. richieste maggiori di comunicazione mediata da tecnologia 3. riduzione del workload fisico 4. incremento del workload mentale 5. integrazione del lavoro di più persone nel lavoro di un‘unica persona 6. presentazione di stimoli multi-modali 7. enfasi crescente sulle attività di decision making. Sono quindi l‘evoluzione dei calcolatori e la loro presenza sempre più pervasiva negli ambienti di lavoro a portare alla nascita vera e propria dell‘HCI, che sempre di più diventa una disciplina indipendente più che una branca dell‘ergonomia cognitiva. Dal 1970 in poi assistiamo inoltre al crescere della cosiddetta ―società della conoscenza‖, caratterizzata da una sempre più alta omogeneità tra ambiente di lavoro e di vita, da una continua e rapida trasformazione del lavoro, da una diffusa informatizzazione e presenza di automazione in luogo del lavoro fisico. 2. L’HCI e l’Evoluzione del Computer Trattandosi di una disciplina applicata all‘interazione tra l‘uomo ed un determinato artefatto tecnologico, l‘HCI ha progressivamente mutato il suo fuoco in parallelo al progredire del computer. In un articolo del 1990 intitolato ―The computer reaches out‖ (Grudin, 1990), Grudin ha tracciato un parallelo tra HCI e sviluppo del computer, individuando 5 momenti, a ciascuno dei quali corrisponde Fondamenti, Storia e Tendenze dell'HCI 21 una diversa definizione di interfaccia uomo-computer. Questi momenti vanno dagli albori del computer dove l‘interazione uomocomputer era limitata all‘intervento sui circuiti elettronici stessi, alla nascita dei primi software (ovvero possibilità di programmare la macchina a compiere comportamenti differenti), alla comparsa di terminali dedicati (le prime vere e proprie interfacce) dove interagire con linee di comando con il computer, fino allo sviluppo negli anni 80 di interfacce grafiche che consentono all‘utente di svolgere la propria attività in modo meno lineare e pre-strutturato. Figura 1. Keyword frequency cloud per la conferenza CHI (50 termini visualizzati). Di pari passo, la conoscenza dell‘effettivo funzionamento della macchina diventa sempre meno indispensabile per interagirvi, dal momento che l‘interfaccia si occupa di tradurre le azioni dell‘utente in input per i circuiti del computer. Passiamo quindi da utenti iperspecializzati come gli ingegneri elettronici o i programmatori, ad un‘utenza indistinta che utilizza il computer sul lavoro ma anche nel tempo libero. L‘ultimo passo descritto da Grudin è la transizione dallo studio dell‘interazione tra il computer ed un solo individuo, allo studio del computer come supporto a gruppi di lavoro (Computer Supported Cooperative Work - CSCW). In altre parole negli anni ‗90 il com- 22 Sebastiano Bagnara, Simone Pozzi puter diventa sempre di più uno strumento utilizzato primariamente per comunicare e l‘HCI si trova a rendere conto di tutte le interazioni sociali che da esso vengono mediate. L‘HCI compie così in pochi decenni una transizione che porta il suo campo di applicazione dall‘interno del calcolatore verso lo spazio sociale. L’HCI oggi: una mappa di parole Per visualizzare lo stato della ricerca HCI oggi, alcuni ricercatori hanno analizzato l‘occorrenza di parole chiave in 4 importanti conferenze (CHI, UIST, InfoVis, AVI) (Henry et al., 2007). Limitandoci alla conferenza CHI (maggiormente rilevante per la discussione presente, analizzata dal 1983 al 2006), la rappresentazione che Henry e colleghi hanno ottenuto è mostrata in Figura 1. Per quanto riguarda invece la distribuzione temporale delle keyword, Henry e colleghi hanno ottenuto la rappresentazione in Figura 2, dove le tonalità di grigio più scuro rappresentano un‘alta occorrenza del termine. La figura è stata da noi modificata per visualizzare solo i termini ritenuti più rilevanti. Figura 2. Distribuzione cronologica (anni rappresentati in ascissa) e densità delle parole chiave per le 4 conferenze analizzate. Queste rappresentazioni confermano i ragionamenti da noi svolti nei paragrafi precedenti. Si vede l‘affermarsi del CSCW a partire dagli anni ‘90, il proseguire dell‘enfasi per gli aspetti sociali nel mobile e nell‘ubiquitous computing, l‘affermarsi di nuove tecnolo- Fondamenti, Storia e Tendenze dell'HCI 23 gie quali il web e la realtà virtuale, l‘attenzione per l‘interazione e il coinvolgimento dell‘utente (usabilità, participatory design, interaction design). Va comunque sottolineato come queste mappe rappresentino in modo privilegiato la realtà Statunitense, mentre le altre realtà regionali hanno minore rilevanza. 3. Dinamiche Sociali e Tecnologiche di Lungo Periodo Dopo aver delineato in maniera sintetica l‘ergonomia fisica e l‘ergonomia cognitiva, in questa sezione vorremmo riflettere in modo più analitico sulle principali dinamiche che possiamo individuare nella storia dell‘HCI. Si tratta qui di riprendere alcune delle questioni già brevemente trattate per legare insieme differenti aspetti e collocare questioni di innovazione tecnologica o di disciplina nel contesto sociale. Cercheremo quindi di non concentrarci su aspetti di pura ergonomia fisica o cognitiva, ma di riflettere come alcune dinamiche sociali e tecnologiche pongano sfide ancora aperte all‘HCI. Questo ragionamento potrebbe essere collocato sotto un approccio terzo rispetto ai due tradizionali approcci dell‘HCI (il primo è l‘ottimizzazione del rapporto macchina-uomo e il secondo la svolta cognitiva), ovvero il tentativo di affrontare fenomeni quali l‘embodiment (Ishii & Ullmer, 1997), la creazione del significato, le questioni sociali. L‘interazione può essere considerata come una forma di creazione del significato in cui l‘artefatto e il contesto socio-culturale si definiscono a vicenda (Veyrat et al., 2008). Le dinamiche sociali e tecnologiche che discuteremo qui di seguito sono: dal lavoro come travaglio all‘autorealizzazione digitalizzazione e portabilità dal calcolo alla comunicazione dalla navigazione alla produzione collettiva. Per ciascuna di esse presenteremo una breve descrizione, poi una riflessione su quali tensioni l‘HCI deve ancora affrontare e quali limiti si vedono negli approcci correnti. 24 Sebastiano Bagnara, Simone Pozzi Figura 3. Le due dimensioni dell‘usabilità e della User Experience (immagine parzialmente adattata da lavoro non pubblicato di Jim Hollan). Dal lavoro come travaglio all’autorealizzazione L‘ergonomia aveva ed ha ancora una visione del lavoro come fatica. Questa visione è ben descritta dal vocabolo francese che indica il lavoro e cioè ―travail‖, il lavoro come ―travaglio‖, dolore. E l‘obiettivo dell‘ergonomia è stato, ed è ancora, appunto, la riduzione, fino ad arrivarne all‘eliminazione, del ―travaglio‖ del lavoro. Siccome nella società industriale il lavoro si fa con le macchine, il travaglio viene ―naturalmente‖ attribuito alla macchina, perché è nell‘interazione con questa che insorge fatica e, alle volte, patologia. Nella visione tradizionale, infatti, l‘interazione uomo-macchina è vista come luogo di origine della patologia da lavoro. Questa visione diviene meno totalizzante nell‘ultimo periodo, quando l‘HCI si trova a dover affrontare ambiti di applicazione non solo lavorativi, ma anche di tempo libero e svago (Bødker, 2006). La disciplina deve quindi progressivamente operare un salto dal concetto di ―bisogni‖ a quello di ―desideri‖, progettando non più per correggere difetti dell‘interazione, ma per soddisfare o creare esperienze appaganti. Il grado di innovazione oggi presente nei dispositivi di riproduzione musicale digitale non sarebbe infatti spiegabile come mera correzione ai modi precedenti di fruire musica. È Fondamenti, Storia e Tendenze dell'HCI 25 proprio invece questa mutazione di paradigma (dal bisogno al desiderio) a rendere pensabili e praticabili nuove forme di interazione uomo-macchina, quali ad esempio il Podcast. Figura 4. L‘interfaccia testuale di un MUD. In modo analogo sarebbe limitante pensare all‘interazione uomomacchina come ad un sistema mirato a prestazioni più efficaci. L‘HCI non può più limitarsi a valutare l‘interazione in termini funzionali (efficacia, efficienza, sicurezza, usabilità, etc.), ma deve integrare anche dimensioni soggettive relative all‘esperienza d‘uso (piacevolezza estetica, carica motivazionale, coinvolgimento, etc.; vedi Figura 3). Le interfacce odierne sono finestre su attività complesse, che coinvolgono anche interazioni sociali. Si pensi ad esempio ai giochi di ruolo online (Multi User Dungeon/Domain - MUD), in cui una scarna interfaccia testuale (Figura 4) consente agli utenti di svolgere narrazioni complesse, in cui interagiscono anche decine di utenti. Dall‘interfaccia ―si entra‖ in un mondo. È una porta. Himanen ha descritto lo stesso salto dal travaglio all‘autorealizzazione nel suo libro sull‘etica dell‘hacker (Himanen, 2001), che è a suo avviso contraddistinta da (i) entusiasmo e passione per un lavoro che viene svolto per piacere, (ii) creatività e desiderio di realizzare se stessi, spesso in gruppi spontanei aggregati intorno a progetti specifici, (iii) volontà di condividere le proprie abilità con una comunità che si ponga i nostri stessi obiettivi, in modo che alla nostra dedizione corrisponda un aumento di autorevolezza sociale. L‘hacker lavora unicamente guidato da motivazioni interne, per soddisfare le proprie aspettative ed avendo il proprio zelo come unità di misura. 26 Sebastiano Bagnara, Simone Pozzi L‘HCI si è adattata con successo anche a questa dinamica di lungo periodo (si vedano le numerose pubblicazioni sulla user experience e sulle esperienze di gioco), esistono tuttavia alcune tensioni ancora da affrontare. Alfabetizzazione digitale e frustrazioni tecnologiche Le tecnologie sono ancora in larga parte difficili da utilizzare e spesso generano esperienze di frustrazione più che di appagamento. Si veda ad esempio il tono ironico del seguente articolo tratto dal British Medical Journal sul rapporto tra medico e computer: Lo scopo principale di un computer è la dominazione. Un computer fa in modo che voi non perdiate più il vostro tempo nel vedere i pazienti – o che lo perdiate in altre occupazioni non importanti quali mangiare, bere, dormire, o riprodurvi. Uno scopo secondario del computer è di fornire un mini test mentale della vostra capacità di ricordare le password. Le password di un computer sono differenti per ogni programma, e cambiano con la stessa frequenza della vostra biancheria. Le password sono il nome del vostro cane ormai deceduto, o il nome della vostra compagna scritto al contrario, seguito da un numero che cresce esponenzialmente. […] I normali esseri umani tengono le loro password ben nascoste su carta per gli appunti, che non sarà mai più ritrovato (Isaacs et al., 2007, nostra traduzione) A distanza di 20 anni dal libro di Norman sulla difficoltà di interagire con le tecnologie (Norman, 1990), potremmo ancora asserire che, per una troppo larga parte delle tecnologie che ci circondano, è ancora necessario possedere una laurea in ingegneria ed impiegare almeno mezzora per capirne il funzionamento. La conseguenza di questo problema è una bassa alfabetizzazione digitale in molti paesi (Italia inclusa). L‘HCI deve contribuire in modo deciso per rendere l‘alfabetizzazione digitale un compito più semplice. Il problema è ancora più stringente se si pensa a come lavoro, tempo libero e vita sociale condividano ormai una comune infrastruttura. Oramai, in molte case c‘è una postazione di lavoro. Nell‘era industriale, la casa poteva essere anche vicina alla fabbrica e condividere alcune, di solito pessime, condizioni ambientali, ma certo non ne condivideva le tecnologie. L‘alfabetizzazione digitale consiste nel saper dominare questa infrastruttura comune, pena l‘esclusione dal lavoro, ma anche dalla vita sociale e civile. Fondamenti, Storia e Tendenze dell'HCI 27 La società del rischio Lo sviluppo tecnologico ha portato l‘uomo ad interagire con sistemi incrementalmente più complessi e difficili da controllare. Spesso questa complessità si accompagna anche ad alti quantitativi di energia potenzialmente dannosa. Nonostante sia impossibile negare come molti di questi sistemi abbiano delle prestazioni eccellenti in termini di sicurezza, è d‘altra parte evidente che il problema del controllo non possa ancora considerarsi risolto. Questi sistemi restano inerentemente pericolosi (Perrow, 1984; Reason, 1997). È pertanto ancora valida la sfida che si poneva Doug Engelbart (uno dei padri dell‘HCI): La difficoltà dei problemi del genere umano stava crescendo più della nostra abilità nell‘affrontarli. (siamo nei guai) [così] … ho dedicato il mio lavoro ad ―aumentare l‘intelletto umano‖ (Engelbart, 1988, nostra traduzione) Il punto non sottolineato da Engelbart è che parte di questa difficoltà è a sua volta prodotta dall‘uomo, sotto forma di sistemi sociotecnici sempre più complessi. Per questo motivo piloti e medici sono oggi in condizioni di portare avanti l‘attività in situazioni prima impossibili da affrontare, ma devono purtroppo affrontare problemi ancora più difficili da gestire e potenzialmente più pericolosi. L’alienazione cognitiva: dalla catena di montaggio a Starbucks L‘ergonomia ha efficacemente affrontato il problema dell‘alienazione (a sua volta esacerbato da studi di natura ergonomica, quali il Taylorismo), portando avanti ricerche per diminuire il malessere fisico generato dal lavoro seriale. Non possiamo però dire che siano stati risolti i problemi di alienazione e intensità tipici del lavoro cognitivo. Il lavoro, come ha bene colto il rapporto del National Research Council (1999), ha assunto dimensioni nuove e peculiari. È demograficamente eterogeneo. La globalizzazione, con la distribuzione spaziale e temporale del lavoro, aumenta la diversità nelle risorse umane. È fluido. I confini fra chi fa un dato lavoro e chi svolge un‘occupazione differente sono diventati estremamente deboli e permeabili (Davis & Meyer, 1998). I lavori sono spesso complementari e si influenzano a vicenda. Il lavoro è vario. I tradizionali 28 Sebastiano Bagnara, Simone Pozzi complessi produttivi, organizzati sostanzialmente allo stesso modo, basati sulla ripetitività delle operazioni, sono in via di sparizione. Il lavoro è vario soprattutto perché i processi di scambio non sono più regolati dall‘offerta, ma dalla domanda, che è per natura diversificata, connessa come è ai bisogni e ai desideri. Il lavoro è socialmente intenso. Vi è una grande flessibilità orizzontale e verticale: una persona può essere impegnata, anche nel corso della stessa giornata, addirittura in parallelo, su più progetti, in cui può ricoprire ruoli diversi. In un progetto può essere il capo, e in altri progetti avere un ruolo marginale. Il lavoro è cognitivamente impegnativo e richiede responsabilità. Il nuovo lavoro concede grande discrezionalità e autonomia decisionale: ci sono ben pochi compiti ripetitivi svolti in ambienti stabili. Siccome è finalizzato alla produzione di novità, prevede attività sempre nuove in ambienti incerti (Bauman, 1999). E, siccome si svolgono anche più attività in parallelo, si è soggetti a frequentissime e improvvise interruzioni, che rendono difficile se non impossibile trovare tempo e modo per la riflessione e la ponderazione. Il lavoro è intenso. Si lavora più a lungo e più intensamente, perché esso è intrinsecamente motivante e sfidante. Ma non finisce mai. Entra nella vita, nel tempo di recupero. La tensione non si allenta mai. L‘HCI deve ancora dare una risposta soddisfacente ai lati negativi di questo cambiamento: il lavoro in un call-center è spesso atomizzato, ripetitivo pur nella diversità delle richieste da fronteggiare, cognitivamente e socialmente intenso (gli operatori devono risolvere un problema, ma anche rappresentare l‘immagine aziendale con i clienti). I baristi di Starbucks sono in grado di rispondere ad una domanda che può richiedere loro circa un centinaio di bevande differenti, combinando ingredienti, contenitori e richieste speciali, ma di nuovo lo devono fare in un ambiente sociale, con un ritmo intenso, coordinandosi in team fluidi. Il lavoro è cambiato qualitativamente e con esso sono cambiate le forme di alienazione e di carico cognitivo, ma la tensione tra impegno, varietà e malessere è un punto ancora da affrontare. Fondamenti, Storia e Tendenze dell'HCI 29 Digitalizzazione e portabilità Una delle conseguenze più evidenti della presenza pervasiva del computer è la trasformazione in codice digitale di ogni informazione. Ogni tipologia di informazione, sia essa video, audio, testo, immagini, può essere tradotta in un codice comune, che ne permette la registrazione, trasmissione e riproduzione con strumenti comuni. Vista la sua forza e pervasività, tale dinamica risulta in una serie di tensioni interessanti. Integrazione versus distribuzione La digitalizzazione consente di integrare diverse informazioni in un unico strumento (il computer appunto), accrescendone però la complessità e diminuendone la specializzazione. Al contrario, l‘idea portante di molta ricerca contemporanea nell‘HCI e nelle scienze cognitive è il ―distribuire l‘intelligenza‖ nell‘ambiente, tipicamente attraverso apparecchi dedicati a compiti precisi (information appliances), da attivarsi solo in caso di bisogno (Hutchins, 1995; Norman, 2000; Weiser, 1991). L‘HCI si trova oggi a fronteggiare queste due tendenze contrapposte, tra un personal computer sempre più complesso e una miriade di apparecchi personali digitali (ad esempio: iPod, smart phones, palmari e blackberry, etc.). Talvolta le due polarità possono persino sovrapporsi, come ad esempio nel caso dei cellulari di ultima generazione: apparecchi personali con una complessità paragonabile a quella di un computer. L’accumulo inutile: informazione versus conoscenza Il costo di produrre, trasmettere e immagazzinare informazione digitale è estremamente basso, così come aumenta costantemente la capacità di trasmissione, o la capacità di storage (il servizio di posta elettronica Gmail attualmente mette a disposizione degli utenti 7 gigabyte di spazio, che corrispondono a decine di migliaia di email). Questo basso costo rischia però di innescare meccanismi di sovra-produzione e sovra-consumo di informazione. Le persone immagazzinano più informazione di quanta riescano effettivamente a consumarne (tensione tra storage e viewing), strumenti di ricerca sempre più veloci ci spingono a non sfogliare più le nostre cartelle o nemmeno a creare strutture di archiviazione ordinata (tensione tra ricerca e browsing), togliendoci però in tal modo l‘opportunità di 30 Sebastiano Bagnara, Simone Pozzi imbatterci casualmente in informazioni rilevanti (troviamo solo quello che già sappiamo di dover cercare). Un effetto particolarmente pernicioso della sovraproduzione/immagazzinamento/consumo è il veloce decadimento del valore delle informazioni. Questo è dovuto alle caratteristiche cognitive umane stesse. L‘attenzione è una risorsa limitata e le informazioni competono continuamente per essa, con nuovi stimoli pronti a prendere il posto dei vecchi (Bagnara, 2008; Davenport & Beck, 2001). In questo modo il turn-over tra le informazioni è altissimo, mentre scarso (o altamente rischioso) è il valore di investire in termini di attenzione, ovvero apprendimento e memoria, su di esse. Infatti appena apprese molte informazioni devo essere dimenticate, o rimpiazzate da nuove. Si pensi all‘apprendimento di nuovi applicativi software, con le continue nuove release a soppiantare le vecchie versioni, ai programmi o agli strumenti che utilizzavamo pochi anni fa, alle versioni dei nostri cellulari, oppure al tempo dedicato ad inserire nuove informazioni nella nostra pagina personale su Orkut o Myspace, per poi scoprire che tutti i nostri amici erano migrati in massa su Facebook, o che sarebbe stato utile dedicare più tempo a Linkedin e lasciar perdere invece Hi5, Friendster e Yaari. In ultimo, pensiamo alla cattiva impressione che generano pagine web chiaramente aggiornate per l‘ultima volta anni fa, ovvero alla sensazione di non poter sicuramente trovare alcuna informazione utile in una pagina vecchia. Servizi di risposte come Yahoo Answer o Virgilio Genio predispongono infatti una redazione che visualizzi sempre nuove domande e risposte, anche in assenza di domande da parte di utenti reali. I giornali online devono invece bilanciare la spinta a produrre sempre nuovi contenuti con la qualità degli stessi: se la notizia resterà visibile per poche ore non giustifica investimenti significativi, siano essi per determinarne l‘attendibilità o per approfondire determinati aspetti. Dal calcolo alla comunicazione Una delle dinamiche più rilevanti nella storia dell‘HCI è stata sicuramente lo spostarsi degli sforzi di progettazione dalla parti interne del computer, all‘interfaccia, fino ad arrivare allo spazio sociale. Abbiamo visto come in conseguenza di questo processo si sia spo- Fondamenti, Storia e Tendenze dell'HCI 31 stata l‘enfasi dagli aspetti di mero calcolo alla comunicazione. Le tecnologie servono sempre di più per veicolare interazioni sociali, e non per gli scopi iniziali di potenza di calcolo. Il dissolversi dell’interfaccia Concetti come il mobile o l‘ubiquitous computing sono da questo punto di vista ancora più ―estremi‖, dal momento che viene a dissolversi la nozione stessa di interfaccia. Se Grudin (1990) ha descritto il passaggio dell‘interfaccia dai circuiti elettronici alla linee di programma, alle linee di comando, fino alle interfacce grafiche, oggi ci troviamo davanti a interfacce gestuali, vocali (speech recognition), o multi-touch. Si dissolve progressivamente il luogo ben definito dove inserire i comandi per il computer, l‘interfaccia appunto, per estendersi nello spazio, o addirittura farsi non materiale. In modo analogo, le azioni dell‘utente che il calcolatore riconosce come input assumono svariata forma. Le RFID (Radio Frequency IDentification, identificazione a radio frequenza) consentono di monitorare spostamenti nello spazio di oggetti e persone e possono essere utilizzare per attivare comportamenti del calcolatore. Il Bluetooth e il wireless pongono in comunicazione i dispositivi in base ad una prossimità spaziale, tessuti intelligenti (smart fabrics) trasmettono informazioni sui parametri vitali di chi l‘indossa, sulle situazioni in cui si trova (temperatura, luminosità, posizione nello spazio). Al di là delle diverse soluzioni tecnologiche, ciò che ci appare importante è il dissolversi dei concetti di interfaccia e di input utente, il loro estendersi nello spazio e farsi meno facilmente circoscrivibili. L‘utente non deve più sedersi di fronte allo schermo del computer per poter interagire con esso. Always connected: il problema del controllo Un‘interfaccia distribuita comporta la possibilità di essere sempre connessi (always on), ovvero sempre in grado di comunicare attraverso le tecnologie. Ma l‘esigenza di connessione si trasforma spesso nella volontaria cessione di dati relativi alla propria sfera privata. Le stesse tecnologie che abilitano la connessione perenne consentono anche di acquisire dati su ogni comportamento dell‘utente. Ogni utente lascia una scia dettagliata di tracce digitali, che potrebbero descrivere i suoi gusti, abitudini e pensieri in maniera più dettagliata di quanto gli piacerebbe pensare. Ed è anche per la tranquilliz- 32 Sebastiano Bagnara, Simone Pozzi zante sensazione di anonimato (sensazione purtroppo illusoria) trasmessaci dalle transazioni digitali, che spesso siamo poco sensibili a questo tipo di cessione di dati personali. La questione delle tracce digitali ha cominciato a far sentire la sua urgenza anche sul piano legale, dove le varie legislazioni nazionali si stanno attrezzando per far sì che le persone mantengano il controllo sui propri dati personali. Connesso a questa tematica vi è il tema dell‘identificazione, dato che l‘always on richiede nuove forme di identificazione della persona, di nuovo implicando lo scambio di informazioni personali. Ma vi è una seconda forma di controllo, dovuta alle modifiche di consolidati schemi di interazione sociale a seguito delle aspettative suscitate dalle tecnologie per la comunicazione. Il galateo digitale dell‘always on prescrive che si segnali sempre la propria assenza, utilizzando l‘auto-responder per la mail, o impostando il proprio stato su Skype. Si sono sviluppati così nuovi contratti sociali impliciti, con i relativi impegni e forme di controllo, dove la possibilità di comunicare si trasforma nell‘obbligo di farlo, e soprattutto di farlo immediatamente. I dispositivi di comunicazione personale facilitano la funzione fàtica (di contatto) della comunicazione, ma rischiano di trasformarla in obbligo di interazione. Un effetto particolarmente deleterio dell‘always on è il moltiplicarsi delle interruzioni. Diventa sempre più difficile interrompere la propria connessione dalla rete (a causa degli obblighi sociali di cui sopra), esponendosi così ad un continuo flusso di sollecitazioni dirette (email, messaggi sms o via chat, etc.) o indirette (aggiornamenti di pagine web, curiosità e spinte ad approfondire, etc.). Il risultato è la frammentazione estrema dell‘attività, che si interrompe di continuo per il controllo della mail, per caricare l‘ultima versione del nostro blog preferito, per rispondere ai messaggi via chat di amici e colleghi. L‘interruzione continua (o perlomeno l‘aspettativa di essere presto interrotti) costringe il lavoratore cognitivo a intensi quanto brevi periodi di concentrazione, impedendo di dedicare un tempo più lungo alla riflessione vera e propria, se non confondendo ulteriormente il tempo del lavoro con il tempo del riposo, ovvero con momenti socialmente dedicati al riposo (dove ci si aspetta che anche gli altri diminuiscano le proprie interazioni). Fondamenti, Storia e Tendenze dell'HCI 33 Il dissolversi dell’intelligenza artificiale come sistema esperto Nonostante un ambizioso paradigma di ricerca, l‘intelligenza artificiale non si è ancora realizzata nelle forme attese dai suoi sostenitori. Le aspettative negli anni ‗50 e ‗70 erano di riuscire a costruire macchine che implementassero le forme più alte del ragionamento umano, grazie alla superiore potenza di calcolo. Tale aspettativa si è rivelata per il momento troppo ambiziosa, e il ruolo dell‘intelligenza umana rimane cruciale anche in quei sistemi dove la formalizzazione e la strutturazione dei processi è alta, ovvero dove più esistono possibilità di sfruttare la potenza di calcolo per risolvere problemi formalizzabili in algoritmi matematici. Le macchine che ci circondano non possono ancora dirsi intelligenti, e di sicuro non condividono molti degli aspetti fondamentali dell‘intelligenza umana. Come già accennato, il paradigma attuale tende a mirare a comportamenti adattivi, più che all‘intelligenza pienamente formata, con macchine che apprendono ad anticipare i nostri desideri sulla base di comportamenti ricorrenti. Ed è proprio in queste forme di supporto limitato che si potrebbe trovare la potenziale convergenza tra HCI e intelligenza artificiale. Se gli obiettivi sono definiti in modo appropriato, ovvero focalizzandosi su precisi comportamenti dell‘utente, le learning machines possono essere una risorsa per l‘interaction design. Uno dei problemi cruciali che si pone al momento la ricerca sulle macchine intelligenti è come fare in modo che tali macchine utilizzino il contesto in cui si muovono come risorsa per definire i comportamenti appropriati. L‘intelligenza non è più astratta, non è più mera potenza di calcolo, quanto è invece finezza dei sensori e adeguatezza dei comportamenti alla situazione. Se l‘intelligenza deve essere distribuita, allora una delle sue capacità fondamentali dovrebbe essere la percezione del contesto. Dalla navigazione alla produzione collettiva Nel 1996 si contavano circa 250.000 siti web, quasi tutti ―readonly‖, ovvero i cui contenuti erano pubblicati da autori ben determinati. Dall‘altro lato avevamo circa 45.000.000 di utenti, le cui attività tipiche erano la ricerca e la navigazione. Nel 2006 i siti erano diventati 80.000.000, ma la differenza più grossa risiede nel fatto 34 Sebastiano Bagnara, Simone Pozzi che questi siti sono in gran parte ―read-write‖. Si stima che ormai un terzo dei contenuti siano generati dagli utenti (circa un miliardo), che costruiscono nuovi siti, oppure arricchiscono materiali già esistenti. Accanto alla navigazione e ricerca, molti utenti ora generano e scambiano contenuti. La digitalizzazione permette ad un gran numero di persone di partecipare al momento della pubblicazione, in casi estremi facendo perdere di validità analitica a categorie quali pubblicazione, distribuzione, consumo. Le tre attività tendono a confondersi l‘una nell‘altra, e di sicuro possono essere svolte da uno stesso utente, laddove prima la separazione dei ruoli era netta. L’usabilità come plasmabilità dei contenuti Questo spostamento dei ruoli è stato accompagnato nell‘HCI da una ri-focalizzazione di cosa significhi progettare siti (o tecnologie) usabili, centrate sull‘utente. Se prima l‘usabilità di un sito web si giudicava dalla facilità di navigazione, adesso un sito web centrato sull‘utente supporta anche la creazione dei contenuti da parte dell‘utente stesso. I contenuti digitali sono rimodellabili e non si configurano mai per loro natura come definitivi, conservano la plasmabilità che consente ad altri utenti di appropriarsene, apportarvi modifiche e rimetterli in circolo (si pensi ai campionamenti nella musica, o al copia ed incolla da internet). Un sito ―usabile‖ è allora un sito che crea valore non perché l‘utente riesca a trovare l‘informazione giusta, quanto perché spinge una moltitudine di utenti a contribuire alla creazione di un contenuto comune. I social networks acquisiscono valore in base al numero degli iscritti e alla tipologia dei contenuti che essi sono disposti a pubblicare nei loro profili, i giochi online fioriscono di pari passo con le comunità di videogiocatori, wikipedia o il social bookmarking (ad esempio Delicious) sopperiscono alla mancanza di autorevolezza con la massa dei contributi che sono in grado di catalizzare. La tensione più forte in questa dinamica è appunto quella tra autorevolezza e plasmabilità. Più i contenuti sono plasmabili (e più lo sono da parte di un numero non ristretto di persone), più è facile che essi possano essere utilizzati senza rigore, per mentire, per creare rumore, per cercare di affermare la propria individualità. I meccanismi più efficaci per controllare questo tipo di degenerazioni sono nuovamente quelli comunitari. Una comunità coesa è in grado di Fondamenti, Storia e Tendenze dell'HCI 35 sviluppare meccanismi interni di controllo dell‘autorevolezza, attribuendo ad una ristretta cerchia di anziani il compito di garanti della qualità di ciò che viene veicolato attraverso la comunità stessa. Il copyright nell’era della riproducibilità tecnica Una delle questioni più affascinanti dal punto di vista teorico è la tensione tra la protezione della proprietà intellettuale e l‘uso creativo di semilavorati prodotti da altri. Il digitale rende difficile riconoscere l‘originale dalla copia, rende identico il prodotto pubblicato a quello consumato, rende facili ed immediati i montaggi tra materiali di provenienza eterogenea. Diversi artisti hanno approfittato delle possibilità di manipolazione aggiuntive offerte dal digitale, scatenando ogni volta una discussione su quanto il digitale sia arte, su quanto sia ―originale‖ l‘uso del calcolatore in campo artistico. Proprio per questa facilità di riproduzione e appropriazione sembra ancor più necessario predisporre una legislazione intransigente a protezione della proprietà intellettuale. Fatto salvo che l‘opera intellettuale non nasce in isolamento, ma anzi si nutre proprio dei semilavorati di altri autori, proponendo assemblaggi nuovi e arricchendoli di altri significati. Il calcolatore sembra così dare corpo a pratiche che sono sempre esistite, che anzi costituiscono il corpo di quello che noi chiamiamo creatività, e che ci contraddistinguono in quanto umani (si veda la descrizione del ratchet effect come meccanismo evolutivo in Tomasello, 1999). 4. Le Sfide Future dell’HCI In questa sezione conclusiva del nostro contributo, vorremmo sinteticamente proporre quelle che a nostro avviso sono le sfide del futuro prossimo dell‘HCI. Alcune di esse sono in continuità con quanto discusso ai paragrafi precedenti, altre rappresentano invece un cambiamento piuttosto drastico e qualitativamente nuovo. Anche in questo caso cercheremo di collocare la riflessione nel contesto sociale, pertanto ragioneremo più in termini di processi e tensioni per renderne la natura dinamica e le contraddizioni interne. Non si tratta qui di descrivere dove andrà l‘HCI domani, quanto di delineare gli aspetti sociale che ad oggi appaiono più interessanti, più complessi e più urgenti. 36 Sebastiano Bagnara, Simone Pozzi I processi che descriveremo in questa sezione sono i seguenti: l‘HCI come scienza dell‘uomo gli ecosistemi digitali l‘ubiquitous computing come spazio sociale la lunga coda. L’HCI come scienza dell’uomo La prima sfida è probabilmente la più cruciale di tutte e impatta sul futuro della disciplina in modo così profondo che le sue implicazioni si ritroveranno anche nella discussione delle altre tre. In estrema sintesi, l‘HCI deve sviluppare un approccio alla progettazione in cui i valori dell‘uomo giochino un ruolo fondamentale. Le tecnologie non sono neutre e il loro impatto su valori sociali, culturali e politici deve essere valutato sin da principio. Dalla sua nascita l‘HCI ha cercato di rendere più usabili le tecnologie, migliorando il cattivo design o contribuendo al progetto sin dall‘inizio. Ora la disciplina deve riuscire a cambiare in modo radicale il suo approccio se vogliamo influenzare l‘innovazione tecnologica. La sfida è non lasciare che sia il mero dato tecnico a stabilire cosa significhi essere umani nell‘era dell‘ubiquitous computing, ma farsi proattivi autori della relazione tra la società e le tecnologie. L‘HCI deve cominciare ad analizzare e comprendere le molteplici questioni complesse che si pongono, di qualunque natura esse siano (culturali, etiche, politiche, ecc.). Abbiamo analizzato nelle parti precedenti di questo contributo come l‘innovazione tecnologica abbia conseguenze radicali sulla vita quotidiana delle persone, trasformando relazioni sociali, ambienti di lavoro e di vita. Alcuni prominenti ricercatori HCI hanno suggerito due sfide immediate sul piano metodologico (Harper et al., 2008). Innanzitutto, estendere lo user centred design includendo un passo ulteriore nel processo, ovvero un momento dedicato allo studio delle questioni sociali (human centred). Inoltre, sviluppare lo scambio interdisciplinare, individuando strumenti e metodi per parlare anche con quelle discipline umanistiche che, al contrario della psicologia, della sociologia e dell‘antropologia, ancora non hanno dato alcun contributo alla ricerca HCI. Ad esempio la filosofia, Fondamenti, Storia e Tendenze dell'HCI 37 l‘arte, gli studi letterari e culturali potrebbe fornire ottimi strumenti di analisi per affrontare questioni sociali, etiche e politiche. L‘HCI dovrebbe costruirsi un bagaglio di metodi e tecniche per studiare come le tecnologie supportino, vincolino, o modifichino i valori umani. Si tratta di condurre ad un livello qualitativamente diverso lo studio user centred, includendo i desideri, gli interessi e le aspirazioni che possono essere realizzati attraverso le tecnologie, inoltre spostando l‘attenzione dal dato individuale a quello sociale, ovvero interrogandosi su cosa sia desiderabile a livello di società e non solo di singoli. I trade-off nel design riguarderanno sempre di più la dimensione socio-culturale, dimensione che varia sensibilmente di contesto in contesto (si pensi ad esempio alla dimensione della privacy in una famiglia o nel gruppo di lavoro). In un mondo multi-culturale, i sistemi valoriale potrebbe essere spesso in contrasto gli uni con gli altri, rendendo sempre più difficoltoso fare HCI senza considerare queste dimensioni. Gli ecosistemi digitali La presenza del computer diventerà sempre più pervasiva in futuro, ma probabilmente assisteremo anche ad un salto qualitativo. I computer inizieranno ad interagire tra di loro in modo sempre più consistente, spesso in maniera indipendente dall‘operato umano. Questo ecosistema formato da calcolatori interconnessi potrebbe essere molto opaco per l‘utente, rendendoci difficoltoso il comprendere i suoi modi di funzionamento. Inoltre potremmo aspettarci che la sua crescente complessità finirà con il generare delle proprietà emergenti, difficili da prevedere, e probabilmente anche da individuare una volta emerse. È su questo grado crescente di complessità che ancora una volta si innesterà l‘agire umano, rendendo il tutto ancora più intricato e multiforme (volutamente non parliamo più di ―utenti‖ in questo caso, perché questo concetto difficilmente si applica ad una situazione come quella appena descritta, dove l‘uomo è parte del sistema più che esserne un utente esterno). L‘HCI dovrà affrontare il problema di collocare nell‘ambiente gli artefatti intelligenti che oggi stiamo progettando, di specificarne le interazione reciproche e con gli esseri umani, le reazioni al contesto e ai cambiamenti in esso, ma soprattutto di definire il grado di 38 Sebastiano Bagnara, Simone Pozzi controllo che ciascun umano avrà su di essi e la visibilità del loro funzionamento. Gli esseri umani si affidano in maniera sempre più crescente a questi sistemi per spostarsi e per condurre le proprie attività, l‘HCI dovrà quindi cercare di capire come mitigare la probabile perdita del senso di controllo (come tradizionalmente lo intendiamo) da parte dell‘utente sul calcolatore. Ci sentiremo in balia delle macchine da noi create? Cercheremo di sfuggirvi non appena possibile per ritornare nel più tranquillizzante mondo newtoniano dei legami di causa-effetto, da noi ben conosciuti dopo millenni di evoluzione? Si tratta probabilmente di una tensione irrisolvibile, ma di sicuro l‘HCI dovrà dedicare parecchi sforzi per identificare rappresentazioni del funzionamento di questo ecosistema digitale che siano adeguate per gli esseri umani, che siano comprensibili e che permettano di agire se necessario. Se l‘ambiente è interamente interattivo, cosa ci dirà, cosa possiamo fare, e quali effetti possiamo attenderci? Pensiamo ad esempio ai casi di malfunzionamento. È già impegnativo oggigiorno affrontare il malfunzionamento di una stampante o di un router wireless, lo sarà in misura nuova capire il perché l‘ecosistema digitale che ci circonda abbia reagito (oppure no) in modo inatteso ad un nostro movimento. L’ubiquitous computing come spazio sociale Come abbiamo già avuto modo di rimarcare, il concetto di interfaccia si sta progressivamente dissolvendo. Da un lato il punto di interazione si avvicina maggiormente al nostro corpo, con dispositivi digitali personali o con sensori di parametri vitali, dall‘altro si dissolve in ambienti interattivi. Entrambi i movimenti ci interessano in quanto forieri di cambiamenti radicali per quanto riguarda le interazioni sociali. Lo spostamento del luogo dell‘interazione nello spazio infatti impatta sulle convenzioni sociali tradizionali, che ancora governano il nostro modo di agire e comunicare, così come definiscono i destinatari delle nostre comunicazioni. L‘ubiquitous computing sfuma la differenza tra luoghi e tempi diversi (del lavoro, del viaggio, della vacanza, della famiglia, ecc.), rendendo inappropriate le strategie di gestione del tempo e dello spazio che attualmente usiamo per dividere il lavoro dalla vita privata, gli amici dai parenti, i colleghi Fondamenti, Storia e Tendenze dell'HCI 39 dai conoscenti. L‘HCI dovrebbe dotarci di nuovi strumenti per gestire interazioni multiple di natura profondamente diversa, che per di più possono avvenire in ogni momento e in ogni dove, intrecciando tra di loro comunità eterogenee. Si pensi ad esempio all‘identificativo chiamante sul cellulare e come esso venga utilizzato dalle persone in maniera diversa a seconda delle situazioni (decido di non rispondere e faccio squillare, riattacco, rispondo perché non conosco il numero, spengo il cellulare, ecc.). Di nuovo l‘HCI non sembra sinora in grado di dettare la direzione dell‘evoluzione dei comportamenti, ma si limita a registrare (e magari supportare) la proliferazione spontanea di pratiche e stratagemmi individuali. Dovrebbe invece studiare come permetterci di conservare dei momenti di indipendenza pur all‘interno di connessioni always on, fornendoci modi di decidere momento per momento le forme della nostra disponibilità per gli altri, in modo meno grezzo che non sia un cellulare spento o un messaggio ―non al computer‖ su Skype. In modo analogo, l‘utilizzo di dispositivi personalizzati mette in questione il grado di visibilità di tali dispositivi alle altre persone. Che tipo di visibilità sociale dovrebbe avere il dialogo tra il nostro palmare e l‘ecosistema digitale? Come limitare la visibilità sociale di feedback visivi o sonori (si pensi alle suonerie dei cellulari)? Vi sono casi in cui chi ci sta vicino spazialmente (chiunque esso sia) dovrebbe poter accedere ad informazioni sensibili, ad esempio sul nostro stato corrente di salute? Come utilizzare in situazioni sociali informazioni dettagliate sui nostri gusti e sulle nostre preferenze? Ad una estrema personalizzazione dei dispositivi digitali corrisponde pertanto il problema di come essi dialoghino con l‘ecosistema digitale, ovvero come le nostre interazioni con essi si collochino nello spazio sociale. Una HCI come scienza dell‘uomo dovrebbe permetterci di rigenerare nuove convenzioni sociali e un nuovo galateo, laddove oggi ubiquitous e personal computing sono spesso sinonimo di elisione di qualunque convenzione o galateo. La lunga coda L‘ultima tendenza su cui vorremmo riflettere in questo contributo è quella che viene denominata ―la lunga coda‖, nome derivato da un 40 Sebastiano Bagnara, Simone Pozzi articolo comparso nel 2004 sulla rivista Wired ad opera di Chris Anderson. In estrema sintesi, Anderson nota come nei modelli economici tradizionali l‘80% del fatturato sia generato dal 20% dei prodotti in magazzino. Questa regola del 80-20 (conosciuta come il principio di Pareto) è ritenuta valida per molti segmenti commerciali, dalle grandi librerie al mercato musicale, alla vendita e noleggio di film. Solo il 20% dei film diventa un successo, così come per gli spettacoli televisivi, i giochi o i libri di largo consumo. La situazione è persino peggiore nel mercato musicale, dove meno del 10% dei prodotti genera un profitto. La metà dei prodotti in questi mercati di solito non vende nemmeno una copia a trimestre. Questa percentuale non è invece più valida per il mercato digitale, dove dalle rilevazioni di Anderson emerge come circa il 98% dei prodotti in magazzino riesca a vendere almeno una copia in tre mesi. Anderson riporta ad esempio il caso di Rhapsody, un servizio di streaming musicale a sottoscrizione. Quando Anderson ha scritto l‘articolo, il magazzino di Rhapsody era intorno alle 735.000 tracce musicali, contro le 40.000 tracce che potremmo aspettarci in un magazzino ―reale‖. Oltre questa soglia delle 40.000 non vi è l‘incentivo economico di tenere in magazzino il cd, visto che le probabilità di venderlo sono bassissime. Se invece scorriamo il magazzino di Rhapsody (ordinando le tracce per numero di passaggi richiesti dagli ascoltatori) scopriamo che addirittura le prime 400.000 tracce hanno avuto almeno un passaggio al mese. Questa è la lunga coda, ovvero la parte a destra del grafico in Figura 5, che tende asintoticamente allo zero, ma continua fino alla 400.000esima traccia. In modo analogo un punto vendita di Barnes & Noble ha circa 130.000 titoli, mentre Amazon deve più del 50% dei suoi ricavi a titoli che sono oltre i suoi 130.000 titoli più venduti. E questo è proprio il punto: se combiniamo tutti i ―non successi‖ (ovvero le canzoni o i libri che vendono pochissimo) del magazzino di Rhapsody o di Amazon otteniamo un mercato che muove più denaro di quanto ne facciano i soli successi. Il mercato della scarsità (ovvero dei prodotti che vendono poco o pochissimo) è oltre la portata dei negozi fisici, ma aggregato raggiunge dimensioni pari a quelle del mercato dei successi. Fondamenti, Storia e Tendenze dell'HCI 41 Figura 5. La lunga coda (immagine adattata dall‘articolo di Anderson). Questa opportunità è offerta dai bassi costi di immagazzinamento dei prodotti digitali, a patto di supportare l‘utente nell‘affrontare la tensione tra ricerca e browsing (descritta nel paragrafo 4.2), ovvero di offrirgli strumenti per trovare i prodotti della ―sua nicchia‖ in un catalogo così vasto. Si pensi ad esempio allo sviluppo di sistemi di consigli come quello di Amazon ―altri utenti hanno acquistato‖, oppure ―se ti piace questo autore, forse ti interesserà anche quest‘altro‖. Il ragionamento ci sembra rilevante anche per gli altri mercati tecnologici: la combinazione tra la lunga coda e la personalizzazione dei dispositivi è la chiave per accedere a nicchie sinora inesplorate, come testimoniato dall‘espansione delle tecnologie per la terza età, o del digitale per i bambini, o per persone con disabilità fisiche o cognitive, oppure ancora a professionisti in diversi settori con esigenze particolari (praticanti di sport estremi, ricercatori e scienziati, ecc.). Ma mentre alcune nicchie sono omogenee per fattori demografici facilmente osservabili (quali l‘età, la residenza, il sesso, etc.), le nicchie omogenee per preferenze e comportamenti (come ad esempio gli acquirenti di un certo tipo di musica) possono essere supportate solo a patto di avere accesso a dati sensibili sugli appartenenti. Di nuovo incontriamo la tensione tra privacy e personalizzazione: servizi personalizzatici chiedono di rivelare molti particolari su di noi. In questo senso acquistare un best seller è un atto ―più 42 Sebastiano Bagnara, Simone Pozzi anonimo e privato‖, di quanto ad esempio non lo sia essere gli unici acquirenti italiani di un autore straniero. Questo secondo atto ci colloca immediatamente in una nicchia ben particolare. Siamo disposti a dire ad Amazon tutto sui nostri gusti, pur di lasciarci guidare negli acquisti? L‘HCI non dovrebbe solamente fronteggiare queste tensioni tra privacy e personalizzazione, tra ricerca e browsing, ma anche attrezzarsi con metodi di ricerca sulle caratteristiche altamente idiosincratiche di determinate nicchie e categorie professionali. Un conto è la progettazione user centred per il pubblico generalizzato, un conto è sviluppare strumenti per scienziati o per professionisti. In questo secondo caso le persone sono definite dai loro bisogni, dai loro desideri, dai loro sistemi di valori, ma anche dalle loro conoscenze. Alle metodologie HCI va aggiunto non solo un momento di studio delle questioni sociali, ma anche un momento di comprensione profonda della natura dell‘expertise di queste persone, ad un livello di complessità e collaborazione sino ad oggi poco praticato. La coda è molto più lunga di quanto pensiamo (ed equivale ad un mercato significativo), ma per raggiungerla è necessario rispondere a sfide nuove. Conclusioni In questo contributo abbiamo cercato di proporre una definizione della disciplina dell‘HCI attraverso la sua storia. Ne abbiamo evidenziato le continuità con l‘ergonomia fisica e con quella cognitiva, delineando le dinamiche sociali e tecnologiche principali che ne hanno plasmato lo sviluppo. Il campo della disciplina è ad oggi sempre più dinamico e in forte evoluzione, nel tentativo non facile di reggere il passo dell‘innovazione tecnologica. La sfida cruciale è a nostro avviso il riuscire a mutare l‘approccio user centred in un approccio human centred, ovvero in una scienza dell‘uomo, migliorando la nostra comprensione delle conseguenze e del ruolo sociale della progettazione. Significherà mutare in maniera radicale i nostri strumenti e la nostra terminologia, trasformando ad esempio concetti quali interfaccia o utente, ma soprattutto aprirsi in modo più radicale ad altre Fondamenti, Storia e Tendenze dell'HCI 43 discipline, ―appropriandosi‖ in un certo senso delle loro terminologie e dei loro strumenti. Le scelte sociali che l‘HCI potrebbe trovarsi ad affrontare rappresentano sfide radicalmente nuove. Nell‘era dell‘accumulo infinito e a basso costo ci troviamo a valutare esplicitamente il valore della memoria e dell‘oblio, decidendo quali eventi, atti, o immagini debbano lasciare una traccia digitale, e quali tracce invece svaniranno. Lo stesso dicasi per le competenze che ci distinguono in quanto umani. Se gli antichi greci si interrogavano sui pericoli della scrittura per la memoria, allo stesso modo noi dobbiamo riflettere su quali vorremmo fossero le competenze e gli strumenti cognitivi dei bambini del 2020. Se la capacità di calcolo mentale sarà resa obsoleta da calcolatori ubiquitous, quali altre competenze seguiranno lo stesso destino? Dovremo riflettere sulla desiderabilità sociale di tali dinamiche e nel caso agire di conseguenza. Ogni nuova generazione aggiungerà nuove tecnologie a quelle già esistenti, con un grado di dipendenza prevedibilmente sempre più alto. La sfida dell‘HCI sarà quella di domandarsi esplicitamente quale sia ―l‘impasto desiderabile‖ di competenze vecchie e nuove, quali modalità di interazione conservare, quali traslare e quali abbandonare. Letture Consigliate Bagnara, S. [2008] "L‗economia dell‗attenzione," in R. Nicoletti, E. Ladavas & P. Tabossi (a cura di) Attenzione e cognizione, Il Mulino, Bologna, Italia. Davenport, T. H., & Beck, J. C. [2001] The Attention Economy: Understanding the New Currency of Business, Harvard Business School Press, Cambridge, MA. National Research Council. [1999]. The changing nature of work: Implications occupational analysis. Washington, DC: National Academy of Sciences. Norman, D. A. [1990] La caffettiera del masochista, Giunti, Firenze, Italia. Bibliografia Association for Computing Machinery. [2008] Definition of HCI, Retrieved August, 2008, from http://sigchi.org/cdg/cdg2.html Bagnara, S. [2008] "L‘economia dell‘attenzione," in R. Nicoletti, E. Ladavas & P. Tabossi (a cura di) Attenzione e cognizione, Il Mulino, Bologna, Italia. 44 Sebastiano Bagnara, Simone Pozzi Bartlett, F. C. [1962] "The future of ergonomics," Ergonomics, 5, 505–511. Bauman, Z. [1999] La società dell‘incertezza, Il Mulino, Bologna, Italy. Bødker, S. [2006] "When second wave HCI meets third wave challenges," Proceedings of the 4th Nordic conference on Human-computer interaction: changing roles, 1-8. Davenport, T. H., & Beck, J. C. [2001] The Attention Economy: Understanding the New Currency of Business, Harvard Business School Press, Cambridge, MA. Davis, S., & Meyer, C. [1998] Blur: The Speed of Change in the Connected Economy, Warner Books, New York, NY. Engelbart, D. [1988] "The augmented knowledge workshop," in A. Goldberg (a cura di) A history of personal workstations, Addison-Wesley Publishing Company, New York, NY. Grudin, J. [1990] The computer reaches out: the historical continuity of interface design, paper presented at the SIGCHI conference on Human factors in computing systems: Empowering people, Seattle, WA. Harper, R., Rodden, T., Rogers, Y., & Sellen, A. (a cura di) [2008] Being Human: Human-Computer Interaction in the year 2020, Microsoft Research Ltd, Cambridge, UK. Henry, N., Goodell, H., Elmqvist, N., & Fekete, J. D. [2007] "20 Years of Four HCI Conferences: A Visual Exploration," International Journal of HumanComputer Interaction, 23(3), 239-285. Himanen, P. [2001] The Hacker Ethic and the Spirit of the Information Age, Random House, New York, NY. Hutchins, E. [1995] "How a Cockpit Remembers Its Speeds," Cognitive Science, 19, 265-288. International Ergonomics Association. [2008] What is Ergonomics, Retrieved August, 2008, from http://www.iea.cc/ Isaacs, D., Isaacs, S., & Fitzgerald, D. [2007] "A Day in the Life of a Doctor: The computer," BMJ: British Medical Journal, 335(7633), 1304. Ishii, H., & Ullmer, B. [1997] Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms, paper presented at the CHI. National Research Council. [1999]. The changing nature of work: Implications for occupational analysis. Washington, DC: National Academy of Sciences. Perrow, C. [1984] Normal Accidents: Living with High-Risk Technologies (1999, 2nd ed.), Basic Books (2nd ed. Princeton, NJ: Princeton University Press), New York, NY. Reason, J. T. [1997] Managing the risks of organizational accidents, Ashgate Publishing Limited, Hampshire, UK. Fondamenti, Storia e Tendenze dell'HCI 45 Tomasello, M. [1999] The cultural origins of human cognition, Harvard University Press, Cambridge, MA. Veyrat, N., Blanco, E., & Trompette, P. [2008] "Social Embodiment of Technical Devices: Eyeglasses Over the Centuries and According to their Uses," Mind, Culture and Activity, 15(3), 185-207. Weiser, M. [1991] "The Computer for the 21st Century," Scientific American, 265(3), 94-104. Sebastiano Bagnara è docente di psicologia cognitiva alla Facoltà di Architettura dell‘Università di Sassari ad Alghero, dove presiede il Corso di Laurea in Design. In precedenza, ha insegnato al Politecnico di Milano, Facoltà del Design, ha fondato e diretto il Corso di Laurea e il Dipartimento in Scienze della Comunicazione dell‘Università di Siena, è stato ricercatore e direttore dell‘Istituto di Psicologia del CNR. È stato General Secretary dell‘International Ergonomics Association, Chairman dell‘European Association of Cognitive Ergonomics e Presidente della Società Italiana di Ergonomia. Ha pubblicato oltre duecento articoli scientifici e una decina di libri, fra cui (con Gillian Crampton Smith) ―Theories and practice in interaction design‖. Simone Pozzi è esperto di Human Factors e Safety presso Deep Blue (Roma), dove svolge attività di ricerca nell‘applicazione di metodi e tecniche dell‘Interaction Design ai sistemi safety critical, quali l‘aviazione civile e il campo sanitario. È inoltre contrattista di ricerca presso il Dipartimento di Psicologia dei Processi di Sviluppo e Socializzazione della Sapienza Università di Roma. Le sue attività di docenza includono corsi presso l‘Università di Siena e presso la sede Eurocontrol di Lussemburgo. Nel 2005-2006 è stato Consulente Tecnico per la Procura della Repubblica di Bologna per l‘incidente ferroviario di Crevalcore. I suoi interessi di ricerca riguardano gli aspetti sociali dell‘ergonomia cognitiva, la progettazione e valutazione dell‘usabilità, i processi di innovazione tecnologica nei sistemi socio-tecnici, la gestione del fattore umano nei sistemi safety critical (resilience, errore umano e flessibilità della prestazione). Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Inclusione nella Società dell’Informazione Pier Luigi Emiliani – Consiglio Nazionale delle Ricerche [email protected] Abstract. La diffusione dei calcolatori e dei terminali è molto promettente per garantire la fruizione dell‘informazione e dei servizi di telecomunicazione da parte di persone con limitazioni di attività, se ne è garantita l‘accessibilità. Tradizionalmente, il problema dell‘accessibilità è stato affrontato adattando le interfacce con prodotti appositi, classificati come ―Tecnologia Assistiva‖. Questo approccio ha mostrato problemi legati ai costi, al ritardo e alle intrinseche limitazioni degli adattamenti. Inoltre, l‘interesse si è allargato all‘accessibilità di tutte le componenti della società dell‘informazione (Accessibilità Universale). Si è cominciato a pensare che fosse necessario considerare l‘accessibilità nello sviluppo della tecnologia e delle apparecchiature e applicazioni, usando l‘approccio della Progettazione Universale, del quale vengono presentati due esempi: lo sviluppo di un‘architettura software per la realizzazione di interfacce adattabili ed adattive e le linee guida WAI-W3C per l‘accessibilità al Web. Viene anche mostrato come la disponibilità di un‘apposita legislazione sia fondamentale, analizzando la legislazione italiana. É infine considerata l‘attuale transizione verso la Società dell‘Informazione, concepita come un ambiente intelligente. Ne vengono descritte brevemente le caratteristiche generali e viene infine discusso come l‘ambiente intelligente ha possibilità di supporto agli individui e può portare anche alla ridefinizione di alcuni aspetti del concetto di accessibilità. Keywords: Limitazioni di attività, Accessibilità universale, Progettazione universale, Società dell‘informazione, Tecnologia assistiva, Disabilità. Introduzione La società è in una fase di rapido cambiamento a causa di molti fattori concorrenti, uno dei quali è lo sviluppo tecnologico. L‘integrazione fra le tecnologie delle telecomunicazioni, dell‘informatica e dei media, dovuto alla rappresentazione in forma numerica di tutte le componenti informative (testo, grafica, imma- 48 Pier Luigi Emiliani gini e video), e il basso costo dei calcolatori e delle apparecchiature basate su calcolatori, sta riducendo il confine fra le attività di accesso all‘informazione, comunicazione interpersonale e controllo ambientale in tutti gli ambienti e sta causando una riorganizzazione della società come Società dell‘Informazione, con un impatto importante anche sulla situazione delle persone con limitazioni di attività e sulla loro possibilità d‘inclusione. I ruoli dei cittadini nella Società dell‘Informazione emergente sono in corso di definizione e si suppone che molte attività (educazione, lavoro, studio, divertimento) saranno mediate dalla tecnologia. Per questo è necessario discutere il possibile impatto degli sviluppi tecnologici, in corso e previsti, sulle persone con limitazioni di attività, considerando i possibili cambiamenti nel breve termine e i possibili scenari d‘evoluzione nel medio lungo termine, come una transizione verso una Società dell‘Informazione basata sul paradigma dell‘intelligenza ambientale. I cambiamenti verso la Società dell‘Informazione sono così profondi che stanno anche causando una revisione del modo classico di uso della tecnologia per favorire l‘inclusione sociale di persone con limitazioni di attività. Fino ad ora, l‘approccio della Tecnologia Assistiva (AT) si è basato sull‘adattamento ―a posteriori‖ della nuova tecnologia (per esempio cambiando le interfacce) allo scopo di permettere l‘accessibilità ai sistemi e servizi, e sull‘uso della nuova tecnologia per garantire abilità non ancora disponibili (per esempio la possibilità a chi non è in grado di vedere di controllare cosa ha scritto). Adesso si sostiene, anche a livello politico, la necessità di un nuovo approccio, quello della Progettazione Universale (Design for All in Europa), in base al quale tutti i sistemi, servizi e applicazioni nella società devono essere progettati tenendo conto delle necessità, richieste e preferenze del maggior numero possibile di utenti. É quindi necessario discutere delle possibili definizioni di tale approccio e delle possibilità di un suo utilizzo pratico. Infine, vi è un importante cambiamento della percezione sociale dei problemi d‘inclusione, che non viene vista solo come necessità di dare accesso ai sistemi e servizi, ma di rendere fruibile a tutti l‘informazione e le possibilità di comunicazione (Accessibilità Universale). Anche in Italia esiste una legge, dalle caratteristiche particolarmente avanzate, che si occupa di tale problematica. Inclusione nella Società dell‘Informazione 49 1. Dall’Accessibilità ai Calcolatori ed ai Terminali all’Inclusione nella Società dell’Informazione Persone con limitazioni di attività In questo capitolo la locuzione ―persone con limitazioni di attività‖ è utilizzata al posto di ―persone disabili‖ o ―persone con disabilità‖. Questo approccio è in linea con quello usato dall‘Organizzazione Mondiale della Sanità (WHO) nella preparazione della ―Classificazione Internazionale delle Funzioni, Disabilità e salute (ICF)‖, nella quale si cerca un bilanciamento fra un approccio puramente medico ed uno puramente sociale nell‘identificazione dei problemi e delle opportunità d‘inclusione sociale. Trattando dei problemi di persone che hanno limitazioni di attività o restrizioni nella partecipazione, ―ICF usa il termine disabilità per indicare un fenomeno multidimensionale che risulta dall‘interazione fra le persone ed il loro ambiente fisico e sociale‖. Questo approccio è molto importante, perché permette di raggruppare ed analizzare limitazioni che non sono solo dovute a menomazioni fisiche. Per esempio, le persone non sono capaci di vedere perché sono cieche, o hanno problemi di fissazione a causa di spasticità dovuta a paralisi cerebrale, o perché si trovano in un luogo con illuminazione insufficiente, o stanno guidando e quindi non possono usare gli occhi per interagire con un sistema informativo. Le persone possono avere menomazioni, limitazioni di attività o restrizioni alla partecipazione che caratterizzano la loro abilità (capacità) di eseguire un compito od un‘azione (attività), ma le loro prestazioni sono influenzate dall‘ambiente. Questo può aumentare il loro livello di prestazioni al di sopra del livello di capacità (e quindi è considerato un facilitatore) o può ridurre le prestazioni al di sotto del livello di capacità (essendo quindi considerato come una barriera). L‘enfasi è sul fatto che tutte le persone, indipendentemente dalla loro capacità di eseguire determinate attività, possono avere prestazioni differenti a seconda dei differenti contesti e che l‘ambiente deve essere strutturato in modo da facilitare le loro prestazioni. 50 Pier Luigi Emiliani Accessibilità Universale, Tecnologie Assistive e Progettazione Universale In questo capitolo si sostiene che nel settore dell‘informatica e delle telecomunicazioni, in evoluzione molto dinamica, l‘accessibilità e l‘usabilità di sistemi complessi da parte di persone con caratteristiche e richieste diverse non può essere affrontato con soluzioni di Tecnologia Assistiva (AT) introdotte dopo che le componenti costruttive principali del nuovo ambiente sono state progettate e rese disponibili per l‘utilizzazione. Invece, vi è la necessità di approcci maggiormente proattivi, basati sui principi della Progettazione Universale (Design for All - DfA) (Emiliani & Stephanidis, 2005) parallelamente alla ridefinizione del ruolo e della portata della Tecnologia Assistiva nei nuovi ambienti. In tale contesto, i concetti di Accesso Universale e Progettazione Universale acquisiscono un‘importanza critica nel facilitare l‘accessibilità del nuovo ambiente tecnologico attraverso l‘uso di soluzioni generiche, cioè valide per tutti i possibili utenti. É quindi importante introdurre alcune definizioni di termini e discutere brevemente i concetti che saranno utilizzati nel seguito dell‘esposizione. Accesso Universale e Accessibilità Universale sono usate per indicare il diritto dei cittadini ad una disponibilità completa delle risorse di accesso all‘informazione e alla comunicazione nella Società dell‘Informazione. Questo può essere ottenuto in parte rendendo i sistemi, i servizi e le applicazioni accessibili a tutti i cittadini. Perciò l‘accessibilità è utilizzata come uno degli approcci verso l‘inclusione nella Società dell‘Informazione. Comunque, l‘accessibilità non è sufficiente. Per esempio, quando le persone ricevono supporto da funzionalità ICT per la vita indipendente a casa, particolarmente se hanno problemi cognitivi, si richiede più dell‘accessibilità ai sistemi e servizi. L‘ambiente deve essere capace di supportare le persone con funzionalità specifiche. Con il nome di Tecnologia Assistiva (Assistive Technology – AT) normalmente si fa riferimento alle tecnologie (dispositivi o servizi) usati per compensare le limitazioni funzionali, per facilitare la vita indipendente, per permettere alle persone anziane e/o con limitazioni di attività di sfruttare completamente le loro abilità. Alcune di queste tecnologie, anche se non progettate espressamente Inclusione nella Società dell‘Informazione 51 per persone con limitazioni di attività, possono essere integrate in modo tale da diventare assistive quando necessario. Figura 1. Approccio basato sulla tecnologia assistiva Il termine Tecnologie Assistive comprende ogni apparecchiatura capace di soddisfare la definizione precedente, come, ad esempio, le sedie a rotelle, le prostesi e i comunicatori. Il documento presente copre solo una parte dell‘intera AT, quella che è direttamente correlata con le tecnologie dell‘informazione e della comunicazione (ICT). Tradizionalmente i problemi di accessibilità sono stati risolti con adattamenti e l‘uso di Tecnologia Assistiva è stato l‘approccio tecnico per ottenere gli adattamenti. Attualmente vi è uno spostamento dell‘interesse verso approcci basati sulla Progettazione Universale. In letteratura, la locuzione Progettazione Universale è usata, creando talvolta confusione, per identificare il principio concettuale che tutti gli utenti devono essere considerati nella progettazione di nuovi prodotti e l‘insieme di approcci tecnici che possono generare prodotti progettati per tutti. Apparentemente, esiste anche una confusione fra i concetti di Accesso Universale, cioè un diritto di tutti i cittadini, e la Progettazione Universale, cioè uno degli approcci per garantirlo. Ciò che è considerato importante, particolarmente nel settore delle persone con limitazioni di attività, è di garantite alle persone un Accesso Universale (inclusione nella Società dell‘Informazione). Questo è giusto, ma il dichiarare che, perciò, 52 Pier Luigi Emiliani ogni mezzo di garantire accessibilità è Progettazione Universale è concettualmente ingannevole. La Progettazione Universale è solo un approccio ben definito verso l‘inclusione sociale, particolarmente promettente a causa degli sviluppi della Società dell‘Informazione, che, comunque, deve coesistere almeno nel corto medio periodo con la Tecnologia Assistiva per soddisfare le necessità di tutti i potenziali utenti dei sistemi, servizi ed applicazioni ICT. L‘Accesso Universale implica l‘accessibilità e l‘usabilità delle tecnologie dell‘informazione e della telecomunicazione da parte di tutti in qualsiasi luogo ed in qualsiasi momento, per la loro inclusione in qualunque ambiente di vita. Ha lo scopo di garantire a tutti un accesso equo e la partecipazione alle attività umane mediate da calcolatore esistenti ed emergenti, attraverso lo sviluppo di prodotti e servizi universalmente accessibili ed usabili e la disponibilità di convenienti funzionalità di supporto nell‘ambiente. Questi prodotti e servizi devono essere in grado di soddisfare le richieste di ogni utente in contesti d‘uso differenti, indipendentemente dalla sua posizione, sistema utilizzato, o ambiente applicativo. Quindi l‘approccio teso a garantire l‘uso di apparecchiature o servizi è generalizzato, nel senso di rendere utilizzabile ed utile l‘informazione come tale. Come sarà descritto nella sezione finale del capitolo, si suppone che i cittadini vivano in ambienti popolati di oggetti intelligenti, dove i compiti da compiere e i modi di compierli possono essere ridefiniti e coinvolgono una combinazione di attività di accesso all‘informazione, comunicazione interpersonale e controllo ambientale. É necessario offrire alle persone la possibilità di compierle facilmente e piacevolmente. Questa ultima osservazione è molto importante allo scopo di capire che l‘accessibilità non è sufficiente, ma deve essere introdotto il concetto di Accesso Universale come diritto alla fruizione dell‘informazione e della comunicazione, e che gli adattamenti non sono più un‘opzione reale per soddisfare le richieste d‘inclusione. La Progettazione Universale è stata introdotta nella strutturazione dell‘interazione fra essere umano e calcolatore principalmente per la necessità di servire una varietà di utenti. La linea di ragionamento è che poiché gli utenti sono differenti ed hanno richieste di accessibilità ed usabilità differenti, è necessario considerali tutti nelle Inclusione nella Società dell‘Informazione 53 procedure di progetto centrate sull‘utente. L‘ulteriore problema è che l‘ambiente emergente è molto complesso e la diversità deve essere considerata da diverse prospettive. Per la prima cosa l‘interazione non è più solo con calcolatori o terminali, ma con l‘ambiente e gli oggetti in esso contenuti. Perciò sarà necessario considerare una varietà di paradigmi d‘interazione, metafore, media e modalità. Inoltre, i cittadini-utenti non dovranno più confrontarsi con i compiti richiesti dall‘applicazione in uso, ma con gli scopi da raggiungere nella vita di ogni giorno, che saranno diversi nei diversi ambienti e per utenti differenti. In aggiunta, gli scopi da raggiungere possono essere complessi non solo per la prevista fusione di funzioni di accesso all‘informazione, comunicazione interpersonale e controllo ambientale, ma anche perché possono coinvolgere comunità d‘utenti. Infine lo stesso scopo può riproporsi in diversi contesti d‘uso. Questo dà un‘idea della complessità dei problemi coinvolti, la limitazione dei concetti classici di accessibilità, e la necessità di approcci innovativi. La nuova situazione ha anche un impatto sull‘approccio progettuale ai problemi di accessibilità. L‘Accesso Universale richiede uno sforzo continuo e cosciente all‘applicazione dei principi, metodologie e strumenti della Progettazione Universale, per sviluppare tecnologie e ambienti della Società dell‘Informazione, che siano disponibili per tutti i cittadini, includendo i molto giovani, gli anziani e persone con diverse limitazioni d‘attività, in modo da eliminare la necessità di adattamenti a posteriori o una progettazione specializzata. La richiesta di un Accesso Universale nasce dall‘impatto crescente della fusione delle tecnologie emergenti e dalle diverse dimensioni della diversità, intrinseche nella Società dell‘Informazione. Queste dimensioni diventano evidenti quando si considera la larga variabilità delle caratteristiche degli utenti, la natura in rapido cambiamento delle attività umane, la varietà dei contesti d‘uso, la disponibilità crescente e la diversificazione dell‘informazione e delle sorgenti di conoscenza, la proliferazione delle piattaforme tecnologiche. 54 Pier Luigi Emiliani Inclusione nella Società dell’Informazione In Europa l‘inclusione nella Società dell‘Informazione sta ricevendo una attenzione crescente a livello politico. I successivi piani d‘azione europei (2002 e 2005) hanno incluse misure specifiche collegate all‘inclusione nella Società dell‘Informazione. Nel piano e-Europe 2002, la linea di azione ―Partecipazione di tutti i cittadini nell‘economia della conoscenza‖ definiva obbiettivi indirizzati all‘area della Progettazione Universale e all‘accessibilità dei punti di accesso pubblico ad Internet. Nel piano e-Europe 2005, l‘inclusione nella Società dell‘Informazione è alla base delle priorità assegnate alla modernizzazione dei servizi pubblici (egovernment, e-health and e-learning). Infine, nel piano di azione i2010 l‘inclusione nella Società dell‘Informazione è una delle priorità politiche chiave in tutte le attività specifiche proposte, come lo sviluppo di linee guida sull‘accessibilità e la copertura a larga banda (2005), l‘adozione di un piano di azione su e-government (2006), il lancio di dimostratori per sperimentare soluzioni tecniche, legali e organizzative per portare in linea i servizi pubblici (2007) e la pianificazione di tre iniziative sulla qualità della vita nell‘ICT (2007), includendo anche una iniziativa sull‘inclusione nella Società dell‘Informazione (2008). Partendo dall‘inclusione nella Società dell‘Informazione (eInclusion), la sua definizione ufficiale, quale appare nella Dichiarazione Ministeriale di Riga nel 2006, è la seguente1: ―eInclusion indica sia una ICT inclusiva che l‘uso della ICT per raggiungere obbiettivi d‘inclusione più vasti. I suo fuoco è sulla partecipazione di tutti gli individui e comunità in ogni aspetto della Società dell‘Informazione: le politiche sulla eInclusion, perciò, hanno l‘obbiettivo di ridurre il divario nell‘uso della ICT e di promuovere l‘uso della ICT per superare l‘esclusione, di migliorare le prestazioni economiche, le opportunità di lavoro, la qualità della vita, la partecipazione e la coesione sociale. Da questa definizione risulta che l‘obbiettivo fondamentale dell‘inclusione nella Società dell‘Informazione è di garantire 1 Pt. 4 DICHIARAZIONE MINISTERIALE APPROVATA ALL‘UNANIMITA‘ l‘11 giugno 2006, Riga Inclusione nella Società dell‘Informazione 55 l‘Accesso Universale alla Società dell‘Informazione. Questo obbiettivo può essere ottenuto con approcci differenti. Questo capitolo si propone di analizzare in dettaglio uno dei possibili approcci, cioè la Progettazione Universale (DfA), e di mostrare le interconnessioni con l‘approccio classico basato sulla Tecnologia Assistiva (AT). Componenti della inclusione nella Società dell’Informazione (eInclusion) Come mostrato in Figura 2 l‘inclusione nella Società dell‘Informazione può essere ottenuta con il contributo di approcci differenti. Prima di tutto è possibile aumentare le abilità degli utenti, usando tecnologia di uso comune, per esempio gli occhiali nel caso di limitazioni della vista, o tecnologia speciale (AT), per esempio sistemi di ingrandimento per limitazioni visive gravi. Alternativamente, le persone possono essere supportate con apparecchiature speciali, basate, per esempio, sulla trasduzione di media per persone con limitazioni di tipo sensoriale. Un esempio tipico sono i lettori di schermo per i ciechi. Figura 2. Approcci all'inclusione Se si vuol favorire un approccio basato sull‘uso di tecnologia di tipo generale, può essere possibile ridefinire il modo di svolgere attività in diversi contesti d‘uso, in modo tale che possono essere utilizzate le abilità disponibili degli individui. Se questo non è sufficiente, si 56 Pier Luigi Emiliani possono integrare nell‘ambiente di vita funzionalità di supporto basate su tecnologia di uso generale. Questo capitolo è in particolare sull‘approccio basato sulla tecnologia di uso generale (Progettazione Universale). Comunque saranno discusse anche le connessioni con la Tecnologia Assistiva. Nell‘ambito dell‘uso di tecnologia di uso generale saranno considerati due approcci verso l‘inclusione nella Società dell‘Informazione: prevenzione dell‘esclusione, cioè della possibilità che persone o gruppi svantaggiati siano esclusi nello sviluppo della Società dell‘Informazione sfruttamento delle nuove opportunità per una migliore inclusione di persone o gruppi socialmente svantaggiati, o aree meno favorite. Tali opportunità si riferiscono alla circolazione di conoscenza, allo sfruttamento del potenziale dei nuovi servizi informativi e di comunicazione, alle nuove opportunità di lavoro e miglior accesso all‘impiego, e, in modo più tradizionale per quanto riguarda la ICT, al superamento di barriere dovute alla distanza e alle difficoltà di mobilità. 2. Accessibilità ai Calcolatori e Terminali – la Tecnologia Assistiva Quando è nato l‘interesse all‘uso della tecnologia informatica e delle telecomunicazioni da parte o a favore delle persone con limitazioni di attività, la situazione era relativamente semplice: il servizio fondamentale per la comunicazione interpersonale era il telefono e l‘informazione veniva distribuita per mezzo della radio e della televisione. I calcolatori erano principalmente unità non interconnesse ed erano disponibili in comunità chiuse e specializzate (scienza ed affari). Il telefono era un problema solo per persone con sordità profonda. Per tutti gli altri gruppi di persone con limitazioni di attività, la sua utilizzazione era ottenibile con adattamenti relativamente semplici. La stessa tecnologia di realizzazione dell‘apparecchio telefonico permetteva di catturare il segnale (induzione elettromagnetica) e di amplificarlo per persone con sordità non profonda. Persone i- Inclusione nella Società dell‘Informazione 57 povedenti potevano utilizzare apparecchi con tastiere ingrandite. Persone con disabilità cognitive potevano usare tastiere con la riproduzione delle foto delle persone da chiamare. Anche le persone con sordità profonda potevano comunicare, trasmettendo caratteri attraverso la linea telefonica con l‘uso di modems (telefoni per sordi). La radio era un mezzo importante per la diffusione dell‘informazione. In linea di principio, la radio è un problema per le persone sorde. Ma l‘amplificazione è una delle caratteristiche intrinseche del ricevitore e di nuovo l‘utilizzo del servizio era un problema importante solo per le persone con sordità profonda. La televisione è il primo esempio di servizio che usa la combinazione di due modalità di comunicazione, quella visiva e quella acustica, non in maniera ridondante ma per trasferire diversi tipi d‘informazione. Essendo più complesso, il servizio televisivo può creare problemi ad un maggior numero di utenti, in particolari a persone che hanno problemi di vista e di udito. D‘altro canto la televisione è un servizio a larga banda ed il fatto che informazioni addizionali possono essere trasmesse utilizzando completamente la banda disponibile, permette d‘integrare nel servizio elementi di supporto agli utenti. Quindi i programmi possono essere sottotitolati per persone sorde e le scene possono essere descritte a voce per persone cieche. Inoltre, possono essere realizzati servizi come il televideo ed il teletext, che permettono di risolvere alcuni problemi di trasferimento dell‘informazione alle persone con sordità profonda. La televisione è un semplice esempio di una situazione generale. Un aumento della complessità di un sistema o di un servizio può aumentare il numero e la portata dei problemi che questo può provocare alle persone con abilità ridotte in confronto alla maggioranza della popolazione. Nello steso tempo, la complessità tecnica spesso implica caratteristiche addizionali che permettono di recuperare questa situazione di svantaggio, offrendo la possibilità di utilizzare la stessa tecnologia in modo innovativo per affrontare problemi non considerati ancora risolvibili. La situazione ha cominciato a cambiare grazie allo sviluppo dei calcolatori e delle tecnologie in grado di aumentare la banda dei canali di comunicazione, che hanno contribuito alla creazione di un ambiente completamente nuovo per l‘accesso all‘informazione e la comunicazione interpersonale. Dalla prospettiva degli utenti 58 Pier Luigi Emiliani l‘innovazione più importante è stata l‘introduzione del calcolatore personale (Personal Computer). Tali calcolatori sono stati immediatamente percepiti come una possibilità nuova e molto importante per supportare persone con limitazioni di attività. Venivano infatti messe a disposizione nello stesso tempo: informazioni in forma codificata e quindi facilmente trasferibili in un formato alternativo (ad esempio il Braille), un‘intelligenza locale utilizzabile per le eventuali trasduzioni e un sistema ―paziente‖, cioè in grado di adattarsi alla velocità d‘interazione dei singoli utenti. Nello stesso tempo la ricerca sulle tecniche di elaborazione numerica dei segnali faceva intravedere la possibilità di nuove forme di presentazione ed interazione d‘indubbio interesse per alcuni gruppi di utenti (ad esempio la voce sintetica o il riconoscimento della voce). Sfortunatamente, però, i calcolatori personali non erano direttamente accessibili da parte di alcuni gruppi di utenti, quali i ciechi e le persone con problemi di mobilità degli arti superiori o di manipolazione. Sono stati quindi esplorati adattamenti delle interfacce e, attraverso l‘uso combinato di nuove tecnologie di trasduzione (principalmente la voce sintetica) e di software specializzato (lettori di schermo), capace di ―rubare‖ l‘informazione sullo schermo e di renderla disponibile alla periferica d‘interazione, l‘informazione codificata è stata resa disponibile alle persone cieche (Mynatt & Weber, 1994), offrendo loro la possibilità di leggere informazioni recuperate da banche dati, scrivere e comunicare attraverso la posta elettronica. Sono stati inoltre resi disponibili adattamenti per persone con problemi motori (tastiere speciali, emulatori di mouse) e per altri gruppi di persone con limitazioni di attività. Quindi, il calcolatore personale è stato reso utilizzabile usando l‘approccio rappresentato in Fig. 1 (Tecnologia Assistiva). Si può quindi concludere che quando si diffuse l‘interesse sull‘accessibilità delle persone con limitazioni d‘attività alle tecnologie informatiche e di telecomunicazione, la scena tecnologica mondiale era dominata da un insieme di sistemi e servizi largamente diffusi. La situazione richiedeva l‘adattamento dei sistemi esistenti, che lentamente e con grossi ritardi sono stati resi disponibili. Inclusione nella Società dell‘Informazione 59 Esempi di Tecnologia Assistiva Esistono vari modi di classificare le Tecnologie Assistive, in dipendenza del loro scopo. La classificazione più diffusa, la ISO 9999:2007 ―Prodotti assistivi per le persone con disabilità – Classificazione e terminologia (TC 173/SC2 - ISO 9999, 2007), è orientata al prodotto. Raggruppa i dispositivi in classi, identificate dal numero che precede la definizione corrispondente (ciascuna divisa in sottoclassi e queste a loro volta in divisioni) in base al loro obbiettivo principale (mobilità, governo della casa etc.). Le Classi ISO sono: 04 > ausili per terapia; 05 > ausili per l'addestramento di abilità; 06 > protesi e ortesi; 09 > ausili per la cura e la protezione personale; 12 > ausili per la mobilità personale; 15 > ausili per la cura della casa; 18 > mobilia e adattamenti per la casa o per altri edifici; 22 > ausili per comunicazione e informazione; 24 > ausili per maneggiare oggetti o dispositivi; 27 > adattamenti dell‘ambiente, utensili e macchine; 30 > ausili per le attività di tempo libero. Per gli scopi di questo documento, sono considerati solo i sistemi AT correlati direttamente con la ICT. Quindi sono considerate solo le classi 22 e 27. Principali prodotti di Tecnologia Assistiva collegati alla ICT I prodotti assistivi per la comunicazione e il recupero dell‘informazione sono utilizzati per aiutare le persone a ricevere, inviare e/o elaborare l‘informazione in forme differenti. Tali prodotti includono, per esempio, dispositivi per vedere, udire, leggere, scrivere, telefonare, fare segnalazioni di allarme. Prodotti assistivi per vedere: questo gruppo si rivolge alle necessità di persone che hanno difficoltà di vista, e comprende essenzialmente sistemi video come i dispositivi per presentare un‘immagine ingrandita di quanto catturato da una videocamera. 60 Pier Luigi Emiliani Prodotti assistivi per udire: sono inclusi dispositivi per amplificare e/o modulare i suoni per persone con menomazioni dell‘udito, ad esempio protesi uditive con mascheramento del tinnito e dispositivi ad induzione magnetica. Prodotti assistivi per disegnare e scrivere: questa sottoclasse comprende dispositivi che permettono ad una persona di trasferire informazione producendo figure, simboli o testo, in forma adatta da essere usata da chi ha difficoltà in questi compiti (esempi: agende elettroniche Braille, software di elaborazione). Prodotti assistivi per maneggiare informazione audio, visiva o video (esempi: dispositivi per la registrazione e riproduzione di suoni; decodificatori per il videotext e la televisione testuale – dispositivi per trasdurre il videotext in parlato artificiale e/o per decodificare uscite sonore per ottenere una sottotitolazione delle trasmissioni video; dispositivi ad induzione magnetica). Prodotti assistivi per comunicazione faccia a faccia. Prodotti assistivi per telefonare (e trasmettere messaggi) (esempi: dispositivi di comunicazione per persone sorde (TDD) - telefono per la trasmissione di testo). Prodotti assistivi per la comunicazione di segnali di allarme, di indicazione e di segnalazione. Prodotti assistivi per la lettura (per esempio libri parlanti). Dispositivi d‘ingresso per calcolatori (esempi: tastiere; simulatori di mouse; dispositivi d‘ingresso alternativi – sistemi di tracciamento dei movimenti dell‘occhio, sistemi per il riconoscimento della voce, schermi e tavolette tattili, guanti per l‘acquisizione dati; software d‘ingresso – software che modifica le caratteristiche della tastiera, tastiere virtuali sullo schermo con e senza predizione; riconoscimento dei testi; interfacce cervellocalcolatore). Dispositivi d‘uscita per i calcolatori (esempi: display Braille; stampanti/plotter Braille; dispositivi d‘uscita alternativi – sistemi di sostituzione tattile - visione, software per la sintesi della voce, lettori di schermo, ingranditori dello schermo). Inclusione nella Società dell‘Informazione 61 Prodotti assistivi per la manipolazione di oggetti e dispositivi (esempio: interruttori). Prodotti assistivi per il controllo a distanza. Altre tecnologie ed applicazioni assistive Le tecnologie dell‘informazione e della telecomunicazione sono usate anche in sistemi presenti in altre aree della classificazione ISO, ad esempio nei controlli delle carrozzine e negli oggetti di arredamento interconnessi che supportano la vita indipendente. Questa migrazione delle tecnologie ICT negli oggetti della vita quotidiana è in linea con gli scenari di sviluppo verso l‘intelligenza ambientale (AmI), nei quali si suppone che la tecnologia sparisca negli oggetti e nell‘ambiente circostante, permettendo a tutti di usufruire delle loro funzionalità. Esistono molte persone con menomazioni motorie severe che hanno la necessità di una varietà di dispositivi assistivi (ad esempio sedie a rotelle elettriche, dispositivi di controllo ambientale, ausili alla comunicazione e manipolatori robotici), per ottenere un livello minimo di indipendenza. La Tecnologia Assistiva ha reso disponibili tali dispositivi. Il problema principale è la loro varietà che rende difficile, lenta e costosa la loro integrazione, ad esempio, nella piattaforma tecnologica di base di una sedia a rotelle. La Tecnologia Assistiva per le difficoltà cognitive (ATC) è un altro gruppo di particolare interesse, a causa dell‘invecchiamento della popolazione. Esempi tipici sono le tecnologie di supporto alla memoria, le tecnologie di compensazione delle abilità di pianificazione e soluzione dei problemi, le tecnologie di compensazione per le elaborazioni sensoriali, le tecnologie di supporto per problematiche di tipo sociale e comportamentale, gli avatar e interfacce grafiche per malati di Alzheimer. Servizi e applicazioni di comunicazione Vengono infine elencati alcuni servizi basati sulla rete di comunicazione già disponibili: servizi di interconnessione (relay services): sono servizi con operatore, che permettono a persone sorde, sordastre, incapaci di parlare o sordo-cieche di comunicare con utenti di un telefo- 62 Pier Luigi Emiliani no standard utilizzando un telefono testo, un calcolatore o altri dispositivi di comunicazione su linea telefonica servizi di allarme servizi di controllo ambientale servizi di navigazione. Molti servizi ed applicazioni di comunicazione a larga banda sono attualmente in fase di sperimentazione. Limitazioni dell’approccio basato sulla Tecnologia Assistiva Quindi l‘approccio tradizionale utilizzato per rendere i sistemi, i servizi e le applicazioni accessibili a persone con limitazioni di attività è stato quello di adattare tali prodotti alle abilità e richieste dei diversi gruppi di utenti. Tipicamente, gli adattamenti coinvolgono la riconfigurazione dell‘interfaccia fisica e, talvolta, la trasduzione dell‘interfaccia, ad esempio quella visiva, in una rappresentazione alternativa (ad esempio uditiva o tattile). Anche se in alcuni casi questa può essere ancora la sola soluzione possibile, tale approccio reattivo per garantire l‘accessibilità (Vanderheiden, 1998) ha alcuni difetti fondamentali. Uno dei più importanti è che quando un problema di accesso è stato risolto, la tecnologia è avanzata in modo da provocare nuovamente lo stesso problema od uno simile. L‘esempio tipico è quello dell‘accesso delle persone cieche al calcolatore. Ogni generazione della tecnologia (ad esempio, il DOS, i sistemi basati sulle finestre, i sistemi multimediali) hanno causato nuovamente problemi alle persone cieche, affrontati con tecniche dedicate, come la trasduzione del testo in parlato nell‘ambiente DOS, integrata, nei sistemi basati su finestre, dalla generazione di modelli dello schermo ed il filtraggio dell‘informazione testuale per permetterne la trasduzione. In alcuni casi, inoltre, gli adattamenti possono non essere possibili senza perdite di funzionalità. Per esempio, nelle prime versioni dei sistemi basati sulle finestre era impossibile accedere ad alcune funzioni, quali la gestione delle finestre stesse (come lo spostamento sullo schermo ed il ridimensionamento). Solo in versioni successive, tali limitazioni sono state considerate dai produttori, permettendo alcuni Inclusione nella Società dell‘Informazione 63 adattamenti (ad esempio la scansione) di oggetti d‘interazioni presenti sullo schermo. Infine, gli adattamenti sono onerosi dal punto di vista della programmazione sia nella realizzazione che nella manutenzione. Anche piccole modifiche nella configurazione del prodotto o dell‘interfaccia utente possono richiedere l‘investimento di risorse considerevoli per ricostruire alcune funzionalità in modo da essere accessibili. Inoltre, tali soluzioni offrono spesso un accesso limitato e di bassa qualità. Questo è evidente nelle interazioni non visive, dove è stata identificata la necessità di fornire interfacce che vadano al di là di adattamenti automatici di dialoghi visivi. Tradizionalmente, sono stati seguiti due approcci tecnici principali per gli adattamenti: adattamenti a livello del prodotto e adattamenti a livello dell‘ambiente. Il primo comporta la considerazione separata di ogni prodotto e la realizzazione di tutti i passi necessari per ottenere una versione alternativa accessibile. In termini pratici, ciò implica spesso lo sviluppo di un nuovo prodotto. A causa dei suoi alti costi questa è considerata la strategia meno favorevole per fornire un accesso alternativo. Il secondo approccio richiede d‘intervenire al livello del particolare ambiente applicativo d‘interazione (ad esempio Microsoft WindowsTM o il sistema a finestre X), allo scopo di fornire opportune tecnologie hardware e software che trasformino l‘ambiente stesso in uno accessibile in modo alternativo. L‘adattamento dell‘ambiente estende l‘accessibilità a tutte le applicazioni che sono eseguite in esso, invece che a una singola applicazione, ed è quindi considerato una strategia superiore. Nel passato, la grande maggioranza degli approcci di adattamento a livello d‘ambiente sono stati focalizzati sull‘accesso delle persone incapaci di vedere agli ambienti d‘interazione grafica. Attraverso tali sforzi, è diventato chiaro che qualunque adattamento a livello d‘ambiente deve essere basato su infrastrutture software ben documentate e affidabili, che rendano possibile un‘estrazione efficiente ed efficace delle primitive di dialogo durante l‘interazione utentecalcolatore. Tali primitive estratte in modo dinamico devono essere riprodotte, in tempo reale, in forme di ingresso e uscita alternative, che supportano in modo diretto l‘accesso dell‘utente. Esempi di infrastrutture software che soddisfano tali richieste sono la tecnologia 64 Pier Luigi Emiliani Active AccessibilityTM di Microsoft Corporation2, e la tecnologia JavaTM Accessibility, di Sun Microsystems3. 3. Progettazione Universale (Design for All) Nel passato i problemi d‘inclusione nella Società dell‘Informazione delle persone con limitazioni di attività sono state principalmente modellati come problemi di accessibilità a servizi ed applicazioni basate su calcolatori e sono stati affrontati adattando i prodotti progettati per un ―utente medio‖ con prodotti di Tecnologia Assistiva. Con lo sviluppo della Società dell‘Informazione, questo approccio, ha mostrato, nel contesto di attività di ricerca in corso da più di dieci anni, molte limitazioni. Perciò, è necessario utilizzare approcci più generici e sistematici per le problematiche corrispondenti, che sono identificati con il nome Progettazione Universale (Design for All - DfA in Europa). Concettualmente, la Progettazione Universale è un corpo di conoscenze ben definito, che in architettura e nel disegno industriale ha prodotto risultati molto importanti. Nella Società dell‘Informazione, l‘adozione delle pratiche della Progettazione Universale, anche se auspicata da molti esperti nel settore, presenta ancora sfide significative, a causa sia della pratica consolidata dell‘industria ICT di progettare prodotti di massa per il cosiddetto utente ―tipico‖, che di effettive difficoltà tecnologiche. Partendo dalla considerazione generale che la Progettazione Universale comporta la considerazione delle necessità, richieste e preferenze di tutti i potenziali utenti di sistemi e servizi nella Società dell‘Informazione, esaminiamo quindi alcune sue caratteristiche discutendo dapprima le sue possibili definizioni e poi cosa è necessario per il suo uso, cioè una strategia generale ed un approccio tecnico alla realizzazione dei prodotti corrispondenti (Fig. 3). Definizione Al momento è in corso una discussione su cosa si deve comprendere sotto il nome: Progettazione Universale. Per alcuni esperti, la 2 Vedi http://msdn2.microsoft.com/en-us/library/ms697707.aspx 3 Vedi http://java.sun.com/javase/technologies/accessibility/index.jsp Inclusione nella Società dell‘Informazione 65 Progettazione Universale è solo un nuovo nome per riproporre la Tecnologia Assistiva in modo più attraente e politicamente corretto. Per altri, il fatto di sviluppare un prodotto considerando che anche solo un gruppo di persone con limitazioni di attività (normalmente persone non vedenti) devono poter aver accesso, qualifica il prodotto come progettato per tutti. Alcuni esperti affermano che la Progettazione Universale nella ICT sarebbe meravigliosa, ma è chiaramente impossibile dal punto di vista tecnico. Infine per altri esperti ciò che è veramente importante è che tutte le persone abbiano accesso ai sistemi e servizi ICT. Quindi allo scopo di servire tutti gli utenti, è conveniente chiamare Progettazione Universale qualunque contributo all‘Accesso Universale. Questo ultimo punto di vista, compatibile con la spinta politica verso la Progettazione Universale e con il compito di aiutare le persone nel contesto tecnologico corrente, è accettabile come approccio pragmatico per svolgere attività a breve termine, ma non nella prospettiva di pianificare uno sviluppo corretto della tecnologia. Figura 3. Progettazione Universale In realtà, sono disponibili definizioni ufficiali di Progettazione Universale sia a livello accademico che industriale. Due di queste sono riportate nel seguito: Progetto di prodotti o ambienti usabili da tutti gli utenti, fino al massimo limite possibile, senza la necessità di adattamenti o progettazioni speciali 66 Pier Luigi Emiliani Ron Mace (adottata dal by the Trace Center)4. Progetto di prodotti, servizi e ambienti tali che il maggior numero di persone possano utilizzarli indipendentemente dalla loro età e caratteristiche fisiche – ad esempio altezza, abilità visive e uditive, mobilità degli arti superiori. Fujitsu (2005)5. Figura 4. Strategie di realizzazione Progetto Universale - strategie di realizzazione L‘approccio basato sulla Progettazione Universale, confrontato con quello della Tecnologia Assistiva basato sull‘adattamento di sistemi e servizi prodotti per il mercato generale, è spesso criticato sulla base di vari argomenti. In particolare, esiste una linea di argomentazione che solleva la preoccupazione che ―molte idee che si suppone siano buone per tutti non sono buone per nessuno‖ (Lewis & Rie4 http://trace.wisc.edu/world/gen_ud.html. 5 http://www.fujitsu.com/downloads/MAG/vol41-1/paper01.pdf Inclusione nella Società dell‘Informazione 67 mann, 1993). In realtà, però, la Progettazione Universale nel contesto della Società dell‘Informazione non deve essere concepita come lo sforzo di proporre una singola soluzione per tutti, ma come un approccio basato sull‘utente per produrre prodotti che siano in grado di soddisfare automaticamente le differenti abilità, capacità, richieste e preferenze umane. Di conseguenza, non si prevede che il risultato del processo di progettazione sia un progetto singolo, ma uno spazio progettuale popolato di alternative appropriate (adattamento e personalizzazione intelligente) (Emiliani & Stephanidis, 2005), come mostrato in Fig. 4. Le diverse alternative devono essere in grado di manifestarsi automaticamente in funzione delle abilità dell‘utente, del modo di utilizzo e del contesto d‘uso. Figura 5. Approccio tecnico Progetto Universale - approccio tecnico Infine è necessario individuare un approccio tecnico, utilizzando il quale questa strategia di realizzazione possa diventare una realtà. Come dimostrato in alcuni progetti parzialmente finanziati dalla Commissione Europea, un possibile approccio tecnico è basato sui 68 Pier Luigi Emiliani concetti di adattabilità ed adattività (Stephanidis & Savidis, 2001). Questo approccio è basato sul rendere ogni sistema e servizio abbastanza intelligente da essere in grado di adattare le sue funzionalità e la sua interfaccia ad ogni singolo utente, in accordo delle sue caratteristiche conosciute o ad uno stereotipo (differenti livelli di privacy) quando inizia l‘interazione (adattabilità) e di modificarle in tempo reale (adattività) in funzione dell‘uso e del contesto (se gli è permesso di osservare il comportamento dell‘utente), come rappresentato in Fig.5. Complementarietà e convergenza fra DfA e AT Il cambio di paradigma dall‘uso di Tecnologia Assistiva alla Progettazione Universale è considerato da molte persone che lavorano nel settore non solo troppo ambizioso ma anche pericoloso, perché pensano che possa mettere in discussione, almeno nel breve termine, gli avanzamenti verso l‘inclusione ottenuti da gruppi di persone con limitazioni di attività. Un approccio più equilibrato considera invece i due approcci non in concorrenza ma complementari: essi devono convergere verso la creazione di una società sempre più accessibile attraverso la ridefinizione continua dei problemi connessi con la produzione di una tecnologia priva di barriere, come rappresentato in Fig. 6. La complementarietà e la convergenza devono essere intese a due livelli. Ad un livello specifico, le caratteristiche individuali degli utenti sono così variate che sarà molto difficile, se non impossibile, integrare tutte le richieste di tutti gli individui nelle specifiche di nuovi prodotti e servizi. Perciò la Tecnologia Assistiva rimane indispensabile in casi particolarmente ―difficili‖. Ad un livello più generale, le lezioni imparate nello sviluppo della Tecnologia Assistiva saranno fondamentali nel dare forma al nuovo ambiente di vita. La situazione emergente può quindi essere affrontata con un approccio evolutivo. Nel breve termine, lo sviluppo della Società dell‘Informazione può essere sostenuto da una tecnologia che migliora le possibilità offerte dalla Tecnologia Assistiva, fondendosi nel medio termine in sistemi e servizi accessibili e, nel lungo termine, in un ambiente intelligente, che ha la potenzialità di essere usabile dal maggior numero di utenti possibile se le loro necessità sono Inclusione nella Società dell‘Informazione 69 considerate nella fase di progetto. In questo senso, la Progettazione Universale emerge non come una metodologia astratta, ma come un approccio necessario ed efficiente per massimizzare i potenziali vantaggi dell‘introduzione delle nuove tecnologie e per minimizzare i rischi di aumentare l‘esclusione e la segregazione di gruppi specifici. Figura 6. Convergenza fra AT e DFA La procedura che integra la Progettazione Universale e la Tecnologia Assistiva nello sviluppo di funzionalità accessibili e utili negli ambienti emergenti è rappresentata in Fig.7. Funzionalità in principio disponibili per tutti (mainstream) sono progettate con il contributo di specifiche che considerano tutti i potenziali utenti, un approccio tecnico adatto e la tecnologia disponibile. Se risulta invece che queste non sono accessibili e utili per tutti, allora possono essere prese in considerazione soluzioni di tecnologia assistiva. Infine, se anche le soluzioni basate sulla Tecnologia 70 Pier Luigi Emiliani Assistiva non sono soddisfacenti, è probabilmente necessario riprogettare completamente la funzionalità. Figura 7. Integrazione fra AT e DFA Dalla Tecnologia Assistiva alla Progettazione Universale – Adattabilità e adattività Consideriamo ora un esempio di migrazione dalla Tecnologia Assistiva alla Progettazione Universale basato su progetti parzialmente finanziati da Programmi della Commissione Europea. Questi si sono sviluppati in un intervallo di tempo di circa 15 anni e hanno seguito un percorso evolutivo, adottando all‘inizio strategie reattive e sostenendo quindi la necessità di strategie proattive verso l‘accessibilità. Produzione e valutazione di specifiche In relazione a questi progetti è importante notare lo spostamento graduale verso soluzioni più generiche all‘accessibilità. Infatti, con la sola eccezione delle prime attività esplorative (per esempio IPSNI), che non avevano una dimensione di ricerca e sviluppo, tutti gli altri progetti contenevano sia una componente di ricerca e sviluppo reattiva che un interesse a strategie e metodi proattivi. Questi Inclusione nella Società dell‘Informazione 71 erano inizialmente orientati alla formulazione di principi, mentre più tardi l‘enfasi è stata posta sulla dimostrazione della fattibilità tecnica. Come attività esplorativa, il progetto IPSNI (Integration of People with Special Needs in the Broadband Communication Network) ha investigato le possibilità offerte dalla rete di comunicazione a larga banda B-ISDN (Broadband Integrated Services Digital Network), a beneficio delle persone con limitazioni di attività. Allo scopo di rendere possibile il loro accesso alla tecnologia di comunicazione emergente, il progetto IPSNI ha considerato essenziale che i progettisti e/o i fornitori di servizi e di terminali considerassero esplicitamente, all‘inizio del progetto, le loro richieste, identificando molte barriere che impediscono alle persone con limitazioni di attività di avere accesso alle informazioni disponibili attraverso la rete. Le barriere identificate sono collegate all‘accessibilità del terminale e dei servizi previsti e alla percettibilità dell‘informazione. Allo scopo di superare queste difficoltà, sono state proposte soluzioni a tre livelli: adattamenti delle interfacce utente terminale e utente servizio, attraverso l‘integrazione di dispositivi di ingresso/uscita e di appropriate tecniche d‘interazione, che tengono conto delle abilità e richieste dei diversi gruppi di utenti adattamenti di servizi con componenti addizionali in grado di fornire informazione ridondante o trasdotta Introduzione di servizi speciali, solo in quei casi in cui l‘applicazione dei due tipi di adattamento menzionati precedentemente non sono possibili o effettive. Gli sforzi di sviluppo seguiti a questa fase esplorativa hanno mirato a fornire strumenti per un facile adattamento gerarchico delle interfacce all‘uso di modalità alternative. Lo strumento INTERACT per il progetto e la realizzazione d‘interfacce utente, sviluppato nel progetto IPSNI-II (Access to B-ISDN Services and Application by People with Special Needs), è rappresentativo di questo approccio. Uno dei suoi difetti era il suo fuoco sulla traduzione di un‘interfaccia grafica in una manifestazione alternativa non grafica. 72 Pier Luigi Emiliani In realtà, per utenti non vedenti non abituati all‘ambiente grafico è difficile comprendere concetti inerentemente grafici (ad esempio i menu ―pop-up‖). Tale osservazione, che era supportata da sviluppi contemporanei nel progetto GUIB (Textual and Graphical User Interfaces for Blind People), fecero capire che gli adattamenti non possono fornire un approccio completamente soddisfacente per una soluzione generale dei problemi di accessibilità delle persone non vedenti. Il progetto IPSNI-II, partendo dai risultati del progetto IPSNI, ha comunque dimostrato la fattibilità tecnica degli interventi di adattamento tesi a garantire l‘accesso di persone con limitazioni di attività a servizi multimediali sulla rete a larga banda. Furono realizzati e valutati adattamenti di terminali e servizi. In particolare furono adattati due terminali (uno basato su UNIX/X-Windows e l‘altro su PC/MS-Windows) in funzione delle necessità dei gruppi di utenti considerati, con particolare enfasi sull‘adattamento dell‘interfaccia utente. A questo scopo fu sviluppato lo strumento per il progetto e la realizzazione d‘interfacce, chiamato INTERACT (Stephanidis & Mitsopoulos, 1995), che tiene conto delle richieste d‘interazione di persone con limitazioni d‘attività. INTERACT è basato sul concetto di separare un sistema interattivo in due componenti funzionali, il nucleo funzionale dell‘applicazione e l‘interfaccia utente, rendendo così possibile fornire interfacce multiple per la stessa funzionalità di un‘applicazione. Il progetto IPSNI-II ha permesso un‘analisi approfondita dei servizi ed applicazioni per la rete di telecomunicazione a larga banda dal punto vista dell‘usabilità da parte di persone con limitazioni di attività, portando all‘identificazione e la sperimentazione degli adattamenti necessari e/o di soluzioni speciali. Questa attività ha portato alla conclusione che se i servizi, applicazioni e terminali sono progettati considerando le richieste di usabilità di utenti con limitazioni di attività, molti dei loro problemi di accesso possono essere ridotti ad un costo trascurabile. Una delle conclusioni è stata che, al minimo, una sufficiente modularità e flessibilità dovrebbe essere la base nella realizzazione dei prodotti, allo scopo di permettere almeno una facile adattabilità alle necessità, capacità e richieste di un numero crescente di utenti. Inclusione nella Società dell‘Informazione 73 I progetti TIDE-GUIB e TIDE-GUIB-II avevano lo scopo di identificare e fornire i mezzi tecnologici per assicurare l‘accesso di persone non vedenti alle stesse applicazioni interattive, basate su calcolatore, utilizzate da utenti vedenti. L‘obbiettivo a breve termine di GUIB era di migliorare le metodologie di adattamento delle interfacce grafiche (GUIs). Furono quindi effettuati sviluppi specifici attraverso la realizzazione di dimostratori appropriati che permettevano l‘accesso ad applicazioni interattive sotto MSWINDOWSTM (PCs) e X WINDOW (Workstations basate su UNIXTM). L‘approccio di GUIB all‘adattamento delle interfacce era basato sulla trasformazione della metafora del piano della scrivania in una versione non visiva combinando Braille, voce e audio. L‘accesso agli oggetti d‘interazione grafici (per esempio, finestre, menu, tasti), l‘utilizzazione dei metodi d‘interazione più importanti e le possibilità d‘estrazione dell‘informazione interna all‘ambiente grafico furono investigati in modo esaustivo. Le operazioni d‘ingresso (per esempio esplorazione/selezione delle opzioni dei menu, etc.) possono essere compiute o per mezzo di un dispositivo standard (tastiera o mouse) o attraverso un dispositivo speciale (cioè un sostituto del mouse, una tavoletta tattile o i tasti di display Braille). Una caratteristica importante del metodo è che l‘intero schermo grafico è riprodotto in forma testuale ed è presentato su uno schermo monocromatico che può essere esplorato dalla persona cieca per mezzo di un‘uscita Braille o vocale. Inoltre, i suoni aiutano nella navigazione e forniscono le relazioni spaziali fra gli oggetti grafici. È importante notare che la riproduzione testuale facilita la cooperazione con i colleghi vedenti. Il progetto GUIB ha anche investigato una varietà di problematiche collegata all‘interazione in un ambiente grafico, specialmente per persone che non sono in grado di vedere. Per esempio, il progetto ha esaminato differenti metodi d‘ingresso che possono essere usati al posto del mouse. Ha anche studiato il problema della localizzazione efficiente del cursore sullo schermo ed esaminato le problematiche relative alla combinazione di suoni localizzati spazialmente (sia vocali che non vocali) e d‘informazione tattile per presentare l‘informazione disponibile. Infine, ha considerato il progetto e la realizzazione di metafore del mondo reale in una forma non visiva. 74 Pier Luigi Emiliani Approcci proattivi preliminari Un primo passo verso lo sviluppo di strumenti per la realizzazione di interfacce per tutti (Progettazione Universale) è stato compiuto nei progetti GUIB e GUIB-II già menzionati. L‘obbiettivo di queste attività era lo sviluppo di tecnologie software innovative per la realizzazione d‘interfacce capaci di garantire l‘accesso alle applicazioni interattive su calcolatore da parte delle persone non vedenti. In particolare, in questi progetti è stato concepito, progettato e realizzato un sistema di amministrazione di interfacce utente (UIMS User Interface Management System) come strumento per lo sviluppo efficiente e modulare di interfacce concorrentemente accessibili da persone non vedenti e vedenti. Il concetto di Interfacce Utenti Duali (Savidis & Stephanidis, 1995a) è stato proposto come una base appropriata per ―integrare‖ utenti capaci o non capaci di vedere nello stesso ambiente di lavoro. Un‘Interfaccia Utente Duale è caratterizzata dalle seguenti proprietà: è accessibile concorrentemente da persone non vedenti e vedenti le metafore d‘interazione visiva e non visiva soddisfano le necessità specifiche delle persone vedenti e non vedenti (possono essere differenti, se necessario) le strutture sintattiche e lessicali visiva e non visiva soddisfano le necessità specifiche degli utenti vedenti e non vedenti (possono essere differenti, se necessario) in ogni istante, la stessa funzionalità (semantica) interna è resa accessibile ad entrambi i gruppi di utenti attraverso le corrispondenti ―facce‖ visiva e non visiva dell‘interfaccia in ogni istante, la stessa informazione semantica è resa accessibile attraverso le corrispondenti ―facce‖ visiva e non visiva dell‘interfaccia. Per facilitare il progetto e la realizzazione di interface duali è stata realizzata la UIMS HOMER (Savidis & Stephanidis, 1995a; Savidis & Stephanidis, 1998a) . HOMER è basata su un linguaggio di spe- Inclusione nella Società dell‘Informazione 75 cificazione delle interfacce di quarta generazione, che rende possibile: l‘astrazione degli oggetti d‘interazione, cioè la rappresentazione degli oggetti in base ai loro ruoli d‘interazione astratti e le loro caratteristiche sintattiche/costruttive, disaccoppiate dal loro aspetto fisico di presentazione la gestione concorrente di almeno due gruppi di oggetti, in modo tale che ogni modifica effettuata dall‘utente sull‘interfaccia mediante gli oggetti di un gruppo sia concorrentemente realizzata con un corrispondente oggetto del secondo gruppo capacità meta-poliformi per gli oggetti astratti, cioè gli oggetti astratti possono essere realizzati con più di un gruppo di oggetti fisici, o con più di una classe di oggetti all‘interno di uno specifico gruppo gerarchie di oggetti unificate che supportano differenti gerarchie fisiche, in modo tale che sia possibile la realizzazione alternativa di (porzioni) della gerarchia unificata con (porzioni del) le gerarchie fisiche l‘integrazione di differenti gruppi di oggetti il supporto di modelli basati sugli oggetti o basati sugli eventi per la realizzazione del dialogo, cioè il modello del dialogo può essere definito sia sulla base degli oggetti individuali che ne fanno parte, sia sulla base di eventi d‘interazione che hanno origine da questi oggetti l‘utilizzazione di diversi modelli di controllo (ad esempio asincroni). In questo ambito è stato sviluppato un gruppo di oggetti non visivi, chiamato COMONKIT (Savidis & Stephanidis, 1995b; Savidis & Stephanidis, 1998b) ed integrato nella HOMER UIMS. La libreria COMONKIT è stata sviluppata sulla base di a una versione della metafora ―stanza‖, una metafora d‘interazione basata sull‘ambiente fisico di una stanza e i cui oggetti d‘interazione sono il pavimento, il soffitto, la parete di fronte, la parete posteriore e così via. La libreria COMMONKIT fornisce facilità di navigazione efficiente con 76 Pier Luigi Emiliani un‘uscita in Braille o voce ed un ingresso attraverso la tastiera. Sono state realizzate due versioni differenti della metafora stanza: una versione non spaziale, che supporta il Braille, la voce e i suoni come uscite e la tastiera come ingresso una versione basata sulla manipolazione spaziale, che combina l‘audio 3D (vocale e non vocale), il puntamento 3D attraverso un guanto, il movimento della mano, il riconoscimento di parole chiave (Savidis et al., 1996). In entrambe le realizzazioni, effetti sonori speciali accompagnano le azioni dell‘utente quali la selezione di una porta (ad esempio il suono di una porta che si apre), la selezione dell‘ascensore (ad esempio il suono dell‘ascensore), la pressione di un tasto o di un interruttore etc. L‘insieme di oggetti Athena (per interazioni visive basate su finestre) e l‘insieme di oggetti COMONKIT (per dialoghi non visivi basati sulla metafora della stanza) sono stati importati nella UIMS HOMER, mantenendo l‘aspetto originale (cioè nativo) dei rispettivi gruppi di oggetti, dimostrando le funzionalità del meccanismo d‘integrazione dei gruppi di oggetti del linguaggio HOMER. Un approccio completo allo sviluppo d’interfacce per tutti Il concetto di Interfacce Utente per Tutti (Stephanidis, 1995a) è stato proposto sulla base del concetto di Progettazione Universale, come il mezzo per affrontare in modo efficiente ed efficace le numerose e differenziate problematiche relative all‘accessibilità. Il principio sottostante è quello di assicurare l‘accessibilità al momento del progetto, in modo soddisfacente per le necessità, abilità e preferenze individuali di tutta la popolazione, includendo anche le persone con limitazioni di attività ed anziane. Il progetto ACCESS (Development Platform for Unified ACCESS to Enabling Platforms) si proponeva di sviluppare nuove soluzioni tecnologiche per supportare il concetto di Interface Utente per Tutti, cioè l‘Accessibilità Universale di applicazioni basate su calcolatore, facilitando lo sviluppo di interfacce utente adattabili automaticamente alle abilità, richieste e preferenze individuali. Il progetto ha affrontato il problema a due livelli: Inclusione nella Società dell‘Informazione 77 lo sviluppo di metodologie e strumenti appropriati per il progetto e la realizzazione d‘interfacce utente accessibili ed usabili La validazione dell‘approccio attraverso il progetto e la realizzazione di dimostratori di applicazioni in due domini, quello degli ausili per la comunicazione interpersonale di persone con riduzioni di abilità motorie, della voce, del linguaggio e cognitive e quello dei sistemi ipermediali per persone non vedenti. Il progetto ACCESS ha proposto il concetto dello sviluppo unificato d‘interfacce (Unified User Interface Development - U2ID), con l‘obbiettivo di garantire l‘indipendenza dalla piattaforma di supporto e dal profilo dell‘utente (Stephanidis, et al., 1997; Savidis, et al., 1997; Akoumianakis, et al., 1999). Con l‘obbiettivo di soddisfare potenzialmente tutti gruppi di utenti, un‘interfaccia utente unificata è basata su una specifica unica. In pratica, un‘interfaccia unificata è definita come una costruzione gerarchica nella quale i nodi intermedi rappresentano configurazioni astratte disaccoppiate dalle caratteristiche specifiche del gruppo di utenti indirizzato e il sottostante gruppo di oggetti disponibile per la realizzazione, mentre le foglie rappresentano le realizzazioni fisiche degli schemi di progetto astratti. Il metodo include tecniche orientate alla progettazione e alla realizzazione di obbiettivi specifici. Per realizzare le specifiche precedenti, il progetto d‘interfacce utente unificate tende a: identificare inizialmente ed elencare possibili alternative di progetto, adatte per i diversi utenti e i contesti d‘uso, usando tecniche per il progetto analitico (come gli scenari di progetto ed i metodi etnografici) identificare le astrazioni e fondere le alternative in configurazioni di progetto astratte (cioè componenti astratte dell‘interfaccia disaccoppiate dagli attributi specifici della piattaforma, modalità o metafora) razionalizzare lo spazio di progetto assegnando criteri per le possibili alternative e sviluppando le giustificazioni corrispondenti, in modo da consentire la corrispondenza sensibile al contesto di una configurazione di progetto astratta con una specifica realizzazione concreta. 78 Pier Luigi Emiliani Il risultato del progetto è una specifica unificata dell‘interfaccia. Questa specifica può essere descritta usando un linguaggio ad alto livello dedicato e ha come risultato un singolo prodotto che può giustificazioni in diverse configurazioni di comportamento, a un livello d‘interazione fisico, sintattico o anche semantico. Il sistema di realizzazione unificata, ottenuto elaborando la specifica dell‘interfaccia, effettua la trasposizione della configurazione e degli elementi dell‘interazione nei loro equivalenti concreti/fisici. Il processo di realizzazione dell‘interfaccia utente unificata implica due passi distinti, l‘integrazione della piattaforma e la specifica dell‘interfaccia (Akoumianakis, et al., 1999). L‘integrazione della piattaforma si riferisce alla costruzione di un livello di programmazione unificante al di sopra del gruppo di oggetti dell‘interfaccia che comprende le risorse per l‘interazione fisica (cioè mette a disposizione i mezzi concreti – nella forma di pulsanti, menu etc. attraverso i quali si realizza realmente l‘interazione fisica). Questo livello unificante è necessario per trasformare l‘interfaccia unificata in una reale interfaccia fisica, una volta dato l‘utente da servire, la piattaforma ed il contesto d‘uso. La specifica dell‘interfaccia, a sua volta, richiede l‘uso di strumenti appropriati per: la costruzione di un‘interfaccia unificata come composizione di astrazioni ai differenti livelli d‘interazione la manipolazione e controllo delle risorse fisiche la costituzione delle relazioni fra le astrazioni coinvolte e le risorse fisiche disponibili (Savidis, et al., 1997). Le astrazioni architetturali dettagliate per un ambiente di supporto che realizza questi passi è stato descritto in (Stephanidis, et al., 1997; Akoumianakis, et al., 1999). Allo scopo di supportare in modo efficiente la realizzazione delle interfacce unificate è stato costruito un ambiente di sviluppo, che include un linguaggio ad alto livello per la specifica d‘interfacce, chiamato G-DISPEC (Savidis & Stephanidis, 1997), e uno strumento chiamato IGET (Savidis & Stephanidis, 1997b; Stephanidis, et al., 1997) che genera direttamente la realizzazione dalle specifiche ad alto livello. Il linguaggio G-DISPEC e lo strumento I-GET costituiscono un nuovo UIMS per lo sviluppo d‘interfacce unificate. I- Inclusione nella Società dell‘Informazione 79 noltre è stato realizzato un altro strumento, chiamato PIM (Savidis, et al., 1997), che permette la generazione di collezioni di oggetti indipendenti dalla piattaforma (cioè librerie di programmazione) per la realizzazione di interfacce unificate. Sono state anche generate due collezioni di oggetti come esempio delle possibilità di utilizzo dell‘approccio: una versione aumentata della libreria di oggetti d‘interazione di Windows, che includono la scansione automatica (Savidis, et al., 1997b); ed una collezioni di oggetti per le interazioni non visive (Savidis, et al, 1997a). L‘adattabilità dell‘interfaccia utente alle necessità, abilità e preferenze specifiche del gruppo di utenti di riferimento è ottenuta per mezzo di uno strumento di modellamento dell‘utente chiamato USE-IT (Akoumianakis & Stephanidis, 1997a; Akoumianakis & Stephanidis, 1997b). Questo strumento prende le decisioni appropriate con riferimento alle caratteristiche lessicali del dialogo, basandosi su: (a) la conoscenza delle caratteristiche, abilità e preferenze dell‘utente e (b) la conoscenza della struttura delle caratteristiche del livello lessicale d‘interazione con riferimento ai diversi gruppi di utenti (cioè gli oggetti d‘interazione, le tecniche d‘interazione, i dispositivi etc.). Le interfacce unificate, che sono realizzate utilizzando gli strumenti dello schema U2ID, richiedono automaticamente le decisioni di adattività generate da USE-IT e le applicano durante l‘interazione. Esempi di sistemi adattabili ed adattivi Il metodo di sviluppo delle interfacce unificate è stato verificato nell‘ambito del progetto ACCESS in due domini applicativi, precisamente nello sviluppo di applicazioni ipermediali accessibili a persone non vedenti (Petrie, et al., 1997) e nella realizzazione di due ausili di comunicazione per persone con problemi di emissione della voce e di linguaggio dovute a problemi cognitivi (Kouroupetroglou, et al., 1996). Uno dei concetti principali che nascono dalle investigazioni compiute è che la nuova tecnologia deve contenere abbastanza intelligenza da adattarsi automaticamente alle necessità dei differenti utenti e dei diversi contesti d‘uso. Questa è la ragione per cui è stato detto precedentemente che i problemi della Progettazione Universale nella Società dell‘Informazione sono anche di natura tecnologica. 80 Pier Luigi Emiliani La domanda fondamentale è se lo studio di soluzioni dei problemi tecnici della Progettazione Universale nella Società dell‘Informazione può davvero portare a approcci e soluzioni realmente funzionanti. La fattibilità tecnica della‘approccio di Progettazione Universale è stata dimostrata nell‘ambito di due progetti parzialmente finanziati dalla Commissione Europea. In questi progetti l‘inclusione di tutti gli utenti è stata ottenuta realizzando sistemi e servizi adattabili (cioè automaticamente riconfigurabili all‘inizio dell‘interazione, in base alle conoscenze disponibili sull‘utente o il gruppo di utenti) e adattive (cioè in grado di cambiare il comportamento in tempo reale in base all‘uso effettivo). Il sistema AVANTI Il progetto AVANTI (Adaptive and Adaptable Interactions for Multimedia Telecommunications Applications) ha sviluppato un nuovo approccio alla realizzazione di sistemi informativi basati sul Web, producendo uno schema concettuale per la costruzione di sistemi che supportano l‘adattabilità e l‘adattività sia a livello di contenuti che d‘interfaccia utente (Emiliani, 2001). Lo schema AVANTI comprende cinque componenti fondamentali (Fig. 8): una collezione di banche dati multimediali, che contengono l‘informazione e cui si accede attraverso una interfaccia di comunicazione comune (Multimedia Database Interface - MDI) un server di modellazione dell‘utente (UMS) (Kobsa & Pohl, 1995), che contiene ed aggiorna i profili d‘utente, insieme agli stereotipi degli utenti il modello di contenuto (CM), che contiene una metadescrizione dell‘informazione disponibile nel sistema l‘adattatore di iperstrutture (HSA) (Fink, et al., 1997), che adatta il contenuto informativo delle pagine Web, in funzione della caratteristiche, preferenze ed interessi dell‘utente l‘interfaccia utente (Stephanidis, et al., 1998; Stephanidis, et al., 2001), che è capace di adattarsi sia alle abilità e preferenze dell‘utente che al contesto d‘uso corrente. Inclusione nella Società dell‘Informazione 81 Figura 8. Il sistema AVANTI Nell‘ambito del progetto AVANTI lo schema concettuale precedente è stato applicato allo sviluppo di tre sistemi informativi: un sistema che offriva informazioni turistiche e sulla mobilità a residenti e visitatori della città di Siena (Italia), un sistema che forniva informazione sul viaggio e le possibilità alberghiere in Kuusamo e i suoi dintorni (Finlandia), un sistema per la fornitura d‘informazioni culturali ed amministrative nella città di Roma durante il Giubileo. Nel sistema AVANTI l‘adattamento del contenuto informativo delle pagine Web è ottenuto attraverso l‘adattatore di iperstrutture (HSA), che costruisce dinamicamente documenti ipermediali personalizzati per ciascun utente, basati sulle caratteristiche dell‘utente e le situazioni d‘interazione rese disponibili dal sistema di modellamento dell‘utente. Le caratteristiche dell‘utente che provocano la scelta di adattamenti appropriati sono collegate principalmente alle limitazioni di attività eventuali, all‘esperienza e agli interessi. Gli adattamenti risultanti riguardano principalmente (Stephanidis, et al., 2001): 82 Pier Luigi Emiliani presentazioni alternative che usano media differenti (ad esempio testo invece di grafica, schemi di colore alternativi) funzionalità aggiuntive (ad esempio scorciatoie adattive a porzioni del sistema visitate frequentemente e presentazioni condizionali di dettagli tecnici) differenti strutture e livelli nell‘informazione fornita. di dettaglio differente La conoscenza dell‘utente e del suo modo d‘interagire sono basate sull‘informazione acquisita dinamicamente durante l‘uso (per esempio il monitoraggio della navigazione, delle selezioni dell‘utente, delle richieste esplicite dell‘utente), ad eccezione del profilo iniziale dell‘utente, che è costruito attraverso l‘uso di un corto questionario all‘inizio dell‘interazione o ricuperato da una carta intelligente quando disponibile. Il progetto e la realizzazione del browser AVANTI (che agisce come interfaccia al sistema informativo) sono state effettuate con la metodologia (U2ID) (Savidis, et al., 2001), descritta precedentemente. L‘interfaccia unificata risultante è un singolo prodotto nel quale sono utilizzate le tecniche di adattabilità ed adattività allo scopo di soddisfare le richieste di tre gruppi di utenti: utenti senza limitazioni di attività, persone non in grado di vedere e persone con problemi di mobilità e manipolazione. Gli adattamenti dell‘interfaccia utente sono ottenuti attraverso la cooperazione dell‘interfaccia e del sistema di modellazione dell‘utente. Le categorie di adattamenti dell‘interfaccia supportate dall‘interfaccia AVANTI includono (Stephanidis, et al., 2001b): il supporto di modalità d‘ingresso/uscita differenti l‘adattamento automatico della presentazione degli elementi d‘interazione l‘assistenza adattiva basata sul compito da svolgere un supporto limitato alla prevenzione degli errori un supporto limitato agli adattamenti della metafora. d‘interazione di dispositivi Inclusione nella Società dell‘Informazione 83 Caratteristiche aggiuntive incluse nel browser AVANTI, allo scopo di soddisfare le richieste dei gruppi di utenti considerati, includono il supporto adattivo di metafore d‘interazione multiple (ad esempio la metafora del piano della scrivania e quella del chiosco) e funzionalità di navigazione estese per diversi contesti d‘uso del sistema. Il sistema PALIO Il progetto PALIO (Personalised Access to Local Information and Services for Tourists), parzialmente finanziato dal Programma IST della Commissione Europea, aveva come obbiettivo fondamentale la creazione di un sistema aperto per l‘accesso e il ricupero d‘informazione senza vincoli o limitazioni, imposte, ad esempio, dalle caratteristiche personali, dal luogo, dal tempo, dalla tecnologia di accesso. Perciò il sistema prodotto è modulare e capace di interoperare con sistemi informativi esistenti. Un ruolo importante è giocato dai sistemi e servizi di comunicazione mobili, perché questi permettono l‘accesso da un luogo qualunque e in qualsiasi momento, integrati in modo trasparente con sistemi e servizi su rete fissa. Il sistema PALIO permette l‘adattamento sia del contenuto informativo che del modo in cui è presentato all‘utente, in funzione delle sue caratteristiche (ad esempio abilità, necessità, richieste, interessi); il luogo in cui si trova (con l‘uso di modalità e granularità differenti del contenuto informativo); il contesto d‘uso; lo stato corrente dell‘interazione (e la storia precedente) e, infine, la tecnologia utilizzata (cioè la tecnologia di comunicazione, le caratteristiche del terminale, i periferici speciali). Gli elementi principali di PALIO elementi sono i seguenti (Fig. 9): una piattaforma di comunicazione che include tutte le interfacce di rete, per la interoperabilità di reti fisse o mobili il centro AVC, composto delle componenti principali di adattamento, un centro di controllo dei servizi e gli strati di comunicazione da e verso i terminali e i servizi informativi centri informativi distribuiti sul territorio, che forniscono un insieme di servizi informativi primari. 84 Pier Luigi Emiliani Figura 9. Il sistema PALIO Il centro AVC è l‘unità architetturale che si prende cura della diversità degli utenti e realizza i meccanismi per l‘Accesso Universale. È percepito dagli utenti come un sistema che raggruppa tutti i servizi informativi disponibili nella città. Serve come un punto di facilitazione virtuale dal quale si può avere accesso a diversi tipi d‘informazione e servizi. La sua consapevolezza del contesto e della localizzazione dell‘utente insieme alle sue capacità di adattamento permettono all‘utente di sperimentare la loro interazione con i servizi come un dialogo contestualizzato: cioè il sistema conosce sempre dove l‘utente si trova e può inferire correttamente cosa gli è vicino, senza che questi debba fornire esplicitamente tale informazione. Il World Wide Web Il World Wide Web è un sistema di documenti, accessibili attraverso Internet, che contengono testo, immagini, video e altri materiali multimediali che sono connessi attraverso iper-collegamenti (hyperlinks). Inclusione nella Società dell‘Informazione 85 L‘accessibilità ai siti Web è stata affrontata tradizionalmente con l‘uso di linee guida o leggi nazionali che costituiscono un modo di realizzazione del concetto di Progettazione Universale, in quanto forniscono all‘utente un insieme di suggerimenti per produrre pagine Web accessibili ed usabili da tutti i potenziali utenti. Una delle organizzazioni più conosciute coinvolte nella produzione di linee guida per l‘accessibilità ai siti Web è la ―Web Accessibility Initiative‖ (WAI), parte del Consorzio ―World Wide Web‖ (W3C). WAI ha pubblicato nel 1999 le linee guida WCAG 1.0 (Web Content Accessibility Guidelines) 6,che spiegano come rendere accessibile il Web a persone con limitazioni d‘attività. Tali linee guida sono in corso di sostituzione con una versione aggiornata che tiene conto dei cambiamenti dal 1999, le linee guida WCAG 2.07, che sono quasi complete, ma, al tempo della scrittura di questo documento, non sono ancora state ancora pubblicate ufficialmente. Le linee guida WAI sono alla base di molte leggi nazionali per garantire l‘accesso al Web. Caratteristiche fondamentali delle WCAG 2.0 Le linee guida WCAG 2.0 sono raggruppate in quattro principi di accessibilità. Questi stabiliscono che il contenuto del Web dovrebbe essere percepibile, operabile, comprensibile e robusto. Linee guida 1 – Percepibile 1.1 Fornisci alternative testuali di qualunque contenuto non testuale in modo tale che possa essere trasdotto in altre forme di cui le persone possano aver bisogno, come stampe ingrandite, Braille, voce, simboli o un linguaggio più semplice. 1.2 Fornisci alternative sincronizzate per media basati sulla sincronizzazione temporale. 1.3 Crea contenuti che possano essere presentati in modi diversi (per esempio con un‘organizzazione spaziale più semplice) senza perdere informazione e struttura. 1.4 Rendi semplice per l‘utente la visione o l‘ascolto del contenuto separando l‘informazione dallo sfondo. 6 http://www.w3.org/TR/WAI-WEBCONTENT/ 7 http://www.w3.org/TR/WCAG20/ 86 Pier Luigi Emiliani Linee guida 2 – Operabile 2.1 Rendi disponibili tutte le funzionalità con l‘uso della tastiera. 2.2 Lascia all‘utente il tempo necessario per leggere ed usare il contenuto delle pagine. 2.3 Non produrre il contenuto in modo che si sappia possa provocare attacchi (ad esempio epilettici). 2.4 Fornisci modi per aiutare gli utenti a navigare, trovare i contenuti e individuare dove sono. Linee guida 3 – Comprensibile 3.1 Produci contenuti testuali leggibili e comprensibili. 3.2 Fai in modo che le pagine appaiano e operino in modo prevedibile. 3.3 Aiuta gli utenti ad evitare e correggere gli errori. Linee guida 4 – Robusto 4.1 Massimizza la compatibilità con le interfacce utente esistenti e future, includendo anche le tecnologie assistive. Ogni linea guida specifica una serie di criteri di successo, con diversi livelli d‘importanza (livello A, doppio A e triplo A). I criteri di successo differiscono dai punti di controllo WCAG 1.0 per il fatto di essere facilmente verificabili. La struttura è progettata in modo da sopravvivere ai cambiamenti tecnologici e, perciò, non fa riferimento a nessuna tecnologia specifica. Le problematiche collegate alla tecnologia sono discusse nella sezione Tecniche (Techniques), che dà alcune indicazioni su come soddisfare le WCAG 2.0. Al momento esistono tecniche generali, tecniche HTML, tecniche CSS, tecniche di scripting, e si prevede che ne vengano rese disponibili altre. L‘idea è che le tecniche siano solo informative e non vi è nessuna prescrizione a seguirle in modo stretto. Perciò è data la possibilità a ciascun produttore di pagine Web di sviluppare tecniche diverse per soddisfare lo stesso criterio di successo. Sistemi di produzione di contenuti Web Un sistema di produzione di contenuti Web (Content Management System - CMS) è un programma che facilita la creazione, controllo Inclusione nella Società dell‘Informazione 87 e correzione di contenuti multimediali e l‘esecuzione di molte funzioni essenziali su documenti elettronici. Nel caso del Web, questi sono spesso realizzati come applicazioni Web ed utilizzati per gestire il contenuto di un sito. Sono concepiti in modo da permettere ad un sito Web di crescere ed essere aggiornato in base al contributo di una comunità di utenti potenzialmente larga. Questa classe di prodotti contiene programmi con differenti caratteristiche, ciascuno tendente ad uno scopo differente e specializzato a soddisfare un tipo differente di utilizzo. Alcuni esempi sono le piattaforme wiki (come quella su cui è costruita la enciclopedia Wikipedia 8), le piattaforme ―weblog‖ (come WordPress9) o strumenti generali per costruire o gestire siti Web (da soluzioni ―open source‖ come Joomla10, Lenya11 o Plone12, a prodotti ad alto costo come Vignette13 o Documentum14). Questi prodotti costituiscono il fondamento delle applicazioni Web e permettono il loro uso interattivo da larghi gruppi di utenti. Quindi per sfruttare al massimo la potenza del Web (ad esempio il Web 2.0), tutte le piattaforme per la pubblicazione di contenuti dovrebbero curarsi delle problematiche di accessibilità nella procedura di sviluppo. Idealmente i sistemi di produzione di siti Web dovrebbero essere progettati e strutturati in modo da prevenire l‘introduzione di barriere e di incoraggiare e realizzare accessibilità (in accordo, ad esempio, alle WCAG 2.0) e alle caratteristiche di usabilità (Billi, 2004). La situazione italiana Introduzione Il Governo italiano ha scelto di affrontare le problematiche di accessibilità alla ICT attraverso un corpo di atti legislativi, al momento costituita da una Legge (No. 4/2004), contenente i principi fondamentali, e due Decreti, che contengono i regolamenti di attuazio8 http://www.mediawiki.org/wiki/MediaWiki 9 http://wordpress.org/ 10 http://www.joomla.org/ 11 http://lenya.apache.org/ 12 http://plone.org/ 13 http://www.vignette.com/ 14 http://software.emc.com/products/product_family/documentum_family.htm 88 Pier Luigi Emiliani ne e le richieste tecniche di accessibilità. Questo corpo legislativo si fa cura del fatto che i servizi informativi pubblici siano accessibili, che le persone siano dotate degli strumenti ed apparecchiature adeguati e che i sistema pubblico di approvvigionamento di beni e servizi ICT tenga sempre conto dell‘accessibilità. Nel seguito sono riportati gli articoli della legge, che definiscono i principi fondamentali e il settore di applicazione, ed i requisiti che i siti web devono soddisfare per garantire l‘accessibilità. La legge italiana, comunque, non si riferisce solo all‘accessibilità del Web, ma è molto più generale facendo riferimento anche ai sistemi informatici e di telecomunicazione in generale e non solo all‘accessibilità ma anche all‘usabilità. Informazioni complete sono disponibili online15. Legge 4/2004 - Disposizioni per favorire l'accesso dei soggetti disabili agli strumenti informatici Art.1 (Obiettivi e finalità) 1. La Repubblica riconosce e tutela il diritto di ogni persona ad accedere a tutte le fonti di informazione e ai relativi servizi, ivi compresi quelli che si articolano attraverso gli strumenti informatici e telematici. 2. È tutelato e garantito, in particolare, il diritto di accesso ai servizi informatici e telematici della pubblica amministrazione e ai servizi di pubblica utilità da parte delle persone disabili, in ottemperanza al principio di uguaglianza ai sensi dell'articolo 3 della Costituzione. Art.2 (Definizioni) 1. Ai fini della presente legge, si intende per: a) «accessibilità»: la capacità dei sistemi informatici, nelle forme e nei limiti consentiti dalle conoscenze tecnologiche, di erogare servizi e fornire informazioni fruibili, senza discriminazioni, anche da parte di coloro che a causa di disabilità necessitano di tecnologie assistive o configurazioni particolari; 15 http:// www.pubbliaccesso.gov.it. Inclusione nella Società dell‘Informazione b) «tecnologie assistive»: gli strumenti e le soluzioni tecniche, hardware e software, che permettono alla persona disabile, superando o riducendo le condizioni di svantaggio, di accedere alle informazioni e ai servizi erogati dai sistemi informatici. Art.3 (Soggetti erogatori) 1. La presente legge si applica alle pubbliche amministrazioni di cui al comma 2 dell'articolo 1 del decreto legislativo 30 marzo 2001, n. 165, e successive modificazioni, agli enti pubblici economici, alle aziende private concessionarie di servizi pubblici, alle aziende municipalizzate regionali, agli enti di assistenza e di riabilitazione pubblici, alle aziende di trasporto e di telecomunicazione a prevalente partecipazione di capitale pubblico e alle aziende appaltatrici di servizi informatici. 2. Le disposizioni della presente legge in ordine agli obblighi per l'accessibilità non si applicano ai sistemi informatici destinati ad essere fruiti da gruppi di utenti dei quali, per disposizione di legge, non possono fare parte persone disabili. Art.4 (Obblighi per l'accessibilità) 1. Nelle procedure svolte dai soggetti di cui all'articolo 3, comma 1, per l'acquisto di beni e per la fornitura di servizi informatici, i requisiti di accessibilità stabiliti con il decreto di cui all'articolo 11 costituiscono motivo di preferenza a parità di ogni altra condizione nella valutazione dell'offerta tecnica, tenuto conto della destinazione del bene o del servizio. La mancata considerazione dei requisiti di accessibilità o l'eventuale acquisizione di beni o fornitura di servizi non accessibili è adeguatamente motivata. 2. I soggetti di cui all'articolo 3, comma 1, non possono stipulare, a pena di nullità, contratti per la realizzazione e la modifica di siti INTERNET quando non è previsto che essi rispettino i requisiti di accessibilità stabiliti dal decreto di cui all'articolo 11. I contratti in essere alla data di entrata in vigore del decreto di cui all'articolo 11, in caso di rinnovo, modifica o novazione, sono adeguati, a pena di nullità, alle disposizioni della presente legge circa il rispetto dei requisiti di accessibilità, con l'obiettivo di realizzare tale adeguamento entro dodici mesi dalla data di entrata in vigore del medesimo decreto. 89 90 Pier Luigi Emiliani 3. La concessione di contributi pubblici a soggetti privati per l'acquisto di beni e servizi informatici destinati all'utilizzo da parte di lavoratori disabili o del pubblico, anche per la predisposizione di postazioni di telelavoro, è subordinata alla rispondenza di tali beni e servizi ai requisiti di accessibilità stabiliti dal decreto di cui all'articolo 11. 4. I datori di lavoro pubblici e privati pongono a disposizione del dipendente disabile la strumentazione hardware e software e la tecnologia assistiva adeguata alla specifica disabilità, anche in caso di telelavoro, in relazione alle mansioni effettivamente svolte. Ai datori di lavoro privati si applica la disposizione di cui all'articolo 13, comma 1, lettera c), della legge 12 marzo 1999, n. 68. 5. I datori di lavoro pubblici provvedono all'attuazione del comma 4, nell'ambito delle disponibilità di bilancio. Art.5 (Accessibilità degli strumenti didattici e formativi) 1. Le disposizioni della presente legge si applicano, altresì, al materiale formativo e didattico utilizzato nelle scuole di ogni ordine e grado. 2. Le convenzioni stipulate tra il Ministero dell'istruzione, dell'università e della ricerca e le associazioni di editori per la fornitura di libri alle biblioteche scolastiche prevedono sempre la fornitura di copie su supporto digitale degli strumenti didattici fondamentali, accessibili agli alunni disabili e agli insegnanti di sostegno, nell'ambito delle disponibilità di bilancio. Requisiti di accessibilità per i siti web Requisito n. 1: Realizzare le pagine e gli oggetti al loro interno utilizzando tecnologie definite da grammatiche formali pubblicate nelle versioni più recenti disponibili quando sono supportate dai programmi utente. Utilizzare elementi ed attributi in modo conforme alle specifiche, rispettandone l‘aspetto semantico. In particolare, per i linguaggi a marcatori HTML (HypertText Markup Language) e XHTML (eXtensible HyperText Markup Language): a) per tutti i siti di nuova realizzazione utilizzare almeno la versione 4.01 dell‘HTML o preferibilmente la versione 1.0 Inclusione nella Società dell‘Informazione 91 dell‘XHTML, in ogni caso con DTD (Document Type Definition - Definizione del Tipo di Documento) di tipo Strict; b) per i siti esistenti, in sede di prima applicazione, nel caso in cui non sia possibile ottemperare al punto a) è consentito utilizzare la versione dei linguaggi sopra indicati con DTD Transitional, ma con le seguenti avvertenze: segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 2: Non è consentito l‘uso dei frame nella realizzazione di nuovi siti. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 3: Fornire una alternativa testuale equivalente per ogni oggetto non di testo presente in una pagina e garantire che quando il contenuto non testuale di un oggetto cambia dinamicamente vengano aggiornati anche i relativi contenuti equivalenti predisposti; l‘alternativa testuale equivalente di un oggetto non testuale deve essere commisurata alla funzione esercitata dall‘oggetto originale nello specifico contesto. Requisito n. 4: Garantire che tutti gli elementi informativi e tutte le funzionalità siano disponibili anche in assenza del particolare colore utilizzato per presentarli nella pagina. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 5: Evitare oggetti e scritte lampeggianti o in movimento le cui frequenze di intermittenza possano provocare disturbi da epilessia fotosensibile o disturbi della concentrazione, ovvero possano causare il malfunzionamento delle tecnologie assistive utilizzate; qualora esigenze informative richiedano comunque il loro utilizzo, avvertire l‘utente del possibile rischio prima di presentarli e predisporre metodi che consentano di evitare tali elementi. Requisito n. 6: Garantire che siano sempre distinguibili il contenuto informativo (foreground) e lo sfondo (background), ricorrendo a un sufficiente contrasto (nel caso del testo) o a differenti livelli sonori (in caso di parlato con sottofondo musicale); evitare di presentare testi in forma di immagini; ove non sia 92 Pier Luigi Emiliani possibile, ricorrere agli stessi criteri di distinguibilità indicati in precedenza. Requisito n. 7: Utilizzare mappe immagine sensibili di tipo lato client piuttosto che lato server, salvo il caso in cui le zone sensibili non possano essere definite con una delle forme geometriche predefinite indicate nella DTD adottata. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 8: In caso di utilizzo di mappe immagine lato server, fornire i collegamenti di testo alternativi necessari per ottenere tutte le informazioni o i servizi raggiungibili interagendo direttamente con la mappa. Requisito n. 9: Per le tabelle dati usare gli elementi (marcatori) e gli attributi previsti dalla DTD adottata per descrivere i contenuti e identificare le intestazioni di righe e colonne. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 10: Per le tabelle dati usare gli elementi (marcatori) e gli attributi previsti nella DTD adottata per associare le celle di dati e le celle di intestazione che hanno due o più livelli logici di intestazione di righe o colonne. Requisito n. 11: Usare i fogli di stile per controllare la presentazione dei contenuti e organizzare le pagine in modo che possano essere lette anche quando i fogli di stile siano disabilitati o non supportati. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 12: La presentazione e i contenuti testuali di una pagina devono potersi adattare alle dimensioni della finestra del browser utilizzata dall‘utente senza sovrapposizione degli oggetti presenti o perdita di informazioni tali da rendere incomprensibile il contenuto, anche in caso di ridimensionamento, ingrandimento o riduzione dell‘area di visualizzazione o dei caratteri rispetto ai valori predefiniti di tali parametri. Requisito n. 13: In caso di utilizzo di tabelle a scopo di impaginazione, garantire che il contenuto della tabella sia comprensibile anche quando questa viene letta in modo linearizzato e utilizzare gli elementi e gli attributi di una tabella rispettandone il va- Inclusione nella Società dell‘Informazione 93 lore semantico definito nella specifica del linguaggio a marcatori utilizzato. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 14: Nei moduli (form), associare in maniera esplicita le etichette ai rispettivi controlli, posizionandole in modo che sia agevolata la compilazione dei campi da parte di chi utilizza le tecnologie assistive. Requisito n. 15: Garantire che le pagine siano utilizzabili quando script, applet, o altri oggetti di programmazione sono disabilitati oppure non supportati; ove ciò non sia possibile fornire una spiegazione testuale della funzionalità svolta e garantire una alternativa testuale equivalente, in modo analogo a quanto indicato nel requisito n. 3. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 16: Garantire che i gestori di eventi che attivano script, applet o altri oggetti di programmazione o che possiedono una propria specifica interfaccia, siano indipendenti da uno specifico dispositivo di input. Requisito n. 17: Garantire che le funzionalità e le informazioni veicolate per mezzo di oggetti di programmazione, oggetti che utilizzano tecnologie non definite da grammatiche formali pubblicate, script e applet siano direttamente accessibili. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 18: Nel caso in cui un filmato o una presentazione multimediale siano indispensabili per la completezza dell‘informazione fornita o del servizio erogato, predisporre una alternativa testuale equivalente, sincronizzata in forma di sotto-titolazione o di descrizione vocale, oppure fornire un riassunto o una semplice etichetta per ciascun elemento video o multimediale tenendo conto del livello di importanza e delle difficoltà di realizzazione nel caso di trasmissioni in tempo reale. Requisito n. 19: Rendere chiara la destinazione di ciascun collegamento ipertestuale (link) con testi significativi anche se letti 94 Pier Luigi Emiliani indipendentemente dal proprio contesto oppure associare ai collegamenti testi alternativi che possiedano analoghe caratteristiche esplicative, nonché prevedere meccanismi che consentano di evitare la lettura ripetitiva di sequenze di collegamenti comuni a più pagine. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 20: Nel caso che per la fruizione del servizio erogato in una pagina è previsto un intervallo di tempo predefinito entro il quale eseguire determinate azioni, è necessario avvisare esplicitamente l‘utente, indicando il tempo massimo consentito e le alternative per fruire del servizio stesso. Requisito n. 21: Rendere selezionabili e attivabili tramite comandi da tastiere o tecnologie in emulazione di tastiera o tramite sistemi di puntamento diversi dal mouse i collegamenti presenti in una pagina; per facilitare la selezione e l‘attivazione dei collegamenti presenti in una pagina è necessario garantire che la distanza verticale di liste di link e la spaziatura orizzontale tra link consecutivi sia di almeno 0,5 em, le distanze orizzontale e verticale tra i pulsanti di un modulo sia di almeno 0,5 em e che le dimensioni dei pulsanti in un modulo siano tali da rendere chiaramente leggibile l‘etichetta in essi contenuta. Segue elenco dei requisiti di accessibilità per i siti Internet. Requisito n. 22: Per le pagine di siti esistenti che non possano rispettare i suelencati requisiti (pagine non accessibili), in sede di prima applicazione, fornire il collegamento a una pagina conforme a tali requisiti, recante informazioni e funzionalità equivalenti a quelle della pagina non accessibile ed aggiornata con la stessa frequenza, evitando la creazione di pagine di solo testo; il collegamento alla pagina conforme deve essere proposto in modo evidente all‘inizio della pagina non accessibile. 4. La Società dell’Informazione La maggior parte degli osservatori tecnologici a livello mondiale prevedono che la Società dell‘Informazione emerga e si sviluppi come una qualche forma di ―ambiente intelligente‖, nel quale i Inclusione nella Società dell‘Informazione 95 compiti da compiere e il modo di compierli possono essere completamente ridefiniti. Questa visone è presente non solo nei documenti del gruppo europeo ISTAG (Information Society Advisory Group) (Ducatel, et al., 2001), ma anche in documenti di altri paesi (ad esempio Australia, Giappone e Stati Uniti), prodotti da agenzie governative, industrie (come ad esempio Rand, Xerox, Microsoft, IBM, Philips, Siemens, NEC, Fujitsu) e Università (ad esempio il Massachusetts Institute of Technology – MIT ha un laboratorio d‘intelligenza ambientale e molte ricerche attive nel settore). Sfortunatamente, nella maggior parte dei documenti disponibili, le problematiche di gruppi di utenti che non hanno le abilità dell‘utente medio non sono considerate. Inoltre, e questo in modo abbastanza sorprendente, le persone che lavorano nel settore dell‘accessibilità non appaiono molto interessarti a questi sviluppi. L’intelligenza ambientale – AmI Nel modello precedente si suppone che la Società dell‘Informazione si sviluppi rendendo disponibile un ambiente ICT accessibile nel quale oggetti intelligenti forniscono funzionalità (Fig. 10) utili per l‘accesso all‘informazione, la comunicazione interpersonale e il controllo ambientale. Inoltre si suppone che gli ambienti siano interconnessi con un centro di controllo e con il mondo esterno che contribuiscono con funzionalità più complesse (servizi). 96 Pier Luigi Emiliani Figura 10. Funzionalità nell'ambiente Dalla prospettiva dell‘interazione, si prevede una migrazione da un modello nel quale l‘utente interagisce con un calcolatore o un terminale, ad uno dove l‘utente interagisce usando interfacce naturali con funzionalità rese disponibili dai singoli oggetti, la loro cooperazione sotto la supervisione di un centro di controllo e la cooperazione attraverso reti esterne, come rappresentato in Fig. 11 In accordo con la sua definizione nella Dichiarazione di Riga, l‘inclusione nella Società dell‘Informazione sarà favorita da questo ambiente emergente, se le funzionalità rese disponibili saranno inclusive (cioè accessibili) e se queste si faranno carico di supportare gli utenti con limitazioni di attività, ridefinendo le attività in modo da essere eseguite con le abilità disponibili e/o aiutandoli in modo proattivo nei compiti in cui hanno limitazioni. Come esempio, si può considerare il caso di una persona ipovedente. Questa può essere supportata con un telefono con tasti grandi (soluzione AT), ma le si può anche dare la possibilità di utilizzare una funzionalità completamente virtuale (per esempio controllata dalla voce), che può essere utilizzata senza raggiungere l‘apparecchio telefonico e manipolare la tastiera (cioè senza utilizzare l‘abilità visiva). Inclusione nella Società dell‘Informazione 97 Figura 11. L'ambiente intelligente Questo modo di procedere è anche compatibile con il modello WHO ICF, che parte dalla definizione di ―attività‖ che devono essere svolte nell‘ambiente e caratterizza la disabilità come limitazioni a svolgere tali attività, sia per limitazioni personali che per fattori contestuali. Quindi, le persone possono essere favorite aumentando le loro capacità o agendo sul contesto. L‘approccio è schematizzato in Fig. 12. Figura 12. Componenti della e-Inclusione 98 Pier Luigi Emiliani Analisi preliminare dell’ambiente emergente A dispetto della conoscenza limitata di come l‘ambiente intelligente si materializzerà, si ritiene comunemente che la sua disponibilità produrrà nuove opportunità per i cittadini nella Società dell‘Informazione, includendo le persone con limitazioni di attività e le persone anziane, ma probabilmente, allo stesso tempo, anche nuove sfide per l‘accesso ai prodotti e servizi basati sulla ICT. Allo scopo di produrre in modo strutturato una visione di come possa emergere la Società dell‘Informazione come intelligenza ambientale, in Europa è stato condotto un esercizio di generazione di scenari, che ha portato alla pubblicazione del rapporto ―Scenarios for Ambient Intelligence in 2010‖ (Ducatel, et al., 2001). Gli scenari presentati offrono una visione di un futuro potenziale della vita sociale, basato sugli sviluppi tecnologici previsti. Non sono previsioni tecnologiche, ma descrizioni di attività potenziali da svolgere nei futuri ambienti intelligenti. Un‘analisi preliminare, tesa a mostrare a livello funzionale quale potrebbe essere l‘impatto dell‘intelligenza ambientale sull‘inclusione di persone con limitazioni di attività, è stata effettuata nell‘ambito del Progetto Cost 219ter (Antona, et al, 2007) e del progetto DfA@eInclusion16. L‘analisi è basata sulle assunzioni seguenti. Prima di tutto gli scenari sono considerati ―veri‖, cioè è dato per garantito che la tecnologia e i servizi siano disponibili con le caratteristiche previste. Perciò, la fattibilità degli sviluppi tecnici non è parte dell‘analisi. Quindi, l‘ambiente intelligente è considerato come disponibile ovunque, non tenendo conto che fattori economici potrebbero impedire un dispiegamento reale della tecnologia corrispondente. Inoltre, l‘ambiente intelligente è considerato come disponibile continuamente (senza malfunzionamenti). Un‘analisi di cosa potrebbe accadere nel caso che le ultime due assunzioni non fossero,valide è stata presentata negli ―scenari oscuri‖ elaborati nel progetto SWAMI (Friedewald, 2006), e si applicano anche al caso di persone con limitazioni di attività. Infine, sono stati solo considerati problemi connessi all‘accesso all‘informazione, alla comunicazione interpersonale ed al controllo ambientale. Si ritiene, comun16 http://www.dfaei.org/ Inclusione nella Società dell‘Informazione 99 que, che i risultati dell‘analisi forniscano alcune interessanti conclusioni, che costituiscono un punto di partenza per la costruzione di una visione più completa e olistica. Per effettuare l‘analisi, persone con limitazioni di attività sono introdotte in modo virtuale negli scenari ISTAG, identificando se e come essi possono svolgere le attività descritte. Quindi, invece di partire dalle nuove tecnologie e cercare di immaginare come queste possono essere utilizzare per realizzare nuovi servizi ed applicazioni accessibili ed utili, l‘analisi parte dagli scenari applicativi che esemplificano a livello funzionale l‘uso di differenti aspetti dell‘ambiente intelligente. Anche se gli scenari originali non fanno riferimento esplicito a persone con limitazioni di attività, poiché sono principalmente basati sullo svolgimento di attività in contesti definiti, si prestano ad una facile analisi delle possibilità di accesso a tali attività da parte di persone con caratteristiche differenti. Come già detto, in accordo alla classificazione ICF le persone possono avere menomazioni, limitazioni di attività o restrizioni alla partecipazione che caratterizzano la loro abilità (capacità) di eseguire compiti o azioni (attività), ma le loro prestazioni sono anche influenzate dall‘ambiente. Questo può aumentare il livello di prestazione al di sopra del livello di capacità (e perciò è considerato un facilitatore) o può ridurre le prestazioni al di sotto del livello di capacità (essendo perciò considerato una barriera). Lo scopo del lavoro presentato nel capitolo è di analizzare le prestazioni delle persone nelle situazioni previste negli ambienti intelligenti per caratterizzarli come facilitatori nelle attività richieste o come ulteriori barriere, cercando anche di immaginare possibili modi di superare eventuali barriere. Per questa ragione, gli scenari ISTAG sono divisi in attività e persone con limitazioni di attività sono osservati virtualmente mentre svolgono i compiti necessari. Sono stati considerati cinque gruppi di utenti. I primi due gruppi si riferiscono a persone con limitazioni sensoriali (causate anche da fattori contestuali), e precisamente a persone che non sono in grado di vedere e a persone che non sono in grado di sentire. Il terzo è composto di persone, essenzialmente anziane, con limitazioni lievi o moderate di memoria, linguaggio, orientamento e soluzione di problemi (limitazioni cognitive), che non ne impediscono una vita indipendente se è reso disponibile un conveniente supporto. Quindi, 100 Pier Luigi Emiliani sono considerate persone con problemi di manipolazione fine (quali quelle necessarie per l‘uso della tastiera e del mouse), problemi di fissazione e/o difficoltà nell‘esprimersi usando la voce (ad esempio causate da paralisi cerebrale). Infine sono considerate persone che si muovono su carrozzina a rotelle, analizzandone comunque solo i problemi di accesso all‘informazione, comunicazione interpersonale e controllo ambientale. Il comunicatore personale Negli scenari prodotti, la chiave principale per aprire le porte della Società dell‘Informazione è il comunicatore personale (P-Com) e l‘insieme di agenti correlati, in grado di garantire la connessione con l‘ambiente e tutti i mezzi per accedere all‘informazione, comunicare e controllare l‘ambiente stesso. Le sue caratteristiche non sono definite con precisione negli scenari. Non ha una interfaccia definita, ma può in linea di principio rendere disponibili tutte le tecnologie d‘interazione integrate nel sistema o disponibili nello spazio circostante per adattare l‘ambiente al tipo d‘interazione adatta per l‘utente e il contesto d‘uso utilizzando, per esempio, l‘audio quando gli occhi sono necessari per altri compiti (per esempio per guidare), o visive e tattili in un ambiente rumoroso. Il comunicatore può essere quindi una funzionalità virtuale supportata dall‘intelligenza ambientale con interfacce differenti. Può essere un braccialetto o inserito negli indumenti, ma anche impiantabile. È adattivo e impara dall‘interazione dell‘utente con l‘ambiente. Offre funzioni di comunicazione, di elaborazione e di decisione. Le sue funzioni possono essere basate su intelligenza interna o su intelligenza distribuita nell‘infrastruttura. Quando necessario, può diventare un avatar e gestire la maggior parte delle interazioni sociali. In uno degli scenari non ha neppure una forma fisica definita: è solo una funzione capace di contatti con altre persone (per esempio il guidatore in un sistema di trasporto condiviso) o con servizi (per esempio il sistema informativo di un supermercato o il sistema di pagamento città dei trasporti cittadini). Alcune caratteristiche del comunicatore sono utili per tutti: è personale, leggero, indossabile e continuamente disponibile. Inoltre, non deve essere necessariamente un dispositivo altamente sofistica- Inclusione nella Società dell‘Informazione 101 to, le cui prestazioni sono limitate dalle dimensioni, peso e consumo. L‘intelligenza necessaria per rendere disponibili le interazioni e le trasduzioni d‘informazione necessarie per fornire le diverse modalità e per aiutare l‘utente possono essere nell‘ambiente e nella rete. Lo stesso è vero per le periferiche d‘interazione. In principio, l‘unico fattore limitante è la banda di trasmissione. L’ambiente come facilitatore Fino ad ora, come già descritto, l‘inclusione delle persone con limitazioni di attività è stata basata su alcuni approcci complementari: l‘adattamento dei sistemi in funzione delle necessità di gruppi d‘utenti individuali (ad esempio l‘adattamento delle loro interfacce), l‘adattamento di servizi di uso generale (ad esempio i sistemi di allarme) e la creazione di servizi speciali (ad esempio i servizi d‘interconnessione). Alcune conclusioni interessanti sulle possibilità d‘inclusione rese possibili dall‘intelligenza ambientale possono essere dedotte dagli scenari, con riferimento a funzionalità (servizi) generalmente disponibili nell‘ambiente. Sistemi di controllo ambientale: diventano una parte integrale degli ambienti di vita e possono essere messi in grado d‘integrare tecnologia addizionale, se progettati per essere estendibili con funzionalità aggiuntive (sia per scopi generali come i sistemi robotici o per un supporto specializzato ad esempio con tecnologie assistive). Servizi d’interconnessione (relay services): sono in linea di principio disponibili nell‘ambiente, dove il riconoscimento e la sintesi della voce, la traduzione automatica, il riconoscimento dei gesti (linguaggio dei segni e lettura labiale) e le animazioni (linguaggio dei segni sintetico e movimenti delle labbra) sono considerati disponibili per tutti e si suppone che le persone comunichino usando ogni (combinazione di) linguaggio o media. Sistemi di allarme e supporto/controllo: l‘intero Ambiente intelligente è un sistema di allarme e supporto/controllo pervasivo ed altamente sofisticato. Questo può essere molto importante per persone con problemi cognitivi. L‘ambiente intelligente può controllare continuamente il loro comportamento nei vari 102 Pier Luigi Emiliani contesti in funzione delle loro abitudini conosciute ed intervenire quando necessario, per esempio ricordando loro i compiti da compiere e aiutandoli nel compierli. Quando necessario l‘ambiente intelligente può anche contattare un membro della famiglia o una persona di supporto e chiedere consiglio. Se le persone non possono vedere l‘ambiente è in grado di descrivere la propria configurazione e i dispositivi presenti (ad esempio il controllo remoto di un televisore). Inoltre, perché le persone non possono svolgere due compiti uditivi simultaneamente, l‘ambiente è in grado di organizzare sequenzialmente il flusso dell‘informazione e l‘esecuzione dei compiti necessari, allocando il tempo necessario. Il P-Com può essere parte del sistema di controllo, in contatto continuo con i parenti e le persone di supporto e la persona può essere seguita durante gli spostamenti. Servizi di navigazione: i sistemi e i servizi di navigazione sono una parte integrale dell‘ambiente intelligente e possono essere utili in molte circostanze. Sono presenti o possono essere utilizzati in tutti gli scenari per scopi differenti. Se una persona non è in grado di vedere, durante un viaggio il P-Com in collegamento con l‘intelligenza ambientale la guida attraverso l‘aeroporto (ad esempio con la voce o con suggerimenti tattili). Questo richiede la conoscenza della sua posizione nell‘aeroporto (garantita dall‘intelligenza ambientale) e la possibilità di controllare la presenza di ostacoli non prevedibili (persone, bagagli), ottenibile attraverso le caratteristiche dello stesso ambiente (ad esempio con un sistema di controllo capace di comunicare con oggetti marcati con etichette elettroniche o con i P-Com dei passeggeri e di identificare oggetti non etichettati usando sistemi di riconoscimento di configurazioni in tempo reale). Se la persona ha problemi cognitivi, il sistema di navigazione può adattare il livello di supporto alle abilità conosciute o alle difficoltà presenti percepite (per esempio la persona può essere confusa dalla folla nell‘aeroporto). Le automobili sono parte di un sistema complesso di navigazione e di controllo del traffico. Le persone normalmente non interagiscono direttamente con il sistema, ma questo conosce le loro caratteristi- Inclusione nella Società dell‘Informazione 103 che ed è in grado di suggerire ragionevoli alternative se devono abbandonare l‘automobile e usare mezzi di trasporto alternativi. Per esempio, il sistema di controllo della metropolitana può registrare una persona come un cliente che non è in grado di vedere e suggerire itinerari e cammini che non sono al momento affollati. Alternativamente può registrarla come un cliente anziano. Può connettersi con il centro di controllo per verificare se viene considerato in grado di viaggiare da solo o deve essere assistito. Se può viaggiare da solo, il P-Com si fa carico di guidarlo e di suggerire le azioni necessarie per arrivare a destinazione. Il livello di supporto può essere adattato facilmente alle sue capacità. Se la persona si muove su una sedia a rotelle, l‘ambiente intelligente può suggerire un itinerario accessibile per la destinazione. Servizi di comunicazione interpersonale audio e video: il fatto che le persone sia in grado di conversare utilizzando sistemi audio/video e di accedere all‘informazione in modo cooperativo è molto importante. Introduce una componente di socializzazione remota. Anche se il supporto da parte della tecnologia può essere di valore incalcolabile in alcune circostanze, il supporto da parte di altre persone può essere più efficiente e accettabile in alcune situazioni ed attività. L‘ambiente intelligente, con la sua enfasi su attività cooperative in contato audio e video, permette di chiedere supporto ad un parente, un amico o una organizzazione di supporto. Sistemi di accesso all’informazione, comunicazione e negoziazione basati su agenti: l‘intelligenza nell‘ambiente (agenti intelligenti) può essere il reale fattore vincente. Per esempio, per pianificare il suo viaggio, una persona può basarsi su un ambiente popolato da agenti (l‘intelligenza nell‘ambiente), che possono identificare l‘informazione rilevante e negoziare al suo posto per ottenere ciò di cui ha bisogno al miglior prezzo possibile. Il supporto intelligente, interessante per tutti, può essere cruciale per persone che hanno problemi di emissione della voce o di udito che possono ridurre la loro capacità di comunicazione interpersonale o problemi di vista o manipolazione che possano ridurne l‘efficienza nell‘accesso a servizi informativi complessi. La possibilità di delegare ad un agente le transazioni 104 Pier Luigi Emiliani necessarie per organizzare un viaggio possono essere cruciali anche per una persona anziana con limitazioni cognitive. Lo stesso vale per organizzare gli spostamenti in città con un sistema di auto in comune o gli acquisti attraverso la rete. Nella negoziazione degli spostamenti nella città, l‘agente intelligente conosce le necessità delle persone (per esempio che si muove su una sedia a rotelle) e seleziona il mezzo e l‘autista adatto. Nel svolgere acquisti su rete l‘agente può individuare l‘informazione utile per l‘utente e presentarla nella forma adatta. Se la persona non è in grado di vedere o ha problemi di fissazione, l‘agente può leggere l‘informazione sulle etichette intelligenti dei singoli oggetti. Se la persona ha limitazioni cognitive, può darsi che abbia bisogno di guida attraverso i compiti necessari. Il livello di supporto può essere adattato alla gravità dei suoi problemi. In caso di problemi cognitivi lievi, l‘ambiente intelligente può ricordare e dare suggerimenti, come un amico a casa. Nel caso di problemi gravi può invece controllare completamente la situazione. Ovviamente, può anche supervisionare la situazione dal punto di vista della sicurezza. Questo può essere fatto autonomamente o in cooperazione con una persona di supporto. Attività di apprendimento: negli ambienti intelligenti gli spazi di apprendimento possono essere adattati ai singoli utenti sia dal punto di vista fisico (organizzazione dello spazio e disponibilità di supporto multimediale spazialmente distribuito) che concettuale (tipo di materiali di apprendimento, velocità di presentazione). Inoltre vi è la possibilità di scambi sociali (con gli altri studenti, il gestore dell‘ambiente e gli esperti), che può essere di aiuto nell‘apprendimento. Lo stesso gestore dell‘ambiente non è un esperto delle materie da apprendere, ma un mediatore fra interessi e necessità differenti. Non solo ci si preoccupa dell‘efficienza dell‘apprendimento, ma anche delle emozioni degli individui e dei gruppi. Un supporto continuo è garantito dall‘ambiente intelligente che è capace di adattarsi agli utenti ed ai loro stati emotivi. Inclusione nella Società dell‘Informazione 105 L’individuo che interagisce con l’ambiente Dopo aver esaminato il possibile impatto dei servizi di uso generale su persone che hanno limitazioni di attività, è necessario focalizzarsi sull‘interazione degli utenti con l‘ambiente intelligente allo scopo di svolgere i compiti necessari per essere integrati a casa, negli spazi chiusi (ad esempio un aeroporto, un hotel, un bar e un ambiente per l‘apprendimento) e negli spazi aperti. La situazione più semplice per l‘interazione è nella propria abitazione, perché gli spazi casalinghi sono più facili da personalizzare alle necessità dei differenti utenti. Per esempio, in uno degli scenari una persona interagisce con il proprio frigorifero. Se non è in grado di vedere, può ricevere messaggi vocali e dare istruzioni attraverso un riconoscitore del parlato. Se non è in grado di parlare, può usare il riconoscimento dei gesti o messaggi testuali o, se non è in grado di parlare in modo corretto, il sistema di riconoscimento della voce può essere addestrato ad adattarsi alle caratteristiche del segnale vocale prodotto. L‘uscita può essere prodotta in qualsiasi modalità adattata alle capacità dell‘utente. Per esempio, quando l‘utente è connesso con un negozio, la persona può scegliere di vedere le merci d‘interesse o l‘informazione memorizzata sulle etichette può essere trasdotta in un formato adatto per essere ascoltata o letta (per esempio in Braille). Inoltre la sua stazione di lavoro personale le può permettere anche di esplorare e manipolare modelli tridimensionali per mezzo di un‘interazione tattile. La situazione è più complessa quando si utilizza uno spazio privato ma non personale (ad esempio la stanza di un albergo). Anche se la stanza è adattata alla personalità dell‘utente quando ne prende possesso, cioè la sua temperatura, l‘illuminazione e la presentazione di musica o video sono adattate le sue preferenze, la persona può avere problemi con gli oggetti contenuti e la loro disposizione, se non è in grado di vedere o ha problemi cognitivi. In questo caso l‘ambiente intelligente può provvedere una descrizione della stanza e delle sue caratteristiche. Se sono presenti problemi cognitivi, il numero e la complessità delle funzionalità da rendere disponibili può essere scelta in base al profilo d‘utente. Se necessario l‘ambiente intelligente può fare automaticamente tutte le scelte. Altrimenti, i parenti o il personale di supporto possono offrire sugge- 106 Pier Luigi Emiliani rimenti. Problemi possono essere provati con il telecomando del controllo ambientale. Una prima soluzione efficiente in questo caso è di usare il P-Com, che può essere programmato ad emulare le caratteristiche di qualsiasi telecomando con uno schema di funzionamento conosciuto (ad esempio quello del telecomando di casa). Alternativamente,l‘ambiente intelligente può descrivere la struttura e le funzionalità del telecomando disponibile nella stanza e le sue funzioni possono essere semplificate in funzione delle sue caratteristiche e preferenze. In uno degli scenari, Maria, la protagonista, deve dare una presentazione a dei potenziali clienti. Se non è in grado di vedere, deve sapere chi è nella sala prima di incominciare e controllare la temporizzazione della presentazione. Il P-Com comunica e scambia informazione con i P-Com di chi è presente alla riunione, controlla che tutti siano presenti e fornisce una conferma multimediale (voce attraverso l‘auricolare con l‘aggiunta di un vibratore, collegato al PCom stesso o presente nella stanza) che la presentazione è pronta. Se Maria non è in grado di sentire, ma in grado di parlare, non ha problemi con la presentazione. Altrimenti può utilizzare un sintetizzatore di voce. Durante la discussione, può utilizzare un riconoscitore di voce, la cui uscita può essere tradotta nel movimento delle labbra e/o nel linguaggio dei segni con un‘animazione. Maria, può dattilografare le risposte, per esempio utilizzando una tastiera (virtuale) e un sistema di predizione. Queste possono essere lette o sintetizzate. Alternativamente Maria può utilizzare il linguaggio dei segni, tradotto in voce in tempo reale. Nell‘ambiente intelligente le persone possono interagire con l‘informazione e comunicare usando escusivamente il P-Com. Non hanno bisogno di calcolatori o terminali complessi. La potenza di calcolo è disponibile dovunque, insieme alle periferiche adatte per interagire. Comunque, alcune persone possono preferire sistemi personalizzati. Se una persona è incapace di veder, il suo P-Com può essere equipaggiato con un‘interfaccia personalizzata (per esempio un‘interfaccia tattile ripiegabile). Altrimenti, il P-Com può comunicare con un sistema tattile tridimensionale disponibile nell‘ambiente. Se la persona non è in grado di vedere o ha problemi di fissazione, l‘informazione può essere trasferita utilizzando il canale vocale, mentre, se non è in grado di sentire, l‘informazione può Inclusione nella Società dell‘Informazione 107 essere presentata utilizzando testo o mappe (per esempio su un display visivo integrato nei suoi occhiali). Se ha problemi cognitivi, i singoli compiti ad eseguire possono essere suggerti attraverso al modalità preferita e spiegati nei dettagli. Sfide emergenti Nel leggere le sezioni precedenti, si potrebbe concludere che la Società dell‘Informazione offre una panacea per i problemi delle persone con limitazioni d‘attività. Prima di arrivare a questa conclusione, devono però essere considerate alcune sfide da affrontare. La prima è collegata all‘intelligenza, considerata come una parte fondamentale dell‘ambiente emergente. La situazione attuale nel settore dell‘Intelligenza Artificiale mostra chiaramente che sono necessari miglioramenti significativi per la realizzazione di ambienti quali quelli previsti negli scenari ISTAG. Per esempio, anche se il riconoscimento e la sintesi della voce stanno migliorando, l‘introduzione dell‘intonazione nella voce sintetica, il riconoscimento della voce al di fuori di domini specialistici e/o in luoghi rumorosi e la traduzione fra linguaggi diversi richiedono miglioramenti fondamentali nell‘interpretazione semantica dei messaggi. Lo stesso è vero per gli aspetti dell‘ambiente intelligente collegati alle emozioni delle persone e alle difficoltà nell‘eseguire alcuni compiti. Ovviamente, senza miglioramenti fondamentali rispetto alle possibilità presenti, l‘ambiente potrebbe interferire nella vita dei cittadini in modi negativi e quindi inaccettabili. Inoltre, si deve considerare che l‘analisi presentata precedentemente riguarda solo i problemi di accesso all‘informazione, comunicazione interpersonale, controllo ambientale ed altre attività che possono essere supportate migliorando la possibilità d‘integrazione nella comunità dell‘informazione e della comunicazione. Questo ovviamente non risolverà tutti i problemi delle persone e, in ogni caso, richiede un approccio proattivo basato sulla Progettazione Universale per trasferire a tutti i possibili vantaggi identificati precedentemente. Per esempio, la disponibilità della sintesi della voce o del Braille labile come caratteristica standard dell‘ambiente non significa automaticamente che tutta l‘informazione sarà disponibile alle persone che non sono in gado di vedere, perché questo dipende- 108 Pier Luigi Emiliani rà anche da come l‘informazione è memorizzata e strutturata. Poiché è ovviamente impossibile adattare tutte le banche dati connesse alla rete, sarà necessario utilizzare un approccio basato sulla Progettazione Universale (per esempio le linee guida WAI) per rappresentare l‘informazione in una forma che ne renda possibile la trasduzione utilizzando il testo (voce o Braille). Comunque, se l‘informazione sull‘accessibilità delle stanze non è presente in una banca dati sugli alberghi, nessuna linea guida che riguarda la presentazione dell‘informazione e nessun adattamento dell‘informazione potranno essere d‘aiuto. Questo si applica allo sviluppo di tutte le tecnologie e loro uso per realizzare le funzionalità previste negli scenari, che devono avere tutte le caratteristiche necessarie per l‘inclusione di tutti i potenziali utenti. Per esempio, il riconoscimento dei gesti è considerata una tecnologia d‘interazione importante per tutti, ma sforzi di ricerca addizionali sono necessari per estrarre informazioni da movimenti spastici. Il riconoscimento della voce può essere molto importante per interfacciare con l‘ambiente persone che non possono utilizzare tastiere o sistemi di puntamento, ma il sistema di addestramento deve essere abbastanza robusto da accettare non solo voci standard, ma anche voci di persone con paralisi cerebrale. La traduzione fra diversi linguaggi ha il potenziale di eliminare le barriere fra paesi e culture differenti, ma, ovviamente, il livello d‘inclusione dipenderà dai linguaggi che sono considerati. Differenti linguaggi dei segni e linguaggi simbolici (come i simbolo di Bliss) dovranno essere parte dell‘insieme dei linguaggi considerati. Molti altri aspetti dello sviluppo di un ambiente intelligente devono essere discussi in relazione al loro possibile impatto sulla popolazione nel suo insieme e sulle persone con limitazioni di attività. Prima di tutto, è necessario investigare come le abilità degli esseri umani saranno impegnate nelle forme d‘interazione emergenti e quale sarà l‘impatto di questa interazione sugli spazi percettivi e cognitivi degli individui. L‘ambiente emergente può essere molto complesso e stimolante, sia dal punto di vista sensoriale che cognitivo. Non è chiaro se le persone saranno in grado di far fronte all‘iper-stimolazione e il corrispondente carico cognitivo. Questo è particolarmente vero per persone con abilità ridotte e, principalmente, per persone con limitazioni cognitive. L‘ambiente deve essere Inclusione nella Società dell‘Informazione 109 sviluppato in modo che le capacità delle persone vengano considerate nel bilanciamento della distribuzione dei compiti fra l‘utente e l‘ambiente intelligente. Questa considerazione introduce un altro aspetto particolarmente importante. L‘accettabilità da parte dei cittadini del nuovo ambiente dipende anche dalla loro fiducia e, perciò, dal loro livello di accettazione e di delega. Questo può essere un punto particolarmente sensibile per persone con limitazioni di attività, che potrebbero dover delegare più degli altri utenti e avere problemi addizionali nel concettualizzare la situazione. L‘impatto sulle emozioni, la vigilanza, le possibilità di elaborazione dell‘informazione e la memoria deve essere considerato con particolare attenzione quando sono coinvolte persone con limitazioni di attività. Ad un livello basso, è necessario evitare forme d‘interazione che possano condurre a conseguenze negative come confusione, sovraccarico cognitivo e frustrazione. Questo implica la necessità di una distribuzione delle possibilità d‘ingresso/uscita nell‘ambiente continua, allo scopo di non creare frustrazione e confusione, flessibile, in modo da essere in grado di adattarsi ai differenti contesti d‘uso, e coerente nell‘ambiente. Il fatto che l‘interazione mantenga una coerenza interna in ogni situazione facilita ovviamente l‘interazione e favorisce l‘accettabilità. Un‘altra sfida coinvolge la privacy e la sicurezza. La possibilità di adattare l‘ambiente ai diversi gruppi di utenti richiede la disponibilità d‘informazione su di essi. Nel caso di persone con limitazioni di abilità, questa informazione può essere molto sensibile. È quindi particolarmente importante che gli utenti possano avere fiducia sulla privacy garantita dal sistema. La privacy è stata sempre un problema importante per ogni sistema di controllo. Il problema è adesso reso più sensibile dal fatto che il controllo non è affidato ad un sistema dedicato, ma ad un ambiente intelligente presente ovunque. Infine, la sicurezza è un altro aspetto importante. L‘ambiente intelligente, includendo anche l‘infrastruttura di supporto, è un sistema complesso. È stato dimostrato recentemente che i sistemi complessi sono facili al collasso (l‘interruzione dell‘erogazione di energia elettrica dovuti al collasso dei sistemi di distribuzione son un esempio ben conosciuto). Questo potrebbe essere molto pericoloso se la società umana è organizzata intorno ad un sistema informativo 110 Pier Luigi Emiliani e di comunicazione complesso, come quello immaginato negli scenari, specialmente per persone con limitazioni di attività, che potrebbero essere costrette ad appoggiarsi più pesantemente sulle possibilità disponibili. Perciò ridondanze ed affidabili strategie di recupero dagli errori dovranno essere disponibili nel sistema e comprensibili da parte degli utenti finali. Conclusioni A causa dell‘emergere della Società dell‘Informazione, che non è concepita come un‘ulteriore diffusione di calcolatori e terminali quali quelli disponibili adesso, ma come uno spazio popolato da oggetti intelligenti interconnessi che offrono alle persone funzionalità utili per comunicare, controllare l‘ambiente e accedere all‘informazione, l‘enfasi sull‘inclusione è posto sul problema di garantire un accesso universale allo spazio informativo e di comunicazione emergente piuttosto che a garantire l‘accessibilità ai sistemi individuali. Questo comporta una revisione dei metodi tradizionali di uso della tecnologia per l‘inclusione sociale delle persone con limitazioni di attività. In particolare, a causa della transizione in corso e della possibile complessità dell‘ambiente risultante, è comunemente accettato che sia necessario passare dal normale approccio reattivo all‘inclusione, basato sull‘adattamento di tecnologie disponibili con interventi di Tecnologia Assistiva, ad approcci proattivi, in accordo ai quali le necessità, richieste e preferenze di tutti gli utenti potenziali sono integrate nelle specifiche di sviluppo delle nuove tecnologie e di progetto dei relativi prodotti. Questo implica che la Tecnologia Assistiva non è più ―la soluzione tecnologica‖ all‘inclusione, ma solo una delle sue componenti. Il nuovo approccio, la Progettazione Universale, sposta l‘interesse dei progettisti dall‘―utente medio‖ a utenti reali in reali contesti d‘uso, puntando alla realizzazione di sistemi, servizi ed applicazioni usabili da tutti i potenziali utenti senza modifiche. Questo concetto, sviluppato in architettura e nel design industriale, rimane valido anche nel settore delle tecnologie informatiche e di telecomunicazione, ma la strategia di realizzazione e gli approcci tecnici Inclusione nella Società dell‘Informazione 111 devono essere modificati. Non si tratta di proporre una soluzione singola per tutti, ma di realizzare prodotti che siano in grado di soddisfare automaticamente la diversità degli utenti. Questo pone problemi interessanti, sia al livello dell‘identificazione, organizzazione e trasferimento in specifiche usabili delle necessità, richieste e preferenze di tutti i potenziali utenti che della definizione di un approccio tecnico per la realizzazione pratica dell‘approccio concettuale. Un approccio tecnico di cui è stata dimostrata la fattibilità è basato sull‘introduzione nei sistemi e servizi di una sufficiente ―intelligenza‖ da permetterne un adattamento automatico alle caratteristiche del singolo utente all‘inizio dell‘interazione in base alla conoscenza dell‘utente stesso (adattabilità) e un adattamento continuo in funzione dell‘uso (adattività). Questo approccio appare particolarmente compatibile con i previsti sviluppi tecnologici. Infatti, l‘emergere del concetto d‘intelligenza ambientale e la disponibilità quindi di ambienti intelligenti interattivi sarà probabilmente capace di rendere disponibile a tutti e dovunque l‘intelligenza necessaria per garantire l‘adattabilità e l‘adattività dei sistemi e servizi, anticipando le necessità di ogni singolo utente. Bibliografia Akoumianakis, D., Savidis, A., Stephanidis, C. [1999] ―Encapsulating Intelligent Interactive Behaviour in Unified User Interface Artefacts‖, to appear in the International Journal on Interacting with Computers, special issue on The Reality of Intelligent InterfaceTechnology, 38 pages. Akoumianakis D., Stephanidis C. [1997a] Knowledge-based Support for UserAdapted Interaction Design, Expert Systems with Applications, vol. 12(2), pp. 225-245. Akoumianakis, D., Stephanidis, C. [1997b] Supporting user adapted interface design: The USE-IT system, International Journal of Interacting with Computers, vol. 9(1), pp. 73-104. Antona M, Burzagli L.,Emiliani P.L., Stephanidis C.[2007] ‖Ambient Intelligence and implications for people with disabilities. The ISTAG scenarios: a case study‖, in Towards an Inclusive Future, Roe P. (Ed.), Published by COST, Brussels, pp. 158 – 187. 112 Pier Luigi Emiliani Billi, M., Burzagli, L., Gabbanini, F., Graziani, P. & Palchetti, E. [2004] ‗The Use of Current Content Management Systems for Accessibility‘, in Klaus Miesenberger; Joachim Klaus; Wolfgang Zagler & Arthur Karshmer, ed., ―Computers Helping People with Special Needs‖, Springer, 331-338. Ducatel, K.; Bogdanowicz, M.; Scapolo, F.; Leijten, J. & Burgelman, J. C. [2001] Scenarios for ambient intelligence in 2010, Technical report, Information Society Technologies Programme of the European Union Commission (IST). Emiliani P.L. [2001] ―Anyone, Anywhere Access to Community-Oriented Services‖, 1st International Conference on Universal Access in HumanComputer Interaction, New Orleans, pp. 803 – 807. Emiliani, P. L. & Stephanidis, C. [2005] Universal access to ambient intelligence environments: opportunities and challenges for people with disabilities, IBM Systems Journal 44(3), 605--619. European SeniorWatch Observatory and Inventory, [2002] Older People and Information Society, p. 34. Fink, J., Kobsa, A., & Nill, A. [1997] ―Adaptable and Adaptive Information Access for All Users, Including the Disabled and Elderly‖, In A. Jameson, C. Paris, & C. Tasso (Eds.), Proceedings of the 6th International Conference on User Modelling (UM '97), Sardinia, Italy (pp. 171-173), New York: SpringerVerlag. Friedewald, M. et.al. (ed.), [2006] Safeguards in a World of Ambient Intelligence (SWAMI), Deliverable D1. IST, 6th Framework Programme. Kobsa, A., & Pohl, W. [1995] The user modelling shell system BGP-MS, User Modelling and User-adapted interaction, 4 (2), 59-106. Kouroupetroglou G., Viglas C., Anagnostopoulos A., Stamatis C., Pentaris F., [1996] ―A novel Software Architecture for Computer-based Interpersonal Communication aids‖, In the proceedings of 5th ICCHP‘96 International Conference on Computers and Handicapped People, Linz, Austria, pp. 715720. Lewis C. and Rieman J. [1993] Task-Centred User InterfaceDesign: A Practical Introduction, http://hcibib.org/tcuid/ Mynatt, E. D., Weber, G. [1994] ―Nonvisual presentation of graphical user interfaces: contrasting two approaches‖, in the Proceedings of the ACM Conference on Human Factors in Computing Systems (CHI ‘94) (pp. 166-172), Boston, Massachusetts, USA, New York: ACM Press. Petrie, H., Morley, S., McNally, P., O‘Neill, A-M., Majoe, D. [1997] ―Initial design and evaluation of an interface to hypermedia systems for blind users‖, In the Proceedings of Hypertext97, Southampton, UK, pp. 48-56, New York: ACM Press. Savidis, A., Akoumianakis, D., & Stephanidis, C. [2001] ―The Unified User Interface Design Method‖, in Stephanidis, C. (ed.), User Interfaces for All, Lawrence Erlbaum, ISBN 0-8058-2967-9. Inclusione nella Società dell‘Informazione 113 Savidis, A., Stephanidis, C. [1995a] ―Developing Dual User Interfaces for Integrating Blind and Sighted Users: the HOMER UIMS‖, 1995 ACM Conference on Human Factors in Computing Systems (CHI '95), Denver, USA, pp. 106-113. Savidis, A., Stephanidis, C. [1995b] ―Building non-visual interaction through the development of the Rooms metaphor‖, 1995 ACM Conference on Human Factors in Computing Systems (CHI '95), Denver, USA, pp. 244-245 (Companion Proceedings). Savidis, A., Stephanidis, C., Korte, A., Krispien, K., Fellbaum, K. [1996] ―A Generic Direct Manipulation in 3d-Auditory Environment for Hierarchical Navigation in Non-Visual Interaction‖, 2nd ACM-SIGCAPH Conference on Assistive Technologies (ASSETS '96), Vancouver, Canada, pp. 117-123. Savidis, A., Stephanidis, C., Akoumianakis, D. [1997] ―Unifying Toolkit Programming Layers: a Multi-Purpose Toolkit Integration Module‖, 4th Eurographics Workshop on Design, Specification and Verification of Interactive Systems (DSV-IS '97), Granada, Spain, pp 177-192. Savidis, A., Stephanidis, C., [1997b] ―Agent Classes for Managing Dialogue Control Specification Complexity: A Declarative Language Framework‖, HCI International '97, San Francisco, USA, pp. 461-464. Savidis, A., Stephanidis, C. [1998a] The HOMER UIMS for Dual User Interface Development: Fusing Visual and Non-visual Interactions, International Journal of Interacting with Computers. Savidis, A., Stephanidis, C. [1998b] The HOMER UIMS for Dual User Interface Development: Fusing Visual and Non-visual Interactions, International Journal of Interacting with Computers. Savidis, A., Stergiou, A., Stephanidis, C., [1997] ―Generic containers for metaphor fusion in non-visual interaction: The HAWK Interface toolkit‖, in the Proceedings of the Interfaces '97 Conference, Montpellier, France,, pp. 194196. Savidis, A., Vernardos, G., Stephanidis, C. [1997] ―Embedding Scanning Techniques Accessible to Motor-Impaired Users in the WINDOWS Object Library‖, HCI International '97, San Francisco, USA, pp. 429-432. Stephanidis, C. [1995a] ―Towards User Interfaces for All: Some Critical Issues‖, HCI International '95, Panel Session User Interfaces for All - Everybody, Everywhere, and Anytime, Tokyo, Japan, pp. 137-142. Stephanidis, C., Mitsopoulos, Y. [1995] ―INTERACT: An interface builder facilitating access to users with disabilities‖, HCI International '95, Tokyo, Japan,, pp. 923-928. Stephanidis, C., Savidis, A., Akoumianakis, D. [1997] ―Unified Interface Development: Tools for Constructing Accessible and Usable User Interfaces‖, Tutorial Notes 13, 7th International Conference on Human-Computer Interaction (HCI International ‘97), San Francisco, California, USA. 114 Pier Luigi Emiliani Stephanidis, C., Paramythis, A., Akoumianakis, D., & Sfyrakis, M. [1998] ―SelfAdapting Web-based Systems: Towards Universal Accessibility‖, 4th ERCIM Workshop on User Interfaces for All, Stockholm, Sweden, 17 pages. Stephanidis, C., Paramythis, A., Sfyrakis, M., Savidis, A. [2001] ―A Case Study in Unified User Interface Development: The AVANTI Web Browser, in Stephanidis, C. (ed.), User Interfaces for All, Lawrence Erlbaum, ISBN 08058-2967-9. Stephanidis, C., Savidis, A. [2001] Universal Access in the Information Society: Methods, Tools, and Interaction Technologies. Universal Access in the Information Society, Volume: 1, Issue: 1, June, pp. 40-55. Vanderheiden, G.C. [1998], Universal Design and Assistive Technology in Communication and Information Technologies: Alternatives or Complements?, Assistive Technology, Vol. 10.1, pp. 29-36. Pier Luigi Emiliani è direttore dell'Istituto di Fisica Applicata ―Nello Carrara‖ (IFAC) Consiglio Nazionale delle Ricerche. La sua attività di ricerca verte sulla teoria e le applicazioni dell'elaborazione digitale dei segnali e la tecnologia dell'informazione, e in particolare sul tema della progettazione universale: il design guidato dal principio della massima possibile accessibilità. É responsabile di numerosi progetti di ricerca e autore di oltre 160 pubblicazioni su riviste scientifiche, libri e conferenze internazionali. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Introduzione all’Ingegneria dell’Usabilità Roberto Polillo – Università degli Studi di Milano Bicocca [email protected] Abstract. In questo capitolo si riassumono i concetti principali dell‘ingegneria della usabilità per la progettazione di sistemi interattivi usabili. Dopo una introduzione alla nozione di progettazione centrata sull‘utente, si introduce la filosofia della progettazione e sviluppo per prototipi successivi osservando che, dopo il fallimento dei modelli cosiddetti ―a cascata‖ sviluppati dall‘ingegneria del software alcuni decenni fa, i modelli corretti sono, di necessità, modelli iterativi. Si esaminano quindi brevemente le principali attività presenti in un processo iterativo: la definizione dei requisiti di prodotto, la prototipazione, la valutazione. Requisiti, prototipazione e valutazione vengono esaminati per gli aspetti connessi alla progettazione centrata sull‘utente. Keywords: Ingegneria, Usabilità, Progettazione, Design, User Centered, Prototipazione, Valutazione, Test; 1. Progettazione Centrata sull’Utente Che cosa significa progettare Nella lingua italiana, e soprattutto nella pratica dell‘informatica, il termine progettare (con i suoi derivati: progetto, progettazione, progettista) vengono spesso utilizzati in modo impreciso. È quindi opportuno definirli con precisione. Nel vocabolario troviamo la seguente definizione: Progettare [dal francese projeter, dal latino proiectāre ―biasimare‖, poi ―esporre‖, intensivo di proǐcere, ―gettare avanti‖, composto di prō ―avanti‖ e iăcere ―gettare‖] : 1. Immaginare, ideare qualcosa e studiare il modo di attuarla; 2. Ideare la costruzione di un edificio, di 116 Roberto Polillo una struttura, di una macchina, ecc., compiendo i relativi calcoli e disegni per la sua realizzazione1. Si parte da un esame della situazione attuale (ciò che è), per riconoscerne i difetti o i limiti e, sulla base delle possibilità offerte dalla tecnologia (ciò che potrebbe essere), si concepisce la situazione futura (ciò che vogliamo che sia, Figura 1). Progettazione è quindi un‘attività di natura sia intellettuale che pratica: non basta una ―visione‖ del futuro desiderato, ma occorre anche definire tutti i dettagli che ne permetteranno la realizzazione. Figura 1. Che cosa significa progettare Progettare è, quindi, attività completamente diversa dal realizzare. Nello stesso vocabolario troviamo, infatti: Realizzare [dal francese réaliser, da réel ―reale‖, da cui dipende direttamente anche l‘inglese to realize]: 1. Rendere reale qualcosa attuandola praticamente; 2. … Realizzare è quindi un‘attività molto concreta (il termine deriva, in definitiva, dal latino res, che significa ―cosa‖): si parte da un progetto (il prodotto dell‘attività di progettazione) e lo si attua concretamente. Per esempio, a partire dal progetto di un edificio si organizza il cantiere per la sua costruzione, e lo si costruisce. 1 Vocabolario della lingua italiana di N.Zingarelli, ed. Zanichelli, 2002 Introduzione all‘Ingegneria dell‘Usabilità 117 Nella pratica corrente, soprattutto in informatica, il termine progettare viene spesso usato in modo impreciso, per ricomprendere non soltanto le attività di progettazione in senso proprio, ma anche la successiva realizzazione. Così, per progetto non si intende solo il risultato della progettazione, come sarebbe corretto (ancora dal vocabolario: ―progetto: insieme di calcoli, disegni, elaborati necessari a definire inequivocabilmente l‘idea in base alla quale realizzare una qualsiasi costruzione‖), ma spesso, in modo più ampio, tutte le attività connesse allo sviluppo di un sistema, dalla progettazione alla sua realizzazione concreta. Molto usato in questo contesto è anche il termine inglese design. Il verbo to design significa, semplicemente, ―progettare‖. A confondere ulteriormente le cose, tuttavia, questa parola viene spesso usata, dagli italiani, con sfumature diverse. Per esempio, quando usiamo il termine industrial design (che significa ―progettazione industriale‖) a volte intendiamo, implicitamente, sottolineare i valori di natura estetica o formale dei prodotti della progettazione. Quando diciamo design italiano vogliamo spesso sottolineare la stessa cosa. Nel seguito, il termine progettazione verrà usato in modo coerente con il suo significato etimologico, e il termine design verrà usato come sinonimo di progettazione. Progettare l’interazione La progettazione di sistemi usabili2 richiede un drastico cambiamento di mentalità rispetto all‘approccio di progettazione tradizionale. Nella progettazione tradizionale, l‘oggetto principale dell‘attenzione è il sistema da progettare (Figura 2 A). Il processo di progettazione parte dalla definizione dei suoi requisiti funzionali, cioè dalla identificazione delle funzionalità che esso deve fornire al 2 In questo capitolo non discutiamo la nozione di usabilità, che sarà meglio definita nel Capitolo 4, Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente. Ricorderemo, soltanto, che lo standard ISO 9241 definisce la usabilità come ―la efficacia, efficienza e soddisfazione con cui determinati utenti possono raggiungere determinati obiettivi in determinati contesti d‘uso.‖ Dove per efficacia si intende ―l‘accuratezza e completezza con cui gli obiettivi vengono raggiunti‖, per efficienza ―le risorse spese per ottenere tali risultati‖ e per soffisfazione ―il comfort e la accettabilità del sistema‖ 118 Roberto Polillo suo utente, che vengono quindi descritte in dettaglio in un documento di specifiche funzionali, a partire dal quale il sistema viene progettato e quindi realizzato. In questo approccio, l‘utente del sistema ha un ruolo, tutto sommato, abbastanza marginale: il progettista concentra la sua attenzione sulle funzionalità, e sugli aspetti tecnici connessi alla loro realizzazione, per arrivare a soddisfare le specifiche con un rapporto costo/qualità accettabile. Figura 2. Dalla dell‘interazione progettazione tradizionale alla progettazione Se l‘obiettivo è la progettazione di un sistema usabile, questo approccio non funziona. Il progettista dovrà porre la sua attenzione, in primo luogo, sull‘utente (Figura 2 B), e dovrà studiarne le caratteristiche, le abitudini e le necessità in relazione all‘uso del sistema. Dovrà preconfigurare i vari contesti in cui il sistema verrà utilizzato, e i suoi diversi casi d’uso; dovrà analizzare in dettaglio i compiti che l‘utente svolgerà con il sistema. Secondo questo approccio, il compito del progettista non sarà più semplicemente quello di progettare le funzioni del sistema, ma quello di progettare l’interazione fra il sistema e il suo utente (o i suoi utenti), come raffigurato in Figura 2 C. Si parla, così, di interaction design e, per sottolineare che Introduzione all‘Ingegneria dell‘Usabilità 119 il punto di partenza è l‘utente, di progettazione centrata sull’utente (in inglese, user centered design o, semplicemente, UCD). L‘UCD è un approccio alla progettazione che produce risultati completamente diversi da quelli ottenuti con l‘approccio tradizionale. Questo è un punto di importanza fondamentale, che deve essere ben compreso. L‘esperienza nella didattica dell‘UCD insegna che, molto spesso, i progettisti con un background tecnico (per esempio, i progettisti di software) tendono a sottovalutare l‘impatto di un approccio user-centered sui risultati del loro lavoro. La raccomandazione di partire dall‘analisi dell‘utente e dei suoi bisogni viene considerata del tutto ovvia, e quindi non meritevole di particolari riflessioni e approfondimenti. Ma non è così. Se non si comprende il senso profondo contenuto in questo approccio, è facile tornare alle vecchie abitudini, e progettare non interazioni, ma funzioni, a scapito della usabilità del prodotto finale. Un esempio emblematico è costituito dai sistemi audio-video presenti in quasi tutte le case. Si tratta di sistemi realizzati collegando fra loro componenti diversi, con un approccio di tipo modulare: un amplificatore, un lettore di DVD, uno schermo televisivo, un sistema di altoparlanti, un decoder, e così via. Ogni componente offre un insieme molto articolato di funzioni, controllabili sia da un pannello di controllo che da un telecomando. L‘utente ha quindi la possibilità di controllare singolarmente ciascuno di questi componenti. L‘approccio, dal punto di vista ingegneristico, sembra perfetto: la modularità permette di connettere componenti di vario tipo, anche di produttori diversi, permettendo all‘utente di configurare il sistema in modo molto flessibile, a seconda delle sue particolari esigenze. Ma, come tutti noi sappiamo per esperienza diretta, la usabilità di questi sistemi è bassissima. La Figura 3 mostra il sistema audio-video di chi scrive, costituito da schermo televisivo, amplificatore, decoder, player DVD, VHR, giradischi. Il sistema prevede l‘uso di ben 5 telecomandi separati (il giradischi, di vecchia produzione, non ha telecomando), dotati, complessivamente, di poco più di 200 pulsanti (sic!). A questi si aggiungono una settantina di pulsanti e manopole varie, presenti sui pannelli frontali dei vari componenti. Per ―semplificare‖ la situazione, è stato fornito un ulteriore sesto telecomando ―universale‖, in grado di simulare tutti gli altri (con altri 48 pulsanti, che por- 120 Roberto Polillo ta il totale a circa 320…). Poiché però questo non è in grado di simulare tutte le funzioni degli altri apparecchi, ma solo un sottoinsieme alquanto limitato, i cinque telecomandi specializzati non possono essere eliminati: ad essi si dovrà ricorrere per funzioni particolari (di uso non frequente, ma comunque necessarie). Il sistema è corredato di 7 manuali di istruzioni (uno per ogni componente, più uno per il telecomando universale). Figura 3. Un sistema audio-video casalingo Se ora analizziamo le necessità degli utenti di questo sistema, vediamo una situazione completamente diversa da quella che sembra avere ispirato i progettisti. Le funzioni di interesse per gli utenti non vengono fornite dai singoli componenti modulari, ma dalla loro cooperazione. La complessità combinatoria dei comandi utili risulta enormemente ridotta rispetto a quella potenzialmente offerta dagli oltre 300 pulsanti: le sequenze significative sono poche e ricorrenti. Per vedere il telegiornale della sera, dovrò accendere il decoder, l‘amplificatore e lo schermo televisivo, connettere in qualche modo schermo, amplificatore e decoder e selezionare il canale televisivo desiderato. Poi dovrò regolare il volume. Questa sequenza corrisponde a un singolo caso d’uso molto frequente. Nel caso di chi Introduzione all‘Ingegneria dell‘Usabilità 121 scrive corrisponde, anzi, al caso d‘uso di gran lunga più frequente, quello che, da solo, giustifica l‘acquisto dell‘impianto. Altri casi d‘uso corrispondono alla visione di un DVD e all‘ascolto di un CD musicale. Ecco che, in una progettazione centrata sull‘utente, il sistema avrebbe potuto essere ridotto a un numero molto limitato di comandi base (qualche unità) ai quali aggiungere alcuni comandi eseguiti molto di rado (per le regolazioni iniziali o durante gli sporadici interventi di manutenzione), che avrebbero potuto essere resi visibili soltanto ai tecnici del fornitore. Questo esempio potrebbe essere ulteriormente approfondito considerando il contesto d‘uso, per esempio considerando la posizione fisica degli apparati in relazione alla dislocazione più frequente dell‘utente durante l‘uso dei telecomandi nelle varie situazioni: dove mi trovo quando accendo la TV per guardare il telegiornale? Ci sono delle barriere architettoniche che intercettano i segnali del telecomando da tale posizione? Tutte queste analisi (la cui mancanza, nel caso specifico, ha peggiorato significativamente la usabilità del sistema ed ha, di fatto, generato svariati interventi di modifica successivi all‘acquisto) non sono state fatte – e non vengono normalmente mai fatte - in fase di progettazione. Un approccio centrato sull‘utente nella fase di progettazione di questo sistema avrebbe prodotto una configurazione molto diversa dell‘impianto. Si dovrebbe partire dall‘utente nella progettazione di qualsiasi strumento, elementare o complesso: una scopa, un frigorifero, il cruscotto di un jumbo jet. In particolare, questo approccio è fondamentale nella progettazione degli oggetti interattivi che hanno una significativa componente software, come nel caso del nostro esempio, perché è in questi casi che il rischio di creare complessità inutili è più alto. Le competenze richieste a un interaction designer (il progettista dell‘interazione) sono molto diverse – perché più ampie – da quelle richieste a un system designer (il progettista dei sistemi). Mentre quest‘ultimo dovrà possedere essenzialmente competenze di natura progettuale (i metodi e gli strumenti da utilizzare nelle attività di progettazione) e tecnologica (nel dominio cui appartiene il sistema da progettare), il primo dovrà essere anche in grado di analizzare e comprendere le caratteristiche e i bisogni dell‘utente per definire, a partire da queste, le modalità d‘uso e di interazione più opportune. 122 Roberto Polillo Questo richiede competenze significative, ancora oggi raramente fornite nel curriculum formativo di un progettista. Infatti, i sistemi odierni sono sempre più complessi, e l‘interazione non è soltanto quella ―fisica‖, (postura, sforzo, illuminazione, ecc.) considerata dalla ergonomia tradizionale ma è – soprattutto – di tipo cognitivo. L‘ergonomia diventa, quindi, ergonomia cognitiva, e il compito dell‘interaction designer è anche quello di conoscere e assecondare i meccanismi cognitivi coinvolti nell‘interazione utente-sistema, in modo che ne risultino sistemi gradevoli e facili da usare. L‘interaction design è quindi una disciplina intrinsecamente multidisciplinare. Data la complessità e l‘articolazione dei problemi e delle competenze necessarie per risolverli in modo soddisfacente, la progettazione di sistemi interattivi usabili richiede oggi sempre più spesso team di progettisti di formazione e competenze diverse e complementari, nelle discipline più varie: ergonomia, psicologia, linguistica, sociologia, marketing e, naturalmente, informatica e scienze della progettazione. Livelli di maturità della progettazione La discussione precedente suggerisce che system centered design e user centered design non dovrebbero essere considerati due approcci alternativi, fra i quali scegliere a seconda delle situazioni. User centered design può, in effetti, essere considerato un approccio più maturo, che ricomprende al suo interno le problematiche tecniche del system centered design, ma le inserisce in un contesto più ampio, che ci permette di comprendere in modo molto più approfondito le finalità del sistema. Possiamo, in effetti, collocare le attività di progettazione a differenti livelli di maturità: Primo livello: il prodotto funziona. A questo livello ci si accontenta che le funzioni previste nel sistema siano operative, senza errori di funzionamento. Questo è il primo livello di maturità, in cui ci si accontenta di disporre di uno strumento anche rudimentale, ma che permetta di realizzare alcuni compiti ritenuti importanti. È il livello in cui sono superate le difficoltà tecniche basilari, e si accetta di utilizzare il sistema anche se, per questo, sono necessari particolari accorgimenti o limitazioni. Introduzione all‘Ingegneria dell‘Usabilità 123 Secondo livello: il prodotto fornisce le funzioni richieste. Non soltanto il prodotto funziona, ma ci offre tutte le funzionalità ritenute necessarie. L‘enfasi è posta sulla completezza delle funzionalità offerte, e sulla corretta esecuzione delle loro prestazioni. È il livello di maturità della progettazione centrata sul sistema, come nell‘esempio del sistema audio-video. Terzo livello: il prodotto è facile da imparare e da usare . Questo è il livello della progettazione centrata sull‘utente. Non solo il prodotto funziona e offre tutte le funzioni richieste dagli utenti, ma le organizza in modo adeguato rispetto alle tipologie e alle necessità dei suoi utenti, nei diversi contesti d‘uso. Ma il progettista dovrebbe riuscire a superare anche questo livello: si può considerare infatti un quarto livello di maturità: Quarto livello: il prodotto è invisibile durante l‘uso. Il prodotto funziona, fornisce tutte le funzioni richieste, è usabile e, inoltre, il suo uso si integra in modo così armonico e poco intrusivo con i compiti che ci aiuta ad eseguire che, mentre lo usiamo, non ci accorgiamo di usarlo. In altre parole, ci permette di concentrarci sul compito e non sullo strumento che diventa, per così dire, invisibile. Per esempio, pensiamo a una penna: quando la usiamo per scrivere una lettera, siamo concentrati sul testo della lettera (quindi sul compito) e non sullo strumento che usiamo per scriverlo. La penna è invisibile, e ne percepiamo la presenza solo quando qualcosa non va, per esempio quando l‘inchiostro termina o il pennino si spezza. In questi casi, l‘attenzione viene sottratta al compito e rivolta allo strumento. Un altro esempio può essere la postazione di guida di un‘automobile. Durante la guida, l‘attenzione di un guidatore esperto, se i comandi dell‘auto sono ben progettati (e la lunga esperienza fa sì che questo sia oggi il caso più comune) sarà rivolta alla strada e non ai comandi stessi, che manovrerà in modo pressoché automatico, o comunque non a livello consapevole. 124 Roberto Polillo L’ingegneria della usabilità L’ingegneria della usabilità (in inglese, usability engineering) è la disciplina che studia le tecniche, i metodi e i processi che possono essere utilizzati per progettare e sviluppare sistemi usabili. Il termine è stato introdotto nel 1986 da alcuni progettisti della Digital Equipment Corporation, in un‘accezione che enfatizzava fortemente un approccio quantitativo alla definizione degli obiettivi di usabilità nella progettazione: ―Without measurable usability specifications, there is no way to determine the usability needs of a product, or to measure whether or not the finished product fulfills those needs. If we cannot measure usability, we cannot have a usability engineering (Good, et al., 1986).‖ La parola ingegneria vuole sottolineare l‘approccio pragmatico di questa disciplina, che si propone di dare indicazioni concrete e operative a chi abbia il compito di progettare e sviluppare sistemi interattivi. Inizialmente l‘ingegneria della usabilità si è focalizzata sul design delle interfacce utente. Oggi, questo termine viene usato in un‘accezione più ampia, che comprende la totalità delle pratiche utilizzate nel processo di progettazione e sviluppo di un sistema, a partire dalla raccolta e analisi iniziale dei requisiti. Al di là delle specifiche definizioni ed enfasi date dai diversi autori negli anni, i principi cardine della disciplina possono considerarsi ben consolidati fin dalla metà degli anni 80. Ne tratteremo ampiamente nel resto di questo capitolo. In estrema sintesi, essi si possono formulare come segue: 1. focalizzazione sull‘utente, all‘inizio e durante tutto il processo di progettazione 2. prove con l‘utente all‘inizio e durante tutto il processo di progettazione, con analisi qualitative e misure quantitative Introduzione all‘Ingegneria dell‘Usabilità 3. 125 modello di progettazione e sviluppo iterativo, per prototipi successivi3. Ingegneria e creatività Il lavoro del progettista non si esaurisce nell‘applicazione dei metodi e best practice suggeriti dalla ingegneria della usabilità. Il lavoro del progettista è anche, e in molti casi in misura rilevante, lavoro creativo. Costruire il ―ponte‖ illustrato in Figura 1 fra ciò che esiste e ciò che vogliamo che esista richiede non soltanto una accurata conoscenza della situazione attuale, dell‘utente e dei suoi bisogni o desideri (spesso inconsapevoli o latenti), ma anche visione e ispirazione e, a volte, un po‘ di fortuna: nei prodotti del genio, molto spesso, l‘aiuto del caso è determinante. Innanzitutto, la conoscenza e l‘analisi delle soluzioni di progettazione adottate in altri progetti costituisce una fonte importante di spunti per l‘interaction designer. Molte soluzioni progettuali hanno infatti una struttura o, come si dice, un design pattern - comune, che poi si incarna e si specializza nei diversi ambiti applicativi. Più precisamente, un design pattern è una soluzione generale a un problema di progettazione che si ripropone in molte situazioni, anche diverse fra loro. Non è una soluzione ―finita‖, ma piuttosto un modello, un template da adattare alla specifica situazione, a cura del progettista. Il concetto è nato in architettura alla fine degli anni 70, per opera dell‘architetto Christopher Alexander che, affascinato dalla molteplicità e varietà di soluzioni di progetto inventate nella storia dell‘architettura, si pose l‘obiettivo di raccogliere un catalogo organizzato dei modelli utilizzati, da comporre poi in modo opportuno nella realizzazione di nuovi progetti. Alexander inventò anche un linguaggio, parzialmente formalizzato, per la descrizione di questi pattern (Alexander, 1979). Un esempio di pattern in architettura, corredato di un esempio e di una descrizione a parole, è riportato in Figura 44. 3 Questi principi sono stati per la prima volta proposti in (Gould & Lewis, 1985), e parzialmente riformulati in successivi articoli degli autori. Per una analisi storica e critica dei tre principi, nell‘ottica odierna, si veda (Cockton, 2008). 4 L‘esempio in figura è tratto da (Alexander, et al., 1977). Pattern 133 (―Staircase as a stage‖) descritto a pag.637 e segg. 126 Roberto Polillo Figura 4. Un design pattern in architettura Il concetto di design pattern è stato applicato all‘ingegneria del software dalla fine degli anni 80 e, successivamente, all‘interaction design, nel cui ambito esistono oggi numerose collezioni di pattern, opportunamente organizzati e documentati, utilizzabili in diversi ambiti progettuali (per esempio, la progettazione di siti web). Nella progettazione, tuttavia, non ci si può limitare a un ―remix‖ di soluzioni già applicate, opportunamente adattate. Ciò avviene di frequente, ma non sempre. A volte nascono prodotti totalmente innovativi, che ridefiniscono il mercato e i comportamenti degli utenti. Lo studio dei meccanismi che stimolano la creatività, e dei processi che favoriscono l‘innovazione potrebbe, a ben vedere, far parte della disciplina dell‘ingegneria della usabilità, e sono comunque un importante argomento di riflessione per tutti coloro che si occupano di progettazione. Non è questa la sede per discutere questi temi. Ci limiteremo a ricordare alcune tecniche che sono state storicamente molto importanti nella evoluzione degli artefatti interattivi, ed hanno suggerito soluzioni di progetto che hanno determinato la natura di molti strumenti con i quali conviviamo quotidianamente: Introduzione all‘Ingegneria dell‘Usabilità 127 l‘utilizzo della mimesi, che consiste nel progettare oggetti virtuali che riproducono in ogni dettaglio oggetti reali ampiamente diffusi. Oggi molti oggetti vivono, per così dire, due vite: una vita fisica e una vita sullo schermo del computer. La Figura 5 mostra la versione virtuale di un famoso modello di calcolatore scientifico della Hewlett Packard, diffusissimo fra gli ingegneri, che ne riproduce esattamente (su una vecchio modello di Macintosh) il funzionamento in tutti i dettagli. Figura 5. Il calcolatore scientifico dell‘HP, nella sua versione virtuale l‘utilizzo del procedimento metaforico, che consiste, in sostanza, nel ―mescolare fra loro‖ campi semantici differenti, trasferendo proprietà e concetti propri di un campo semantico ad un altro. Questo procedimento è stato utilizzato molto frequentemente nell‘interaction design. Basti pensare alle nozioni di menu, di finestra, di desktop, di bottone nei personal computer. In tutti questi casi, e in molti altri ancora, dal trasferimento di concetti noti e propri 128 Roberto Polillo di un certo dominio, a domini applicativi del tutto diversi, sono nati meccanismi nuovi, ora entrati nell‘uso comune. La potenza dell‘associazione metaforica può essere illustrata dal semplice esempio di Figura 6, tratto da Microsoft Word. Il semplice menu di quadrati colorati sarebbe incomprensibile senza la icona dell‘evidenziatore, che lo descrive e ne suggerisce l‘uso. Basta la semplice presenza di questa icona a suggerire in modo inequivocabile possibili usi del menu in questione: l‘intero campo semantico associato all‘evidenziatore fisico – un oggetto entrato da tempo nell‘uso quotidiano e quindi ben noto – viene trasferito al menu. Figura 6. L‘evidenziatore di Microsoft Word l‘utilizzo della ibridazione, che consiste nel costruire un oggetto nuovo mescolando e integrando fra loro aspetti e funzioni di più oggetti diversi. Anche in questo caso, gli esempi sono numerosi. La Figura 7 mostra un oggetto virtuale ibrido di Windows, costruito a partire da un orologio, un calendario, una dialogue box Windows e una struttura a tab (a sua volta metaforicamente derivata dalle comuni cartellette pensili reali). Introduzione all‘Ingegneria dell‘Usabilità 129 Figura 7. Orologio/calendario in Windows Questi brevi cenni bastino a suggerire l‘ampiezza e la portata dello studio dei meccanismi alla base della creatività progettuale, che in questa sede non verrà ulteriormente approfondita. 2. Modelli di Progettazione e Sviluppo Il modello “a cascata” Da molti anni si è consolidata una disciplina denominata ingegneria del software, il cui obiettivo è lo sviluppo di metodi e tecniche per la realizzazione di sistemi software di alta qualità senza sprechi. Questa disciplina, nata negli Stati Uniti una quarantina di anni fa sulla spinta dei grossi progetti software di origine governativa, si è occupata, tradizionalmente, di sistemi software complessi, che coinvolgono numerose persone e che richiedono, pertanto, approcci molto strutturati. Un tempo, quando la disciplina dell‘ingegneria del software era agli esordi, si pensava che per realizzare un progetto di successo fosse necessario procedere per fasi logiche successive, ognuna delle quali ponesse le basi per la fase successiva. Si partiva dalla raccolta dei requisiti, poi si definivano le specifiche del sistema da realizzare. Quindi si progettava l‘intero sistema ―sulla carta‖ e lo si codifi- 130 Roberto Polillo cava nel linguaggio di programmazione prescelto. Lo si collaudava e infine lo si rilasciava. Si passava alla fase seguente solo quando la fase precedente era completata e i suoi ―prodotti‖ approvati formalmente dal committente. Si pensava che in un processo ordinato, condotto da professionisti e guidato da un capo progetto esperto, non si dovesse mai retrocedere. Per descrivere questo processo viene usata di solito la metafora della cascata: come in una cascata l‘acqua scorre soltanto verso il basso e non torna mai indietro, così dalla fase iniziale di un progetto si arriva, passo passo, al rilascio del sistema senza ritornare mai sui passi precedenti (waterfall model,Figura 8). Figura 8. Processo di progettazione e sviluppo tradizionale (modello "a cascata") Questa impostazione sembra molto sensata, quasi ovvia: per costruire qualcosa (una casa, un ponte, un‘automobile, un sito web) bisogna prima decidere che cosa si vuole ottenere e descriverlo dettagliatamente: poi si passerà alla sua realizzazione, quindi al collaudo finale e alla consegna. Eppure ci si accorse ben presto che non funzionava sempre così: nella pratica, in nessun progetto reale, anche se ben gestito, le cose procedevano in maniera così semplice e lineare. Si rendeva spesso necessario ritornare sui propri passi, per ri- Introduzione all‘Ingegneria dell‘Usabilità 131 vedere e modificare decisioni già prese, anche se erano state ritenute assolutamente consolidate. Le cause potevano essere molteplici: il committente, in fase avanzata di realizzazione, richiedeva delle varianti che modificavano le specifiche già approvate. Oppure i progettisti scoprivano difficoltà tecniche inattese, che consigliavano di cambiare rotta. Oppure, ancora, magari nella fase di rilascio del sistema, i primi utenti segnalavano delle difficoltà nell‘uso che non erano state previste da nessuno e richiedevano cambiamenti consistenti. Tutti questi rifacimenti, non previsti nella pianificazione iniziale, producevano costi aggiuntivi anche considerevoli. I budget inizialmente assegnati venivano immancabilmente disattesi. Per molto tempo, queste difficoltà furono imputate a una cattiva conduzione dei progetti. Era compito di un buon capo progetto, si diceva, tenere a freno le richieste dei committenti e degli utenti e far loro comprendere l‘importanza di controllare accuratamente le specifiche e di accettare che, una volta approvate, queste dovessero essere considerate ―congelate‖ fino al rilascio del sistema. Con la maturazione della disciplina dell‘ingegneria del software, e dopo molti anni e molti fallimenti, si capì che le cose non funzionavano, perché non possono funzionare così. Ci si rese conto che nessun sistema complesso può essere realizzato con il modello della cascata, perché è impossibile specificarne tutti gli aspetti all‘inizio e poi realizzarlo senza modificare nulla. Le ragioni di questa impossibilità sono sia di carattere pratico, sia di carattere teoricoconcettuale. Dal punto di vista pratico, è molto difficile prevedere ―sulla carta‖ tutti gli aspetti di un sistema complesso, che non esiste ancora. Possiamo (e dobbiamo) tentare di farlo, ma inevitabilmente non saremo in grado di anticipare tutti i problemi che incontreremo durante la realizzazione, per risolvere i quali potremo essere costretti a cambiare rotta. Queste difficoltà non si verificano soltanto nel software, ma in progetti di ogni tipo. Pensiamo, per esempio, al progetto di ristrutturazione di un appartamento. Anche in questo caso inizieremo con una descrizione ―sulla carta‖ delle opere murarie e degli impianti da realizzare. Se il modello a cascata funzionasse bene, giunto a questo punto, il committente potrebbe disinteressarsi del cantiere e affidarlo a un buon direttore dei lavori, che gli consegne- 132 Roberto Polillo rà alla fine l‘appartamento realizzato esattamente come da specifiche. Chi ha fatto questa esperienza, tuttavia, sa bene che le cose non funzionano così. Sa che, durante i lavori, si incontrano difficoltà non previste e non prevedibili. Per risolvere queste difficoltà può essere necessario cambiare le specifiche iniziali e realizzare un appartamento diverso, per qualche aspetto, da quello progettato inizialmente. Una soletta si rivela poco resistente ed occorre rinforzarla con una putrella. Questa impedisce il passaggio dei tubi dell‘impianto di riscaldamento dove era previsto: di conseguenza, il calorifero dovrà essere installato in un posto diverso. Oppure, a lavori avviati, ci accorgiamo che il vicino ha l‘abitudine di ascoltare musica fino a tardi e decidiamo di insonorizzare la parete con uno strato di materiale isolante. Questo modifica, anche se solo di pochi centimetri, le misure della stanza e bisogna rivedere alcune decisioni sulla posizione dei mobili. E così via: le varianti in corso d‘opera potrebbero essere diecine. Non necessariamente dovute ad errori di progettazione, ma a situazioni oggettive che non potevano essere previste e che impongono delle modifiche senza le quali il risultato non sarebbe accettato dal committente. Il direttore dei lavori non potrà certo rifiutarsi di realizzarle, appellandosi al progetto iniziale regolarmente approvato. Il ciclo compito-artefatto C‘è anche un motivo più profondo, di natura teorico-concettuale, che fa sì che il modello a cascata non possa funzionare. Questo motivo è racchiuso in un principio generale, che possiamo enunciare nel seguente modo: Ogni nuovo strumento cambia i bisogni del suo utilizzatore e genera nuovi bisogni, che suggeriscono modifiche non previste allo strumento stesso. In altre parole, per soddisfare le nostre necessità, produciamo strumenti che, a loro volta, generano nuovi bisogni. Costruiamo allora nuovi strumenti, o modifichiamo quelli già disponibili, in un ciclo evolutivo infinito, al quale è stato dato il nome di task-artifact cycle (Carrol, et al., 1991). Questo principio vale per ogni strumento, semplice o complesso, dal cacciavite al cruscotto di un jumbo jet, a un sistema informativo. Quando definiamo i requisiti di un Introduzione all‘Ingegneria dell‘Usabilità 133 prodotto che non esiste ancora e che vogliamo realizzare, lo facciamo tenendo conto di determinati bisogni insoddisfatti. Per ottenere questo risultato, noi progettiamo il prodotto ipotizzando degli scenari d‘uso che ci sembrano plausibili e realizzando quelle funzioni che, nelle nostre ipotesi, ci sembrano necessarie. Anche se siamo degli ottimi progettisti, non potremo mai essere certi di avere immaginato correttamente come i nostri utenti utilizzeranno effettivamente il sistema negli specifici contesti d‘uso e come questo modificherà i loro bisogni. Per verificare la correttezza delle nostre ipotesi, dobbiamo prima realizzare il prodotto, farlo usare agli utenti e osservare come lo utilizzeranno effettivamente, nelle diverse specifiche situazioni. Ci potremo allora accorgere che gli scenari immaginati corrispondono quasi, ma non completamente, all‘uso effettivo. Ma soprattutto potrà capitare che l‘interazione fra utente e prodotto faccia nascere nuovi bisogni, in modi imprevisti. Tutto questo ci suggerirà di modificare il prodotto: senza queste modifiche, i nostri utenti non saranno soddisfatti. In sostanza, non è possibile valutare completamente l‘adeguatezza dello strumento ai suoi utenti, prima che questi lo usino effettivamente. Ecco perché il modello a cascata tradizionale non può funzionare. Esso prevede che gli utenti siano coinvolti nel processo solo in due momenti: all‘inizio, per contribuire a requisiti e specifiche e alla fine, dopo il rilascio (o tutt‘al più per il collaudo). Tuttavia, nella stesura delle specifiche iniziali, anche gli utenti, come i progettisti, non possono far altro che ipotizzare le caratteristiche necessarie. Alla fine, quando la correttezza di queste assunzioni può essere verificata in concreto, è troppo tardi per intervenire. Modelli iterativi Se il modello a cascata è inadeguato, ci serve un modello diverso, che coinvolga gli utenti fin da subito, non solo nella stesura di requisiti e specifiche, ma anche, e soprattutto, per sperimentare l‘uso di versioni preliminari del sistema ed aiutarci, con le loro reazioni e le loro indicazioni, a correggere il tiro, in un processo di prove e aggiustamenti successivi. 134 Roberto Polillo L‘idea è quella di procedere con la realizzazione di una serie di prototipi, via via più vicini al sistema finale. Si inizia con un prototipo preliminare, realizzabile a costi ridotti, e lo si sottopone all‘utente, che prova ad usarlo. Questa prima prova sarà normalmente limitata, perché il sistema sarà molto semplificato, con funzioni realizzate solo parzialmente, o addirittura ―simulate‖ in qualche modo. Tuttavia ci permetterà di verificare alcune assunzioni di partenza ed eventualmente di aggiustare il tiro. Un po‘ come quando un pittore schizza un bozzetto prima di dipingere il quadro. Si realizza quindi un nuovo prototipo, sempre incompleto, ma un po‘ più somigliante al sistema finale e lo si sottopone ancora alla prova degli utenti, e così via, per approssimazioni successive, fino alla conclusione del progetto. In sostanza, le prove d’uso diventano parte integrante del processo di progettazione. La Figura 9 mostra una schematizzazione di questo modo di procedere. Figura 9. Processo di progettazione e sviluppo per prototipi successivi Ovviamente, nelle varie iterazioni, le diverse attività avranno pesi diversi. Per esempio, al primo giro, dopo avere specificato i requisiti, ci si concentrerà sulle attività di progettazione, mentre le attività di realizzazione del primo prototipo richiederanno sforzi limitati. Il primo prototipo sarà infatti, in genere, piuttosto rudimentale: in molti casi, soltanto un mock-up con il quale effettuare un primo Introduzione all‘Ingegneria dell‘Usabilità 135 confronto con gli utenti e, naturalmente, con il committente (effettuato nella fase di test). Al giro successivo, sulla base di questo confronto, apporteremo le necessarie modifiche ai requisiti e al progetto, e realizzeremo un secondo prototipo più evoluto. In questo secondo giro, lo sforzo dedicato ai requisiti e alle attività di progettazione– se non sono stati evidenziati grossi problemi – sarà di solito piuttosto limitato (dovremo solo apportare alcuni ritocchi), mentre la realizzazione del secondo prototipo sarà molto più impegnativa. Anche il test effettuato al secondo giro, con un prototipo più evoluto, richiederà maggiori sforzi. E così via: all‘avanzare del progetto, in sostanza, lo sforzo complessivo si sposta progressivamente dalle fasi iniziali del ciclo tradizionale (requisiti e progettazione) alle fasi finali (test e rilascio). In pratica, tutte le attività rappresentate in Figura 9 vengono portate avanti ―in parallelo‖ per tutta la durata del progetto, ma l‘impegno dedicato a ciascuna di esse cambia nel tempo. L‘avanzamento del progetto non è più scandito dal passaggio da un‘attività alla successiva, ma dalla realizzazione dei diversi prototipi. Ad ogni iterazione un‘attività prevale sulle altre, ma tutte vengono comunque portate avanti, anche solo per apportare le modifiche rese necessarie dai test con gli utenti. Questa situazione è visualizzata nella Figura 10, che mostra, per un progetto ipotetico, l‘andamento nel tempo dell‘impegno di risorse (per esempio, il numero di persone impegnate contemporaneamente). Il processo di progettazione per prototipi successivi è il modello concettualmente corretto per la realizzazione di sistemi complessi: il prodotto si vede (anche se in modo parziale), fin dall‘inizio e viene perfezionato in modo incrementale, per aggiustamenti successivi le scelte effettuate possono essere sperimentate anticipatamente e si possono scartare quelle sbagliate. Non elimina, tuttavia, tutte le difficoltà: esiste il rischio che il processo diverga, a causa delle richieste di modifiche che nascono durante le attività di valutazione dei 136 Roberto Polillo vari prototipi, e quindi non è facile stimare tempi e costi di progetto a preventivo la fluidità dei requisiti e delle specifiche rende più difficile la comunicazione fra le persone coinvolte nel progetto (team di progetto, committente). Il modello iterativo, presentato in Figura 9 in modo del tutto generale, può essere precisato e perfezionato in vari modi, che in questa sede non è possibile analizzare. Nell‘ambito della ingegneria della usabilità assume una particolare autorevolezza e importanza la descrizione che ne dà lo standard ISO 13407, che ha proprio lo scopo, come si legge nella sua introduzione, di ―fornire una guida alle attività di progettazione centrata sull‘utente lungo il ciclo di vita dei sistemi interattivi basati su computer‖5. In questo standard, il modello di Figura 9 viene rappresentato come in Figura 10, e analiticamente descritto. Figura 10. Allocazione degli sforzi di progetto secondo il modello di progettazione e sviluppo per prototipi successivi 5 ISO 13407:1999, Human-centred design processes for interactive systems. Introduzione all‘Ingegneria dell‘Usabilità 137 Figura 11. Il processo di progettazione secondo la ISO 13407 Ovviamente, gli schemi di Figura 9 e di Figura 11 sono ancora troppo astratti per essere realmente utili in un progetto concreto. Infatti nulla ci dicono su come procedere in pratica. Quanti prototipi (e quindi quante iterazioni) dobbiamo realizzare? Quali obiettivi ci dobbiamo porre nella realizzazione e nella valutazione di ciascun prototipo? Come possiamo realizzarli a costi ridotti? Come possiamo tenere sotto controllo i costi complessivi del progetto? A queste domande non è possibile rispondere in generale, e cioè in modo indipendente dal tipo e dalle caratteristiche del sistema che dobbiamo realizzare. È, invece, possibile mettere a punto specifiche strategie per determinate classi di sistemi. Per esempio, nel caso dei siti web di medie dimensioni, si rivela molto utile organizzare il progetto in cinque successive macro-fasi di prototipazione, ciascuna finalizzata alla produzione di un prototipo destinato a valutare specifici obiettivi, e cioè: Primo prototipo (prototipo di navigazione): ha lo scopo di consolidare la struttura informativa e di navigazione del sito. 138 Roberto Polillo Secondo prototipo (prototipo di comunicazione): ha lo scopo di consolidare l‘impostazione grafica del sito e tutti gli aspetti relativi alla comunicazione. Terzo prototipo (prototipo funzionale): ha lo scopo di consolidare le funzioni interattive del sito. Quarto prototipo (prototipo editoriale): ha lo scopo di consolidare i contenuti informativi e la (eventuale) base dati del sito. Quinto prototipo (prototipo finale): ha lo scopo di valutare le prestazioni di funzionamento del sito nell‘ambiente di produzione finale6. 3. I Requisiti Che cosa sono i requisiti di prodotto È importante non confondere l‘attività di stesura dei requisiti con l‘attività di progettazione. Quando specifichiamo i requisiti di un prodotto, non stiamo progettando, ma stiamo ponendo dei vincoli all’attività di progettazione, che seguirà. In sostanza, lo scopo del documento non è quello di indicare che cosa deve essere realizzato, ma come e perché. Più precisamente, un requisito (dal latino requisitus, richiesto) è una proprietà richiesta, oppure desiderabile, del prodotto. Dalla sua formulazione, dovrebbe essere chiaro se il requisito esprime una proprietà ―obbligatoria‖, oppure soltanto ―suggerita‖ o ―auspicabile‖, per esempio, utilizzando, rispettivamente, il verbo deve, dovrebbe, oppure potrebbe, come negli esempi seguenti. Per esempio, per un sito web di e-commerce potremmo identificare, fra gli altri, i seguenti quattro requisiti: ―Il sito deve permettere all‘utente di inserire nel carrello d‘acquisto i prodotti di cui sta valutando l‘acquisto. Il carrello deve poter contenere almeno 15 prodotti contemporaneamente.‖ 6 A questo approccio è dedicato il libro: R.Polillo, Plasmare il Web (Apogeo, 2006), nel quale viene dettagliata una completa ―road-map‖ in sette fasi per la progettazione e sviluppo di siti di medie dimensioni (Polillo, 2006). Introduzione all‘Ingegneria dell‘Usabilità 139 ―Ogni scheda prodotto contenuta nel catalogo deve contenere una fotografia a colori del prodotto, il suo nome, il nome del produttore, il suo prezzo inclusivo di IVA e una descrizione sintetica ma completa, di 5 righe di testo al massimo.‖ ―L‘intero processo di acquisto di un prodotto dovrebbe richiedere al massimo 5 minuti.‖ Come si vede dagli esempi, i requisiti possono essere di vario tipo. Alcuni, detti requisiti funzionali (in inglese: functional requirements), descrivono le funzioni che il sistema deve realizzare (come nel primo esempio). Altri, detti requisiti non funzionali, descrivono proprietà che il prodotto dovrà possedere (come negli altri esempi). Lo scopo della definizione dei requisiti è individuarli e descriverli nel modo più specifico e meno ambiguo possibile. I requisiti vengono prodotti da persone che lavorano in stretto contatto con il committente per individuarne i bisogni in relazione al sistema da realizzare (o da migliorare, se si tratta di un redesign). Possono essere stesi direttamente dal progettista, o da altre persone, che non necessariamente saranno coinvolte nel progetto successivo. Il processo di definizione dei requisiti La fase di definizione dei requisiti può essere suddivisa in tre attività fondamentali, che possiamo chiamare esplorazione, organizzazione e revisione (Figura 12). Nella esplorazione (in inglese si usano i termini elicitation o discovery), le persone incaricate di produrre il documento di requisiti raccolgono il maggior numero possibile di informazioni sugli obiettivi e sulle necessità in relazione al sistema da costruire. Abbiamo usato il termine ―esplorazione‖ per segnalare che, nella pratica, spesso questi obiettivi e necessità sono noti allo stesso committente in forma piuttosto vaga. I consulenti avranno quindi il compito importante e delicato di ―esplorare‖ i diversi aspetti del problema, per mettere a fuoco o ―scoprire‖ bisogni e priorità. Come indicato nella Figura 12, le informazioni vengono raccolte da fonti diverse. In primo luogo, dal committente, cioè da colui che ha avviato il progetto e che ne costituisce il riferimento principale. In secondo luogo, dalle interviste con gli stakeholder del prodotto, cioè con tutti coloro che, in un modo o nell‘altro, hanno qualche interesse nel 140 Roberto Polillo prodotto, o la cui attività sarà influenzata, direttamente o indirettamente, da esso7. Infine, dall‘analisi dei prodotti concorrenti, ovvero quelli con i quali il prodotto in costruzione dovrà confrontarsi e competere. Se si tratta di un progetto di miglioramento di un prodotto preesistente, informazioni importanti saranno, ovviamente, ricavate anche dall‘analisi del vecchio prodotto. Figura 12. Le attività da svolgere per la definizione dei requisiti Durante questa attività, vengono raccolti appunti e materiale informativo vario, che dovranno successivamente essere riesaminati, selezionati e organizzati. Questo è lo scopo della successiva attività di organizzazione (o stesura dei requisiti), indicata sempre in Figura 12. L‘obiettivo principale di questa fase è di costruire un documento di specifica dei requisiti, condiviso e approvato dal committente. Questo sarà il riferimento principale per tutte le attività successive 7 La parola inglese stakeholder denota gli azionisti o, più in generale, tutti coloro che hanno qualche interesse in un‘impresa. Il termine è di uso corrente nella disciplina dell‘interaction design. Introduzione all‘Ingegneria dell‘Usabilità 141 del progetto. Lo scopo di questo documento è quello di specificare, nella forma più completa possibile, le richieste del committente e i vincoli che dovranno essere rispettati nelle fasi successive del progetto. Si analizza il materiale raccolto, lo si riordina, si risolvono eventuali contraddizioni (le persone intervistate potrebbero avere idee molto diverse su ciò che occorre fare), e si produce una prima bozza del documento dei requisiti. Il redattore dovrà ricorrere a tutta la sua esperienza e creatività, per produrre un documento che tenga conto, per quanto possibile, dei punti di vista di tutti gli intervistati, ma che li integri in una proposta organica e coerente e che, soprattutto, sia in accordo con le priorità indicate dal committente. È lui infatti che, in quanto referente principale del progetto, avrà l‘ultima parola, in caso di dubbi o conflitti. Nella fase di revisione e approvazione, la bozza del documento dei requisiti così prodotta verrà poi presentata al committente per la sua approvazione. Di solito, sarà necessario effettuare diversi aggiustamenti e revisioni del documento, prima che questo possa essere considerato sufficientemente consolidato e stabile per procedere alla successiva fase di progettazione. La fase di esplorazione dei requisiti Le tecniche principali che possono essere utilizzate, nella fase di esplorazione, per la raccolta dei requisiti sono riassunte in Tabella 1. Interviste individuali La tecnica normalmente più usata è quella delle interviste individuali con il committente e i principali stakeholder del prodotto, perché permette di analizzare i singoli problemi in profondità. Gli intervistatori formulano le loro domande e raccolgono appunti, annotando esigenze, suggerimenti, desideri e lamentele. Per ottenere la massima sincerità, di solito si garantisce agli intervistati che le loro opinioni verranno riportate solo in forma anonima. La scelta di chi intervistare va effettuata con cura. Occorre prevedere un numero di interviste compatibile con il budget e il tempo disponibile, ma senza tralasciare nessuna persona che possa avere qualcosa di importante da dire sul prodotto in progettazione. Do- 142 Roberto Polillo vranno pertanto essere intervistati rappresentanti di ciascuna categoria di stakeholder. Poiché il committente è il referente principale del progetto, le sue indicazioni dovranno avere la massima priorità. Sarà lui che stabilirà gli obiettivi principali, i tempi di realizzazione e il budget. Sarà lui che indicherà le persone da intervistare e sarà lui che revisionerà ed approverà il documento dei requisiti finale. In caso di conflitto fra proposte alternative, sarà lui a decidere quale dovrà essere preferita. Condurre bene un‘intervista può non essere facile e richiede esperienza. È necessario, infatti, concentrarsi sui problemi e non sulle soluzioni. L‘intervistatore dovrà evitare di usare termini tecnici, cercando di parlare nel linguaggio dell‘intervistato. In molti casi ci si accorgerà ben presto che è necessario chiarire bene il significato di alcuni termini, che possono essere usati dagli intervistati con accezioni particolari. Ogni organizzazione sviluppa col tempo un proprio gergo, che può creare fraintendimenti con interlocutori esterni. Può essere quindi conveniente approfittare delle interviste per definire un sintetico glossario. Cioè una lista dei termini più importanti utilizzati nel progetto, con le loro definizioni in relazione allo specifico contesto. Questo glossario, allegato ai requisiti, permette di stabilire una base di conoscenza comune fra gli stakeholder del prodotto e il gruppo di progetto. Questionari I questionari permettono di raccogliere informazioni in forma strutturata, elaborabili con metodi statistici. Essi possono essere distribuiti ai destinatari in varie forme. Per esempio, si possono predisporre dei questionari compilabili on line, sia predisponendo apposite pagine web contenenti le domande del questionario, sia, molto più semplicemente, con l‘uso della posta elettronica. È così possibile raggiungere una popolazione potenzialmente molto ampia di utenti, anche se, di solito, il tasso di risposta (redemption) è piuttosto basso. Una tecnica molto usata nei questionari destinati a raccogliere le opinioni degli utenti è la cosiddetta scala di Likert8. Il questionario 8 La tecnica fu ideata nel 1932 dallo psicologo americano Rensis Likert, con lo scopo di fornire uno strumento semplice per la misurazione di opinioni e atteggiamenti, ed è molto usata nella ricerca sociale. Introduzione all‘Ingegneria dell‘Usabilità 143 è composto da una serie di affermazioni, collegate alle opinioni su cui si vuole indagare, per ciascuna delle quali sono possibili cinque risposte: completamente d’accordo, d’accordo, incerto, in disaccordo, in completo disaccordo. A ciascuna risposta è associato un numero compreso fra 1 e 5. Con questi valori si potrà calcolare la media delle risposte a ciascun gruppo di affermazioni correlate a uno stesso argomento. Focus group I focus group sono discussioni di gruppo, che hanno lo scopo di mettere a fuoco uno specifico argomento e di far emergere i diversi punti di vista dei partecipanti o, a volte, un punto di vista condiviso fra tutti. Vengono normalmente condotti da un animatore che guida la discussione e un osservatore che esamina le dinamiche di relazione del gruppo e prende appunti. La conduzione di un focus group non è compito banale e richiede esperienza. È necessario infatti evitare che il gruppo ―sfugga di mano‖. Quando emergerà il leader naturale, tenderà a monopolizzare la discussione e a trascinare il gruppo sulle sue posizioni. Il conduttore dovrà evitare che l'incontro diventi un‘occasione di sfogo di malumori e critiche poco attinenti al tema, o di promozione di scopi personali. Occorre fare in modo che tutti possano esprimere le loro idee ed abbiano adeguato spazio nella discussione e che non sorgano conflitti fra i conduttori e i membri del gruppo, che potrebbero danneggiare lo svolgimento successivo del progetto. Osservazioni sul campo Non sempre gli utenti sono in grado di spiegare in dettaglio quali sono le modalità di uso desiderate per il prodotto nella loro attività quotidiana. Potrebbero anche avere una immagine distorta di come si comportano nelle varie situazioni. Questo non deve stupire: normalmente un utente non ha interesse a conoscere in dettaglio la natura e la frequenza dei compiti che svolge quotidianamente. Uno studio sul campo per apprendere come gli utenti si comportano nella realtà può quindi essere molto istruttivo e riservare alcune sorprese. Purtroppo questo non è facile, può essere molto costoso, considerando anche la possibile varietà delle diverse tipologie di utenti. 144 Roberto Polillo Suggerimenti spontanei degli utenti Queste informazioni sono preziose per una corretta evoluzione del prodotto e dovrebbero sempre essere sistematicamente raccolte e classificate. Questionari Servono per Vantaggi Svantaggi Rispondere a domande specifiche. Si possono raggiungere molte persone con poco sforzo. Vanno progettati con grande accuratezza, in caso contrario le risposte potrebbero risultare poco informative. Il tasso di risposta può essere basso. Interviste individuali Servono per Vantaggi Svantaggi Esplorare determinati aspetti del problema e determinati punti di vista. L‘intervistatore può controllare il corso dell‘intervista, orientandola verso quei temi sui quali l‘intervistato è in grado di fornire i contributi più utili. Richiedono molto tempo. Gli intervistati potrebbero evitare di esprimersi con franchezza su alcuni aspetti delicati (per esempio che comportino critiche verso l‘organizzazione di appartenenza) Servono per Vantaggi Svantaggi Mettere a fuoco un determinato argomento, sul quale possono esserci diversi punti di vista. Fanno emergere le aree di consenso e di conflitto. Possono far emergere soluzioni condivise dal gruppo La loro conduzione richiede esperienza. Possono emergere figure dominanti che monopolizzano la conversazione Focus group Osservazioni sul campo Servono per Vantaggi Svantaggi Comprendere il contesto delle attività dell‘utente. Permettono di ottenere una visione sull‘uso del prodotto che le altre tecniche non danno. Possono essere molto difficoltose da effettuare e richiedono molto tempo e risorse. Suggerimenti spontanei degli utenti Servono per Vantaggi Svantaggi Comprendere il contesto delle attività dell‘utente. Hanno bassi costi di raccolta. Possono essere molto specifici. Hanno normalmente carattere episodico. Tabella 1. Le principali tecniche utilizzate nel‘esplorazione dei requisiti Introduzione all‘Ingegneria dell‘Usabilità 145 I contenuti del documento dei requisiti Un documento di specifica dei requisiti dovrebbe contenere, prima di ogni requisito specifico relativo al sistema da realizzare, una approfondita analisi dell‘utente e delle sue necessità. In particolare, dovrebbe coprire i seguenti temi: Analisi dell’utente: a quali categorie di utenti è destinato il prodotto? Quali sono le loro caratteristiche? Quali categorie vanno considerate prioritariamente? Analisi dei bisogni: quali sono le necessità di ciascuna categoria di utenti individuata? Quali bisogni sono prioritari? Analisi del contesto d’uso: in quali diversi contesti il prodotto verrà utilizzato da parte delle diverse categorie di utenti individuate? Quali contesti sono prioritari? Analisi dei casi d’uso: in quali modi i vari utenti interagiranno con il prodotto nei diversi contesti? La nozione di caso d‘uso, richiamata nell‘ultimo punto, merita qualche approfondimento. In termini del tutto generali, un caso d‘uso può essere definito come un insieme di interazioni finalizzate a uno scopo, fra l‘utente (o più utenti) e il prodotto. Esempi di casi d‘uso, per un sito di e-commerce, potrebbero essere i seguenti: Ricerca prodotto Ordina prodotto Visualizza i dati dell‘utente Inserisci nuovo prodotto in catalogo Modifica i dati di un prodotto Non bisogna confondere i casi d‘uso con le funzionalità. Un caso d‘uso descrive un‘interazione significativa dal punto di vista dell‘utente, una funzionalità descrive invece una funzione realizzata dal sistema. Quindi ogni caso d‘uso sarà realizzato, di solito, attraverso più funzionalità del sistema. Ancora una volta, stiamo cogliendo il cuore della differenza fra user- e system- centered design. Così, nell‘esempio del sistema audio-video delle pagine precedenti, potremo avere i seguenti casi d‘uso: 146 Roberto Polillo Ascolta un CD musicale Guarda un DVD Guarda un programma televisivo Modifica il volume sonoro Modifica gli attributi dello schermo (contrasto, colore, ecc.) Figura 13. Un esempio di descrizione del caso d‘uso ―Acquista prodotto‖ Nella identificazione dei casi d‘uso durante la definizione dei requisiti ci si pone a un livello di astrazione piuttosto elevato, come negli esempi precedenti. Sarà poi compito delle successive attività di progettazione decomporre ogni caso d‘uso nei compiti (task) che lo compongono, e questi nelle azioni elementari che l‘utente dovrà effettuare. È conveniente, tuttavia, inserire nei requisiti una descrizione informale di ogni caso d‘uso, per chiarirne meglio il significato a chi progetterà il sistema. Per questo, non esistono standard consolidati; è prassi utilizzare descrizioni del tipo di quella di Figura 13, in Introduzione all‘Ingegneria dell‘Usabilità 147 cui viene indicato lo scenario ―principale‖ delle azioni dell‘utente, e gli eventuali scenari alternativi (per situazioni di errore, o tutte le volte che l‘utente debba prendere una decisione). È consigliabile aggiungere all‘elenco e alla descrizione informale dei singoli casi d‘uso un diagramma riassuntivo, che mostra tutti i casi d‘uso del sistema e gli ―attori‖ coinvolti (Figura 14).9 Figura 14. Un esempio di diagramma dei casi d‘uso Un‘altra attività importante nella fase di esplorazione dei requisiti è l‘analisi dei prodotti concorrenti, cioè di quei prodotti con i quali il nostro prodotto dovrà confrontarsi e competere. L‘analisi della concorrenza potrà essere più o meno ampia, in funzione del numero e della complessità dei prodotti esaminati e del livello di approfondi9 Questi diagrammi fanno parte di UML (Unified Modeling Language), un lin- guaggio visuale standardizzato che definisce numerosi tipi di diagrammi per rappresentare i diversi aspetti di un sistema. UML è oggi di uso comune nella pratica dell‘ingegneria del software. 148 Roberto Polillo mento dell‘esame. Per certi settori, può essere molto complessa e costosa. Si dovrà esaminare un certo numero di prodotti, per individuarne le caratteristiche più importanti e, soprattutto, i punti di forza e di debolezza: ciò permetterà di meglio contraddistinguere il prodotto in costruzione in rapporto ad essi e definirne, come si dice, la sua value proposition, cioè il valore specifico e distintivo che dovrà fornire ai suoi utenti. Inoltre, questa analisi permetterà d‘individuare le pratiche migliori adottate dai prodotti del settore, dalle quali trarre spunti per la formulazione dei requisiti. È utile effettuare questa analisi proprio all‘inizio del progetto; infatti, durante le interviste di raccolta dei requisiti si potranno ottenere utili commenti sulle soluzioni adottate da altri e sulla loro applicabilità nel contesto corrente. Figura 15. Una possibile struttura del documento dei requisiti Una possibile struttura del documento di specifica dei requisiti è indicata in Figura 15, che riassume quanto detto finora. Gli ―Scenari d‘uso tipici‖ indicati nella sezione ―Generalità‖ verranno descritti nelle pagine seguenti. Introduzione all‘Ingegneria dell‘Usabilità 149 Requisiti impliciti e scenari d’uso Una tecnica molto utile per aiutarci ad immaginare un nuovo prodotto, e a individuarne correttamente i requisiti, è quella d‘ipotizzarne dei possibili scenari d’uso. Uno scenario d‘uso è una narrazione, in linguaggio comune, di una possibile storia dell‘uso del sistema da parte di uno specifico utente. L‘esempio che segue riporta un possibile scenario d‘uso del sito web di un cinema multisala. Marco è un ragazzo di 19 anni, studente universitario. È appassionato di cinema, anche se le sue possibilità economiche sono molto limitate. Sceglie i film da vedere con molta cura e preferisce vederli dalle prime file. Però gli capita spesso che il posto gli sia assegnato d‘autorità dal computer della biglietteria, senza possibilità di scelta. Questo succede anche nel multisala vicino a casa sua. Per questo motivo, quando ha saputo che il cinema ha un nuovo sito Internet che permette, agli utenti registrati, di scegliere personalmente il posto, si è subito registrato. Ora, quando vuole andare al cinema, Marco si collega al sito e procede velocemente con l‘operazione di prenotazione che è accessibile direttamente dalla home page. Inserisce nome utente e password e il sistema autorizza l‘operazione fornendo come risposta le diverse opzioni di scelta. Marco ora può scegliere tra i titoli dei film in programmazione, il giorno della settimana e l‘ora. A questo punto gli viene presentata la mappa della sala cinematografica, nella quale sono indicati i posti liberi (in verde) e quelli già prenotati (in rosso). Marco finalmente può scegliere il posto che preferisce facendo clic sulla figura e, dopo averlo confermato, avrà un resoconto dell‘operazione, che gli sarà anche inviato con un messaggio di posta elettronica. La sera, almeno 15 minuti prima dell‘inizio della proiezione, Marco si presenta alle casse del multisala con un documento d‘identità. La cassiera procede a stampare i biglietti prenotati, che Marco paga. A questo punto Marco potrà accomodarsi nella sala cinematografica e vedere comodamente la proiezione del film direttamente dalla poltrona prescelta. L‘impiego degli scenari d‘uso è molto utile nella progettazione di un prodotto. Durante la definizione dei requisiti, serve principalmente come mezzo di comunicazione con i diversi stakeholder e, in seguito, con i progettisti e gli sviluppatori. La ideazione di storie d‘uso tipiche e concrete è, infatti, un modo molto efficace per fare emergere le ipotesi inespresse che, inevitabilmente, ciascuno fa sul 150 Roberto Polillo prodotto in esame e sul suo utilizzo. Ognuno di noi, infatti, tende ad assumere dei ―sistemi di riferimento‖ che considera ovvi e che quindi non ritiene necessario esplicitare o spiegare. Il problema nasce dal fatto che i sistemi di riferimento dei nostri interlocutori non sono necessariamente identici ai nostri: così possono nascere fraintendimenti ed equivoci che, nella progettazione di un prodotto complesso, possono essere molto dannosi. Equivoci nella fase di definizione dei requisiti produrranno un prodotto con caratteristiche diverse da quelle desiderate: è bene che emergano e siano chiariti al più presto. Gli scenari d‘uso sono uno strumento molto efficace per questo scopo. Inoltre, quando progettiamo un prodotto, siamo portati inevitabilmente a considerare noi stessi come utenti tipici: tendiamo quindi a modellare il prodotto sui nostri bisogni, abitudini e preferenze. Questo è sbagliato, perché gli utenti ―veri‖ del prodotto avranno normalmente bisogni, abitudini e preferenze diverse. D‘altro canto, è molto facile cadere in questa trappola: scrivere uno scenario vissuto da personaggi dotati di una loro specifica identità, ci aiuta a considerare un prodotto in modo più oggettivo. Pertanto, è molto importante che i protagonisti di uno scenario siano persone concrete, anche se fittizie, dotate di una precisa identità. In caso contrario, se pensiamo agli utenti come semplici ―ruoli‖ astratti (per esempio, ―studente universitario‖), il rischio di mancare di concretezza e di perdere di vista le esigenze degli utenti reali è molto alto. Ai personaggi degli scenari d‘uso si dà spesso il nome di personae. La Figura 16mostra un esempio di alcune personae rappresentate su supporti di cartone. Queste rappresentazioni, tenute sulle scrivanie dei progettisti, contribuiscono a ricordare costantemente a chi il progetto è destinato. Introduzione all‘Ingegneria dell‘Usabilità 151 Figura 16. Mock-up di cartone rappresentanti i personaggi di uno scenario Come si vede nell‘esempio del cinema, è opportuno che, nella formulazione di uno scenario d‘uso, venga riportata una storia completa, che non si limiti, quindi, alla pura interazione con il sistema, ma che ne consideri il contesto complessivo. Così, la storia di Marco ce ne descrive la motivazione principale (la possibilità di scegliere il posto al cinema) e ci mostra le azioni compiute da Marco dopo aver completato la transazione al computer. Tutto questo aiuta il redattore dei requisiti a non trascurare aspetti importanti e a porre la giusta enfasi sugli aspetti chiave. Anche i progettisti ricaveranno utili informazioni dall‘esame degli scenari d‘uso. Per esempio, chi, successivamente, progetterà il sistema, comprenderà meglio il motivo per cui le funzioni per la selezione del posto debbano risultare particolarmente flessibili ed usabili. Naturalmente, la storia deve ―mettere in scena‖ situazioni tipiche. Per esempio, lo scenario appena visto potrebbe essere giustificato da una indagine presso gli spettatori che abbia mostrato che la scelta del posto al cinema è importante per un numero rilevante di persone. Durante le interviste, si potrà chiedere agli intervistati 152 Roberto Polillo d‘immaginare gli scenari d‘uso che ritengono più tipici. Dall‘approfondimento di questi scenari potranno emergere requisiti che altrimenti sarebbero trascurati. A volte, intervistato e intervistatore discuteranno scenari alternativi. Si potranno chiedere, per esempio, se l‘affollamento del sabato sera nel cinema multisala possa creare delle difficoltà nel ritiro dei biglietti prenotati, e come si possano evitare code. Queste analisi, che a volte, come in questo caso, non coinvolgono direttamente le funzioni del prodotto, potrebbero suggerire soluzioni alternative più convenienti. Gli scenari d‘uso possono essere molti utili, ma scegliere quelli realmente significativi non è facile. Il rischio maggiore è quello di introdurre dettagli o situazioni poco rilevanti per la comprensione dei requisiti del prodotto. 4. Prototipi Che cos’è un prototipo Il termine deriva dal greco prototipos, che potremmo tradurre con ―primo modello‖ (da proto, primo e tipos, modello). Seguendo il già citato standard ISO 13407, possiamo definire, infatti, un prototipo come: una rappresentazione di un prodotto o di un sistema, o di una sua parte, che, anche se in qualche modo limitata, possa essere utilizzata a scopo di valutazione. Questa definizione è molto ampia, e comprende oggetti di natura e di complessità molto diverse. Così, un prototipo non deve necessariamente essere un sistema funzionante, spesso può essere utile anche un semplice modello ―finto‖ (mock-up). Per esempio, l‘inventore del Palm Pilot, il primo organizer di successo, inizialmente tenne con sé un modellino in legno dello strumento, ovviamente non funzionante, fingendo di tanto in tanto di inserirvi o di leggervi delle informazioni. Questo per meglio comprendere l‘esperienza di portare sempre con sé un oggetto di questo tipo. Un altro esempio, di natura molto diversa, è il prototipo del Knowledge Navigator, realizzato mediante un video dalla Apple nel 1987. Esso mostrava un possibile scenario d‘uso di un personal Introduzione all‘Ingegneria dell‘Usabilità 153 computer del futuro (più precisamente, secondo le indicazioni della Apple, del 2010) basato sul concetto di agente. Nel video, un professore universitario interagiva a voce con un aiutante sintetico, rappresentato sul video in modo antropomorfo, per raccogliere i dati necessari per la stesura di un articolo scientifico, facendosi aiutare da una collega lontana, attraverso una rete. Tipi di prototipi Un prototipo è, dunque, un modello approssimato o parziale del sistema che vogliamo sviluppare, realizzato allo scopo di valutarne determinate caratteristiche. Queste possono essere molto varie: definire lo scopo di un prototipo è l‘arte di identificare i problemi di progettazione più critici. Ci si dovrebbe concentrare su quegli aspetti per i quali esistono più soluzioni possibili, dove i pro e i contro si bilanciano, oppure i rischi conseguenti a una cattiva progettazione siano più elevati. Poiché i gruppi di progetto per i sistemi interattivi sono spesso multidisciplinari, e coinvolgono persone con professionalità e priorità diverse, spesso anche il termine stesso di prototipo viene usato in modo non univoco. Per esempio, un programmatore di software potrebbe chiamare prototipo il codice di un nuovo algoritmo di cui valutare le prestazioni, mentre il designer della carrozzeria di una nuova automobile chiamerà prototipo un modello dell‘auto in grandezza naturale, fatto in legno. Ciò che realmente importa nella preparazione di un prototipo, in ultima analisi, è il suo scopo. La Tabella 2 mostra una possibile classificazione dei prototipi, sulla base del loro scopo, delle loro modalità d’uso, della loro fedeltà, completezza funzionale e della durata della loro vita. Dal punto di vista del loro scopo, possiamo classificare i prototipi in tre grandi categorie (Houde & Hill, 1997)10: prototipi che servono a valutare il ruolo del prodotto nella vita del suo utente (role prototype) 10 Disponibile online all‘indirizzo http://www.viktoria.se/fal/kurser/winograd-2004/Prototypes.pdf (marzo 2008) 154 Roberto Polillo prototipi che servono a valutare l‘interfaccia del prodotto, intesa in termini generali, come l‘insieme delle modalità di interazione fra utente e prodotto (look&feel prototype) prototipi che servono a valutare aspetti tecnici relativi alla implementazione del prodotto (implementation prototype). Scopo Modi d’uso Fedeltà Completezza funzionale Durata Tipo di prototipo Caratteristiche Ruolo Serve a valutare il ruolo del prodotto nella vita del suo utente Look & feel Serve a valutare le modalità di interazione fra utente e prodotto Implementazione Serve a valutare aspetti tecnici relativi alla implementazione del prodotto Statico È una rappresentazioni statica del prodotto (es. story board, diagrammi di vario tipo) Dinamico È una rappresentazione dinamica (ma non interattiva) del prodotto, es.: video Interattivo Permette agli utenti di effettuare prove d‘uso del prodotto, anche se semplificate e approssimate Alta fedeltà ―assomiglia‖ in tutti gli aspetti al prodotto finale Bassa fedeltà ―assomiglia‖ alla lontana al prodotto finale Orizzontale Fornisce tutte le funzioni del prodotto finale, anche se in versione limitata Verticale Fornisce solo alcune funzioni, realizzate in dettaglio Usa e getta Non viene conservato dopo l‘uso Evolutivo Realizzato con la tecnologia finale del prodotto, viene fatto evolvere fino al prodotto finale Tabella 2. Classificazione dei prototipi Questa distinzione raramente può essere netta, poiché spesso un prototipo presenterà contemporaneamente più aspetti. Ruolo, look&feel e implementazione possono quindi essere considerati come le tre dimensioni dello ―spazio‖ nel quale possiamo collocare ogni prototipo, e non come tre classi separate (Figura 17). Per esempio, il Knowledge Navigator di cui si è parlato più sopra può Introduzione all‘Ingegneria dell‘Usabilità 155 considerarsi essenzialmente un prototipo di ruolo, con qualche aspetto, sia pure non approfondito, di look&feel, ma senza alcun aspetto implementativo. Pertanto, in figura, dovrebbe essere collocato nell‘area P. Figura 17. Lo ―spazio‖ dei prototipi in relazione al loro scopo Un‘altra possibile classificazione dei prototipi è relativa alla loro modalità d’uso: un prototipo può essere allora statico, dinamico o interattivo. Nel primo caso, come nell‘esempio del Palm Pilot, consisterà semplicemente in una rappresentazione statica del prodotto: una serie di immagini, un modello tridimensionale, oppure anche una rappresentazione che permette di valutare, per così dire, ―a tavolino‖ il funzionamento dinamico del prodotto, come nel caso di un flow-chart o di uno story-board. Nel secondo caso, il funzionamento dinamico del prodotto potrà essere mostrato mediante un video, come nell‘esempio del Knowledge Navigator. Tuttavia, è evidente che i prototipi più utili per convalidare la usabilità di un sistema saranno di solito quelli interattivi, che consentono ai potenziali utilizzatori di interagire con il sistema in corso di progettazio- 156 Roberto Polillo ne, per sperimentarne l‘uso (anche se in modo parziale o limitato) e individuarne, così, pregi e difetti. Un prototipo interattivo aiuta a chiarire i requisiti di progetto, che spesso sono espressi in forma vaga. Permette di osservare le reazioni dell‘utente nell‘uso del sistema e di sperimentare soluzioni alternative, rapidamente e, in molti casi, a costi contenuti. Nella pratica corrente, a volte ci si accontenta di realizzare prototipi dinamici, consistenti in una semplice sequenza di immagini (per esempio, una serie di slide PowerPoint), che il progettista mostra all‘utente in sequenza, simulando scenari d‘uso tipici. Questo approccio, in realtà, non permette di valutare la usabilità di un sistema, e non dovrebbe mai sostituire la interazione vera. Quando il progettista ci spiega, nella simulazione, come interagiremo con il sistema, mostrandocene via via l‘evoluzione delle schermate, segue un canovaccio già predisposto, che lui conosce bene. Ci presenta un‘interazione ideale, preconfezionata, che non ci permette di prefigurare le difficoltà che avremo nell‘uso reale, quando saremo soli con il prodotto e dovremo decidere quali azioni compiere, sulla base delle indicazioni disponibili ad ogni istante. Saranno sufficienti queste indicazioni per suggerirci, ogni volta, il comportamento più corretto? Saremo in grado di correggere con facilità eventuali azioni sbagliate? È molto difficile poter valutare l‘usabilità di un sistema soltanto analizzando una sequenza di immagini statiche, oppure assistendo ad una simulazione condotta da altri. L‘esperienza d‘uso, del ―metterci le mani sopra‖ non può essere rimpiazzata dalla sua semplice narrazione. Non sempre è possibile – o conveniente – realizzare un prototipo interattivo: le funzioni del sistema potrebbero essere così complicate da renderne molto complessa la realizzazione, per quanto parziale o semplificata. In questi casi, per non rinunciare alla interattività, si può ricorrere alla cosiddetta tecnica del mago di Oz11. Essa con- 11 Il nome deriva da Wonderful Wizard of Oz (1900), un celebre romanzo per ragazzi dello scrittore statunitense L. Frank Baum (1856-1919). È la storia di Dorothy, una bambina che viene trasportata da un ciclone, con tutta la sua casa, dal Kansas nel regno di Oz. Per tornare nel Kansas, Dorothy dovrà compiere una serie di imprese assegnatele da un mago che controlla il regno. Alla fine, si scoprirà che il mago di Oz non è altro che un vecchietto senza poteri, che si nasconde dietro un Introduzione all‘Ingegneria dell‘Usabilità 157 siste nel realizzare un prototipo interattivo, in cui però le risposte – o parte di esse – siano fornite, se possibile all‘insaputa dell‘utente, da parte di un essere umano che operi, per così dire, ―dietro le quinte‖ come, appunto, il mago di Oz della favola. Per esempio, nel prototipo di un sistema di query, l‘utente potrebbe formulare una interrogazione, e un esperto nascosto (il mago di Oz) potrebbe riscrivere la interrogazione in una forma normalizzata e presentarla all‘utente per la sua approvazione, e quindi fornire, simulando l‘accesso a una base dati ancora inesistente, la risposta desiderata. Ancora, la tecnica potrebbe essere convenientemente utilizzata nel test di interfacce basate sul linguaggio naturale, per esempio per raccogliere indicazioni sui costrutti linguistici preferiti dagli utenti. Altri sistemi che si prestano bene all‘uso di questa tecnica per la convalida di prototipi intermedi sono i risponditori automatici dei call center, o i cosiddetti sistemi IVR (interactive voice response systems), in cui l‘utente effettua, a voce, delle richieste di informazioni e il sistema (nel nostro caso, il mago di Oz) fornisce risposte vocali a partire da script predisposti (informazioni su orari di treni o aerei, sistemi di prenotazione, richieste di previsioni metereologi che, ecc.). L‘impiego di queste tecniche non è banale, come potrebbe sembrare a prima vista. I compiti del mago, apparentemente semplici, si rivelano spesso cognitivamente impegnativi. Affinché il prototipo risulti realistico, le risposte del mago devono essere consistenti, per quanto riguarda i contenuti e, soprattutto, i tempi di reazione. In particolare: situazioni simili devono provocare le stesse risposte e le risposte devono essere conformi alle aspettative dell‘utente. Per esempio, se il mago fosse troppo lento nel rispondere, l‘utente potrebbe pensare di avere fornito una richiesta scorretta, o che il sistema è sovraccarico, o che si trova in uno stato di errore. In sostanza, il mago non può essere un improvvisatore: deve essere ben preparato ed avere a disposizione una serie completa di supporti pronti all‘uso (diagrammi di flusso, schemi di risposte, e così via). Per semplificare questi compiti può essere opportuno, in molti casi, che paravento per simulare le sue magie. Il primo a proporre questa tecnica, e a darle il nome, è stato John F. Kelley, nella sua tesi (circa 1980). 158 Roberto Polillo il ruolo del mago sia sostenuto da più di una persona: per esempio, una persona dedicata alla simulazione dell‘input/output, e un‘altra persona dedicata alla simulazione delle operazioni di elaborazione delle risposte. Come indicato nella Tabella 2, quale che sia la loro finalità e il loro livello di interattività, i prototipi possono essere ulteriormente classificati in base alla loro fedeltà al prodotto finale, alla loro completezza e alla loro durata: Fedeltà al prodotto finale. I prototipi che ―assomigliano‖ in tutti gli aspetti al sistema finale si dicono ad alta fedeltà (hi-fi prototype). Quelli che gli assomigliano poco, a bassa fedeltà (lo-fi prototype). Questi ultimi possono essere realizzati, per esempio, con carta, cartone o legno, come il prototipo del Palm Pilot sopra citato. I prototipi a bassa fedeltà sono normalmente oggetti semplici, economici e molto facili da realizzare, ma non per questo meno utili, come vedremo fra breve. Completezza funzionale. Questa distinzione riguarda l‘ampiezza e la profondità delle funzioni realizzate dal prototipo. Un prototipo orizzontale fornisce uno spettro ampio di funzionalità, ma realizzate con poco dettaglio. Un prototipo verticale, al contrario, realizza compiutamente un insieme limitato di funzionalità. Con un prototipo orizzontale, se interattivo, si può provare l‘intera interfaccia, anche se, ovviamente, in modo molto limitato. Infatti, l‘utente non potrà utilizzare nessuna funzionalità per intero: di ogni funzionalità esisterà, per così dire, solo l‘involucro esterno. Fornirà, quindi, una immagine completa delle caratteristiche del prodotto, ma nessuna di esse sarà realizzata nei dettagli. Durata. Un‘altra importante distinzione riguarda la durata della vita del prototipo. Se il prototipo, dopo la sperimentazione, non viene conservato, esso si dice usa e getta (throw-away prototype). Se, invece, viene conservato e viene fatto evolvere o comunque integrato nel prodotto finale, si dice prototipo evolutivo. Normalmente, i prototipi a bassa fedeltà sono di tipo usa e getta: il modello di legno del Palm Pilot del nostro esempio non evolverà certamente nel prodotto finale dopo essere stato utilizzato. I prototipi ad alta fedeltà, di realizzazione normal- Introduzione all‘Ingegneria dell‘Usabilità 159 mente più costosa, vengono più di frequente fatti evolvere nel prodotto finale. In definitiva, nella realizzazione dei prototipi molte scelte sono possibili. Fare prototipi significa individuare di volta in volta degli obiettivi prioritari, e individuare le modalità più utili per raggiungerli, costruendo un modello parziale del nostro prodotto ed effettuandone, in qualche modo, una valutazione. Concentrando la nostra attenzione su specifici aspetti del sistema in corso di progettazione, ne trascureremo necessariamente degli altri. In definitiva, significa fare dei compromessi. In un processo di progettazione ben condotto, i diversi prototipi ci permetteranno di valutare, via via, aspetti diversi e complementari del nostro sistema. Nonostante quest‘ampio ventaglio di possibilità, nella pratica della progettazione centrata sull‘utente è utile considerare, in primo luogo, quei prototipi che permettono di valutare il prodotto in fase di progettazione in rapporto con il suo utente, o con i suoi utenti. Quindi, facendo ancora una volta riferimento alla tabella, i prototipi di ruolo e di look&feel, e in particolare i prototipi interattivi, a bassa o ad alta fedeltà. Particolarmente importanti, in un processo di sviluppo iterativo, sono in particolare i prototipi costruiti nelle prime fasi del progetto (detti prototipi iniziali), descritti qui di seguito. I prototipi iniziali L‘importanza dei prototipi iniziali deriva dal fatto che, nelle prime fasi del progetto, molte strade sono, per così dire, ancora aperte, ed è in genere utile esplorare più di una soluzione possibile, prima di effettuare la scelta della soluzione che sarà sviluppata nei dettagli. I prototipi iniziali servono proprio a questo. Essi saranno quindi quasi sempre di tipo usa e getta, ed è opportuno che si possano realizzare molto velocemente, e a costi molto contenuti. I progettisti potranno così sperimentare e valutare anche numerose soluzioni alternative. Particolarmente utili a questo scopo sono i prototipi di carta (paper prototype) e i prototipi realizzati con strumenti ipertestuali. I prototipi di carta In questi prototipi, l‘interfaccia utente viene disegnata a bassa fedeltà su fogli di carta, o cartoncini, che vengono usati per effettuare 160 Roberto Polillo una simulazione ―manuale‖ del sistema, con utenti-cavia. Per esempio, la Figura 18mostra alcuni cartoncini utilizzati per la simulazione, su carta, di un‘applicazione destinata a un palmare. Ogni cartoncino rappresenta sommariamente una singola schermata del palmare. Durante la simulazione, il progettista presenta all‘utente la prima schermata, e l‘utente interagisce con essa simulando l‘interazione (per esempio, ―premendo‖ col dito la rappresentazione di un bottone, o fingendo di compilare un campo di input, e così via). Il progettista risponderà, in funzione delle azioni dell‘utente, presentando la schermata successiva, e così via. Le reazioni e le difficoltà dell‘utente vengono esaminate e commentate, dopo di che l‘interfaccia si corregge, sempre sulla carta, e si riprova. Figura 18. Prototipo di carta La semplicità della tecnica non deve ingannare: i prototipi di carta sono estremamente utili, perché presentano numerosi vantaggi: possono essere realizzati rapidamente e a costi molto contenuti permettono di provare l‘interazione in modo semplice le modifiche al prototipo possono essere effettuate rapidamente (anche se, essendo fatte a mano, a volte sono piuttosto laboriose); ciò permette di provare con gli utenti diverse varianti del progetto base. Introduzione all‘Ingegneria dell‘Usabilità 161 D‘altra parte: l‘interazione è lenta e quindi innaturale, perché le risposte del sistema sono simulate a mano dal progettista che funge, anche se non è nascosto all‘utente, da ―mago di Oz‖, con tutte le difficoltà che abbiamo discusso più sopra la fedeltà grafica al prodotto finale è molto bassa: infatti, in questa fase non vale la pena spendere troppi sforzi per rappresentare il sistema in modo preciso e dettagliato. I prototipi ipertestuali Un‘altra tecnica molto utilizzata per costruire prototipi iniziali fa uso di strumenti per la costruzione di ipertesti. In questo caso, il prototipo è costituito da una serie di immagini (snapshot) che rappresentano le schermate del prodotto in corso di progettazione. Le varie snapshot sono legate fra loro da link ipertestuali, cliccando i quali l‘utente passa da una snapshot all‘altra, ―navigando‖ fra una snapshot e l‘altra e simulando così l‘interazione con il prodotto in corso di progettazione. Le attività di test, in questo caso, non richiedono la presenza di un mago di Oz. L‘interazione è così più realistica e più fluida. I prototipi ipertestuali possono essere realizzati facilmente, a costi molto limitati, con vari strumenti. Fra gli strumenti più utilizzati a questo scopo vi sono i prodotti per la costruzione di slide per presentazioni, che normalmente permettono di legare fra loro le varie slide con link ipertestuali (per es. PowerPoint della Microsoft). In questo caso: ogni schermata del prodotto viene rappresentata su una slide su ogni schermata vengono realizzate aree cliccabili di forma opportuna (aree sensibili, pulsanti, ecc.), con link ad altre slide cliccando sulle aree cliccabili, l‘utente ―naviga‖ nell‘ipertesto, simulando l‘interazione con il prodotto. I vantaggi di questo approccio sono evidenti: i prototipi sono facili da realizzare e da modificare la navigazione non richiede un mago di Oz 162 Roberto Polillo la grafica del prodotto finale può essere simulata con un significativo livello di dettaglio. Esistono tuttavia anche degli svantaggi. In primo luogo, questi prototipi possono supportare interazioni semplici, esclusivamente di tipo point & click. Interazioni più complesse (come, per esempio, la compilazione di campi di input, l‘utilizzo di menu a tendina, ecc.) non sono realizzabili a costi ragionevoli, e dovranno quindi essere realizzate in modo approssimativo, o addirittura immaginate. Inoltre, ci sono dei limiti pratici alla complessità degli ipertesti realizzabili, superati i quali il prototipo diventa poco gestibile da chi lo sviluppa. Per esempio, l‘esperienza di uso di PowerPoint per la costruzione di prototipi navigabili, effettuata in numerosi progetti didattici da chi scrive, suggerisce che la ―soglia di in gestibilità‖ dei prototipi costruiti in questo modo si colloca intorno alle 100-150 slide. Per prototipi più complessi è allora conveniente spezzare l‘ipertesto in più ipertesti separati, ciascuno dei quali permette di simulare specifici aspetti del sistema. Altri strumenti per la costruzione di ipertesti sono i generatori di pagine HTML come, per esempio, Dreamweaver della Adobe o FrontPage della Microsoft. Questi strumenti sono particolarmente adatti per la realizzazione di prototipi iniziali di siti web, indipendentemente dalla tecnologia utilizzata per la realizzazione del sito finale. Sono invece sconsigliabili per la prototipazione di altri tipi di applicazioni, in quanto gli aspetti grafici sono poco controllabili (a costi limitati) e il loro forte orientamento alla costruzione di siti web tende a influenzare le scelte di progetto (c‘è il rischio che il prototipo tenda ad assomigliare a un sito, indipendentemente dalla sua natura). È bene, in ogni caso, evitare di utilizzare strumenti di prototipazione che creino difficoltà tecniche nella realizzazione (il progettista deve concentrare gli sforzi sulla realizzazione del prototipo e non a risolvere problemi tecnici posti dallo strumento!) e che possano influenzare, con le loro peculiarità, le scelte di progetto per il sistema prototipato (―questo non riesco a farlo, quindi cambio il progetto‖). Una soluzione spesso molto valida è costituita dall‘accoppiata prototipo di carta / prototipo PowerPoint. Inizialmente si costruisce Introduzione all‘Ingegneria dell‘Usabilità 163 e si sperimenta un prototipo di carta a bassa fedeltà. Quando la soluzione è abbastanza consolidata, la si realizza nuovamente ad alta fedeltà in un prototipo PowerPoint navigabile, e si effettuano nuove prove con gli utenti (Figura 19). Figura 19. Dal prototipo di carta (a sinistra) al prototipo PowerPoint (a destra) 5. Valutazioni Verifiche e convalide Nel modello di progettazione e sviluppo per prototipi successivi descritto in Figura 9, ad ogni ciclo di iterazione si effettuano dei test del prototipo fino a quel momento prodotto. Il termine generico ―test‖ richiede ulteriori spiegazioni, perché può denotare due tipi di controlli molto diversi: il controllo che il prodotto sia congruente con quanto specificato nei requisiti. Per questo tipo di controllo si usa normalmente il termine verifica (in inglese, verification) 164 Roberto Polillo il controllo che il prodotto soddisfi effettivamente le esigenze per le quali è stato concepito. Per questo tipo di controllo si usa, invece, il termine di convalida (in inglese, validation). Si comprende facilmente come le attività di convalida siano molto più difficili e critiche delle attività di verifica. Non si tratta, infatti, di controllare la congruenza e, per così dire, la tracciabilità, fra le caratteristiche del prodotto e le indicazioni contenute nel documento dei requisiti, ma di controllare che il prototipo costruito soddisfi le esigenze (espresse o, a volte, ancora inespresse) dell‘utente e del committente. È, come dicono gli anglosassoni, la differenza fra ―to make the thing right‖ (verifica) e ―to make the right thing‖ (convalida). Pertanto, la convalida non può essere condotta soltanto dai progettisti (come, spesso, avviene per le attività di verifica) ma richiede necessariamente il coinvolgimento dell‘utente (e degli altri stakeholder del prodotto). Trascurando, in questa sede, le attività di verifica, consideriamo nel seguito le sole attività di convalida. Fra queste, particolare importanza hanno le valutazioni della usabilità del prodotto. Per effettuare tali valutazioni possono essere impiegate svariate tecniche, fra le quali quelle più diffuse rientrano in due grandi categorie: valutazioni effettuate da parte di esperti di usabilità, senza alcun coinvolgimento da parte dell‘utente. Queste valutazioni prendono collettivamente il nome di ispezioni (inspections). Le più note sono le cosiddette valutazioni euristiche (euristic evaluations) valutazioni effettuate con il coinvolgimento dell‘utente. Sono le più importanti e le più utilizzate. In particolare, nel seguito verranno descritti i test di usabilità (usability test). Valutazioni euristiche L‘aggettivo euristico si usa, in matematica, per denotare un procedimento non rigoroso che consente di prevedere o rendere plausibile un determinato risultato, il quale in un secondo tempo dovrà essere controllato e convalidato con metodi rigorosi. Nell‘ingegneria dell‘usabilità, si dicono euristiche quelle valutazioni di usabilità effettuate da esperti che analizzano sistematicamente, in modo più o Introduzione all‘Ingegneria dell‘Usabilità 165 meno dettagliato, il comportamento di un dato sistema, verificandone la conformità a specifiche ―regole d‘oro‖ (chiamate, appunto, euristiche), correlate a principi o linee guida generalmente accettati. Le euristiche che possono essere impiegate sono diverse. In letteratura si trovano linee guida costituite anche da molte centinaia di regole, molto dettagliate. È evidente che valutare un sistema sulla base di una tale quantità di regole risulta del tutto impraticabile. Si preferisce quindi, più spesso, utilizzare euristiche costituite da pochi principi guida molto generali. Per esempio, sono molto note le euristiche di Nielsen, costituite da dieci regole d‘oro che, sebbene molto generali, permettono al valutatore di inquadrare i problemi rilevati in categorie bene individuate12. Le dieci euristiche di Nielsen, spiegate con le sue stesse parole, sono le seguenti: Visibilità dello stato del sistema. Il sistema dovrebbe sempre informare gli utenti su ciò che sta accadendo, mediante feedback appropriati in un tempo ragionevole. Corrispondenza fra il mondo reale e il sistema. Il sistema dovrebbe parlare il linguaggio dell‘utente, con parole, frasi e concetti familiari all‘utente, piuttosto che termini orientati al sistema. Seguire le convenzioni del mondo reale, facendo apparire le informazioni secondo un ordine logico e naturale. Libertà e controllo da parte degli utenti. Gli utenti spesso selezionano delle funzioni del sistema per errore e hanno bisogno di una ―uscita di emergenza‖ segnalata con chiarezza per uscire da uno stato non desiderato senza dover passare attraverso un lungo dialogo. Supportare funzioni di undo e redo. Consistenza e standard. Gli utenti non dovrebbero aver bisogno di chiedersi se parole, situazioni o azioni differenti hanno lo stes- 12 Jakob Nielsen è l‘autore di uno dei primi – e più noti - libri di ingegneria della usabilità (Nielsen, 1993). Le euristiche che prendono il suo nome sono state presentate per la prima volta in questo libro. 166 Roberto Polillo so significato. Seguire le convenzioni della piattaforma di calcolo utilizzata. Prevenzione degli errori. Ancora meglio di buoni messaggi di errore è una attenta progettazione che eviti innanzitutto l‘insorgere del problema. Eliminare le situazioni suscettibili di provocare errori da parte dell‘utente, e presentare all‘utente delle richieste di conferma prima di eseguire le azioni richieste. Riconoscere piuttosto che ricordare. Minimizzare il ricorso alla memoria dell‘utente, rendendo visibili gli oggetti, le azioni e le opzioni. L‘utente non dovrebbe aver bisogno di ricordare delle informazioni, nel passare da una fase del dialogo a un‘altra. Le istruzioni per l‘uso del sistema dovrebbero essere visibili o facilmente recuperabili quando servono. Flessibilità ed efficienza d’uso. Acceleratori – invisibili all‘utente novizio – possono spesso rendere veloce l‘interazione dell‘utente esperto, in modo che il sistema possa soddisfare sia l‘utente esperto che quello inesperto. Permettere all‘utente di personalizzare le azioni frequenti. Design minimalista ed estetico. I dialoghi non dovrebbero contenere informazioni irrilevanti o necessarie di rado. Ogni informazione aggiuntiva in un dialogo compete con le unità di informazione rilevanti e diminuisce la loro visibilità relativa. Aiutare gli utenti a riconoscere gli errori, diagnosticarli e correggerli. I messaggi di errore dovrebbero essere espressi in linguaggio semplice (senza codici), indicare il problema con precisione e suggerire una soluzione in modo costruttivo. Guida e documentazione. Anche se è preferibile che il sistema sia utilizzabile senza documentazione, può essere necessario fornire aiuto e documentazione. Ogni tale informazione dovrebbe essere facilmente raggiungibile, focalizzata sul compito dell‘utente, e dovrebbe elencare i passi concreti da effettuare, senza essere troppo ampia. Questa tecnica di valutazione ha il vantaggio di essere relativamente poco costosa (si parla, infatti, di usabilità scontata, discount usability). Tuttavia fornisce inevitabilmente risultati molto soggettivi. Introduzione all‘Ingegneria dell‘Usabilità 167 Quanto più le euristiche sono generali, tanto più il risultato della valutazione dipenderà dall‘esperienza, dalla sensibilità e, spesso, dalle personali opinioni del valutatore. In effetti, le esperienze condotte in molti progetti hanno mostrato che valutatori diversi tendono a trovare problemi diversi. Pertanto è possibile migliorare l‘efficacia del metodo impiegando più valutatori sulla stesso progetto, che valutino separatamente il sistema senza comunicare fra di loro. È anche evidente che i risultati saranno tanto più affidabili quanto più i valutatori saranno esperti nella particolare tipologia di sistemi in esame. Test di usabilità Un test di usabilità consiste nel far eseguire a degli utenti campione (scelti in modo da essere rappresentativi della categoria di utenti cui il sistema si rivolge), compiti tipici in un ambiente controllato. Chi conduce il test osserva i comportamenti di questi utenti, annota quelli più significativi e le difficoltà incontrate (Figura 20). Successivamente, analizza questi appunti per comprendere se, dove e perché gli utenti hanno incontrato delle difficoltà. Figura 20. Test di usabilità 168 Roberto Polillo Un test di usabilità deve permettere a chi lo conduce di trarre concrete indicazioni per il miglioramento del sistema. Egli dovrà esaminare in dettaglio le operazioni svolte dagli utenti per capire dove nascono le difficoltà, da che cosa sono causate e in quale modo possono essere rimosse. Per questo, è molto utile la cosiddetta tecnica del ―pensare ad alta voce― (think aloud), che consiste nel chiedere all‘utente di esprimere ad alta voce ciò che pensa mentre compie le varie operazioni13. L‘analisi del comportamento degli utenti non può essere condotta in tempo reale durante lo svolgimento del test, ma deve essere effettuata dopo, con la necessaria tranquillità. A questo scopo, se possibile, si effettua una registrazione della sessione di test, per poterla analizzare successivamente dedicando a tale operazione il tempo necessario. La tecnica più completa consiste nel riprendere con una telecamera il viso dell‘utente mentre effettua il test, e ciò che appare sul suo video. Non occorrono apparecchiature costose e locali appositamente attrezzati. Si può fare, semplicemente, utilizzando una webcam per la ripresa dell‘utente e un programma che permette di registrare ciò che appare sul video. Quindi si mixano le due registrazioni, in modo che le due immagini appaiano sovrapposte e sincronizzate. In tal modo, chi effettua il test potrà esaminare in dettaglio, praticamente alla moviola, le azioni effettuate dall‘utente sul video e metterle in corrispondenza con le espressioni facciali e le parole pronunciate. Possiamo suddividere i test di usabilità in due grandi categorie: i test di compito e i test di scenario. Nei test di compito, viene chiesto agli utenti di svolgere compiti specifici, che permettano di esercitare funzioni specifiche del sistema. Per esempio, nel caso di un sito web di e-commerce: registrarsi, ricercare un determinato prodotto nel catalogo, acquistarlo, e così via. Nei test di scenario, invece, agli utenti viene indicato un obiettivo da raggiungere attraverso una serie di compiti elementari, senza indicarli esplicitamente. L‘utente dovrà quindi impostare una propria strategia di azione. Per un test più realistico, all‘utente potrà essere indicato uno scenario complessivo che definisce meglio il 13 La tecnica del think aloud, sebbene molto usata nella pratica dei test di usablità, non è esente da alcuni problemi, come discusso nel Cap.4 Introduzione all‘Ingegneria dell‘Usabilità 169 contesto in cui dovrà fingere di muoversi. Per esempio, per un sito web di un supermercato, lo scenario proposto agli utenti coinvolti nel test potrebbe essere il seguente: Domani sera hai due amici a cena, ma non hai tempo di andare al supermercato. Decidi quindi di fare la spesa on-line, pagando con la tua Visa. Collegati al sito e ordina gli ingredienti per una cena veloce e poco costosa, ma simpatica. Come si vede da questo esempio, i test di scenario, se ben concepiti, mettono alla prova l‘utente (e il sistema) in modo molto più impegnativo dei test di compito. In particolare, permettono agli utenti di mettere in relazione l‘uso del sistema con le proprie specifiche necessità, preferenze e abitudini. Nello scenario di cui sopra, gli utenti terranno conto delle proprie preferenze alimentari, e di quelle dei loro amici. Così, la strategia che gli utenti seguiranno per raggiungere l‘obiettivo richiesto potrebbe essere molto diversa da quella prevista dal progettista. Per questo motivo, i test di scenario possono essere molto utili per individuare eventuali carenze nell‘impostazione della struttura complessiva dell‘interazione, o mancanze di funzionalità utili. Quindi, si dovrebbe cercare di anticipare, per quanto è possibile, i test di scenario all‘inizio del progetto, usando anche prototipi parziali o a bassa fedeltà. I test di compito permettono, invece, una verifica di usabilità più fine, perché localizzata a specifiche funzioni. Quindi possono essere più utili quando l‘architettura funzionale del sistema sia già ben consolidata, per provare l‘usabilità di specifici servizi. Per esempio, in progetti di redesign di un sito web che non abbiano prodotto forti interventi di ristrutturazione del sito precedente, ma solo modifiche delle funzioni interattive. Nel ciclo iterativo di progettazione, i test di usabilità dovranno essere collocati in momenti ben definiti, al termine di ogni fase di lavoro. Saranno condotti di volta in volta con modalità diverse, a seconda degli obiettivi specifici della fase e della natura dei prototipi disponibili. Alcuni saranno molto semplici e richiederanno pochi minuti. Altri saranno più impegnativi e dovranno essere gestiti in modo più strutturato. Qualunque sia la tecnica utilizzata, i test con gli utenti sono indispensabili. Infatti, le cause delle difficoltà incontrate dagli utenti 170 Roberto Polillo possono essere moltissime. Analizzare un sistema ―a tavolino‖, come nelle valutazioni euristiche, anche se può permetterci d‘individuare numerosi difetti, non è mai sufficiente. I problemi possono essere nascosti e possono verificarsi soltanto con certe categorie di utenti, in funzione della loro esperienza o formazione. Cose ovvie per chi già conosce il sistema o sistemi analoghi possono rivelarsi difficoltà insormontabili a utenti meno esperti. Un test di usabilità ben condotto mette subito in evidenza queste difficoltà. Figura 21. Test di usabilità: la ―regola di Nielsen‖14 In Italia i test di usabilità sono ancora poco praticati. I motivi principali sono due. Il primo è senz‘altro costituito dalla insufficiente diffusione di una cultura dell‘usabilità, sia presso gli utenti sia presso gli stessi progettisti. La sensibilità verso questi problemi è tuttora molto bassa, e gli esperti di usabilità, nelle scuole e nel mercato, sono pochi. Il secondo motivo è che – si sostiene - i test di usabilità costano troppo. Si tratta di una credenza ancora diffusa, ma sbagliata: i test di usabilità si possono fare rapidamente e con costi molto contenuti. Un test di usabilità ben strutturato può coinvolgere anche 15-20 utenti. Non è però sempre necessario utilizzare così tanti 14 da http://www.useit.com Introduzione all‘Ingegneria dell‘Usabilità 171 soggetti, ne bastano molti di meno. Per esempio, Jakob Nielsen (Nielsen & Laundauer, 1993) sostiene che con 5 utenti si scopre l‘85% dei problemi di usabilità di un sito15 (Figura 21). In pratica, i primi 5 utenti metteranno in evidenza la maggior parte dei problemi di usabilità più significativi: gli utenti successivi non faranno altro che confermare gli stessi risultati, aggiungendo ben poco di nuovo. Questo suggerisce un modo di procedere semplice e particolarmente adatto allo sviluppo per prototipi successivi. Al termine di ogni fase di lavoro, si effettua un test di usabilità con pochi utenti, quindi si eliminano i problemi individuati, per condurre un nuovo test al termine della fase successiva, e così via, iterativamente, in un ciclo evolutivo nel quale non è mai necessario condurre test che richiedono una organizzazione impegnativa. I soggetti da utilizzare nei test dovranno, in ogni caso, essere scelti con cura, in modo da rappresentare utenti tipici. In nessun caso dovranno essere estranei all‘ambito applicativo del prodotto, altrimenti i risultati non potranno essere significativi. Per poter interpretare correttamente l‘esito di ciascun test, chi lo conduce dovrà inoltre conoscere, per ciascun soggetto, il livello di esperienza nell‘uso di sistemi analoghi a quello in esame. Esiste anche un terzo motivo che a volte viene addotto per non fare test di usabilità. Si sostiene, in sostanza, che i test di usabilità non ci danno dei risultati oggettivi, ma ci segnalano soltanto le risposte soggettive di determinati individui di fronte al sistema. Questa è la tipica reazione di autodifesa dei progettisti: la ―colpa‖ dei problemi non è nel sistema, è di quel particolare utente, che non è capace di usarlo come dovrebbe. Altri utenti, più ―furbi‖, non incontrerebbero difficoltà. Il ragionamento è insidioso, perché, apparentemente, difendibile. Più o meno, è questo: test ―scientifici‖, con risultati statisticamente validi, dovrebbero coinvolgere moltissimi utenti: molte diecine, forse centinaia. Questo non si può ovviamente fare, sarebbe troppo lungo e costoso. I test con pochi utenti non sono significativi: le persone sono troppo diverse l‘una dall‘altra. Per- 15 Per una sintesi, si veda la nota di J.Nielsen Why You Only Need to Test With 5 Users, in http://www.useit.com 172 Roberto Polillo ché dovremmo dar peso alle reazioni soggettive di pochi individui e avviare costose modifiche soltanto sulla base di queste reazioni? Il fondamento di queste obiezioni è formalmente inappuntabile: un esperimento o è condotto con il necessario rigore, o è inutile: non permette di trarre alcuna conclusione valida. Ma dal punto di vista pratico non regge: un test di usabilità – a meno che non sia condotto su una popolazione vasta di utenti e con metodi statistici rigorosi, il che non succede praticamente mai - non è un esperimento scientifico, fatto per confermare determinate ipotesi. Il suo scopo è quello di verificare le reazioni di certi soggetti a determinati stimoli. Queste reazioni sono un fatto oggettivo, si possono vedere e registrare con la telecamera. Anche le reazioni di pochi individui ci possono insegnare qualcosa, se opportunamente decodificate ed interpretate. Ed è soprattutto questa analisi e interpretazione, che ci fornisce una comprensione migliore del nostro sistema, e di come può essere usato, ciò che interessa, e che dà valore al test. Dai test di usabilità possiamo scoprire aspetti che abbiamo trascurato nella progettazione e che possiamo migliorare. Peraltro, in un tipico test di usabilità di un sito, molto spesso il conduttore non ha bisogno, per così dire, di ―leggere fra le righe‖. In genere, quando ci sono dei problemi, le reazioni degli utenti sono evidenti, a volte addirittura scomposte, e di significato inequivocabile. Per capire perché è necessario fare test di usabilità dobbiamo vederne qualcuno. Leggerne su un report scritto può non bastare a convincerci. Ma altra cosa è vedere con i nostri occhi una persona in carne e ossa, che ha accettato di sottoporsi al test, e che si mostra gentile, disponibile, interessata e volonterosa e che, dopo diversi tentativi non riesce a portare a termine un compito, e allora si fa rossa in viso, balbetta frasi incoerenti, e poi abbandona sbattendo, con un gesto di stizza, il mouse contro il tavolo… Queste reazioni, nella loro specificità certamente soggettive e individuali, costituiscono comunque un dato oggettivo, che non possiamo trascurare. Le difficoltà macroscopiche emergono subito, anche con utenti diversi, e questo è il senso della ―regola di Nielsen‖. Diverso è il caso dei problemi minori, in cui le differenze di esperienza fra i vari utenti possono contare molto. In questi casi possono essere necessari molti test e molti soggetti e, soprattutto, una buona esperienza e capacità di analisi da parte degli osservatori. Introduzione all‘Ingegneria dell‘Usabilità 173 In conclusione, i test di usabilità sono parte necessaria e ineliminabile del processo di progettazione e sviluppo di un sistema interattivo. L‘usabilità non è un optional che si possa eliminare per abbassare i costi, come gli accessori in un‘auto economica. Così come non si possono eliminare i test per verificare il corretto funzionamento del software. Molto semplicemente, se il prodotto è poco usabile, o non funziona, gli utenti non lo useranno. Un test di usabilità potrà poi essere completato con un‘intervista al soggetto, per conoscere la sua opinione sul prodotto e i suoi eventuali suggerimenti. Questa intervista non potrà, in ogni caso, sostituire il test, che deve consistere principalmente nell‘osservazione dei comportamenti dell‘utente. Infatti, le opinioni che l‘utente ha sui suoi comportamenti nell‘uso di un sistema non sono necessariamente attendibili: come ben si sa, opinioni e comportamenti non sempre coincidono. Come condurre un test di usabilità È preferibile che il team che conduce il test sia costituito da almeno due persone. Una avrà il compito di dirigere le attività e di interloquire con gli utenti, l‘altra (o le altre) assisteranno al test, senza interferire, prendendo appunti sulle situazioni più significative, e nel contempo verificando che le registrazioni, se vengono fatte, procedano correttamente. Un test di usabilità viene condotto in tre fasi successive: preparazione, esecuzione, analisi dei risultati e stesura delle raccomandazioni finali. Vediamole brevemente. Preparazione del test Nella fase di preparazione del test, il team di valutazione deve innanzitutto definire il numero e il profilo degli utenti campione e la sequenza di compiti che si richiederà loro di svolgere. Sono decisioni molto delicate, poiché da esse dipenderà in larga misura la significatività del test. Queste scelte sono fra loro collegate, e dipendono dagli obiettivi che ci si propone di raggiungere con il test. Nel caso in cui il test sia inserito nel processo iterativo di sviluppo, si seguirà spesso la ―regola di Nielsen‖ di cui abbiamo parlato nelle pagine precedenti. Nel caso, invece, in cui il test di usabilità costituisca un evento a sé stante, per esempio per valutare la opportunità di interventi mi- 174 Roberto Polillo gliorativi in un sistema esistente, occorrerà una organizzazione più robusta. La durata di ogni test potrà essere allungata (ma normalmente non durerà più di un‘ora, o un‘ora e mezza). Il numero degli utenti sarà maggiore, tenendo comunque presente che normalmente si ritiene più produttivo fare tanti test con pochi soggetti che pochi test con molti soggetti. In questi casi anche la organizzazione del team di valutazione dovrà essere potenziata. In un test di una certa ampiezza si raccolgono informazioni in grande quantità, e bisogna poi saperne trarre le dovute conclusioni. In questo caso, l‘inserimento nel team di un esperto di usabilità è, in genere, necessario. In ogni caso, un test ben condotto richiede utenti selezionati in base agli obiettivi stabiliti, e in particolare agli scenari d‘uso predisposti. Li dovranno sentire come possibili, senza finzioni, indipendentemente dalla loro esperienza. Non ha senso chiedere a chi non è mai salito su un aereo di prenotare un volo sul sito di una compagnia aerea. Rischieremmo di rilevare delle difficoltà che non derivano dal sistema, ma dalla poca dimestichezza che l‘utente ha con il problema che gli abbiamo sottoposto. I risultati della prova saranno probabilmente inquinati. È sbagliato, per ―fare numero‖, reclutare le persone più facilmente disponibili, senza ulteriori accertamenti: dobbiamo proprio selezionare dei potenziali clienti del sito. Proseguendo nella preparazione del test, il team di valutazione deciderà quindi le misure da raccogliere, e predisporrà tutti gli aspetti relativi alla logistica per l‘esecuzione delle prove (postazione di lavoro, strumenti di registrazione, e così via), in modo che queste possano avvenire, per quanto possibile, senza disturbi o interferenze. Si predisporranno infine i materiali necessari allo svolgimento del test, ed essenzialmente: un semplice questionario per raccogliere le informazioni sugli utenti, soprattutto in relazione al loro livello di esperienza l‘elenco conciso ma molto chiaro dei compiti /scenari proposti, da consegnare agli utenti all‘inizio del test. Infatti, poiché è opportuno che tutti i test vengano effettuati nelle medesime condizioni, è conveniente che gli utenti seguano istruzioni scritte, anche per evitare richieste di chiarimenti e spiegazioni durante lo svolgimento della prova Introduzione all‘Ingegneria dell‘Usabilità 175 un modulo che gli osservatori utilizzeranno per raccogliere le loro annotazioni durante il test e, soprattutto, i dati quantitativi relativi alla esecuzione di ciascun compito da parte di ciascun utente. Le misure raccolte possono essere diverse da caso a caso ma, solitamente, si raccolgono i tempi di esecuzione di ogni compito, la percentuale di compiti portati a termine con successo (success rate) e, se quantificabile, il livello di completamento di ogni singolo compito, per quei compiti che l‘utente non riesce a portare a termine un questionario per l‘intervista finale degli utenti, di cui parleremo fra poco. Esecuzione del test La fase di esecuzione del test vera e propria, se tutto è già bene organizzato e ci si limita a un test con pochi utenti, non dura in genere più di tre o quattro ore complessivamente. Un test più ampio richiederà, al massimo, una o due giornate di lavoro. È molto importante che, durante il colloquio di spiegazione iniziale con ciascun utente, venga chiarito molto bene che l‘obiettivo della prova è quello di valutare il sistema, e non la capacità dell‘utente di svolgere bene e rapidamente i compiti assegnati. È indispensabile che il facilitatore metta ogni utente a suo agio, per ridurre al massimo lo ―stress da esame‖ che non sarà mai del tutto eliminabile, e che potrebbe compromettere la significatività dell‘esperimento. Bisogna spiegare bene che quando una persona ha dei problemi ad usare un‘interfaccia, questo avviene non perché la persona è stupida, ma perché l‘interfaccia è progettata male. Ad ogni utente dovrà poi essere esplicitamente garantita la riservatezza delle eventuali registrazioni che saranno effettuate, che dovranno essere visionabili esclusivamente dai team di valutazione e di progetto. I test dovranno essere condotti singolarmente, un utente per volta. È opportuno prevedere, per ciascun utente, un breve periodo di familiarizzazione con il sistema, prima del test vero e proprio. Durante lo svolgimento della prova i valutatori dovranno interferire il meno possibile: solo il facilitatore è autorizzato a parlare con l‘utente, e i suoi interventi dovranno essere limitati allo stretto indispensabile: il suo scopo sarà esclusivamente quello di rassicurarlo 176 Roberto Polillo in caso di difficoltà, incitandolo a proseguire con tranquillità, senza mai suggerire le azioni da compiere e senza fornire o chiedere spiegazioni. Dovrà invece, quando necessario, ricordargli il ―thinking aloud‖, cioè di esprimere ad alta voce dubbi o commenti su ciò che sta facendo: che cosa sta cercando di fare, che cosa vede sullo schermo, come pensa di dover proseguire, quali dubbi ha, e così via. Questo sarà molto utile nella fase successiva di analisi delle registrazioni audio e video. Analisi dei risultati e raccomandazioni L‘ultima fase del test è quella in cui si analizza il materiale raccolto (appunti o registrazioni audio/video) e si traggono le conclusioni. È la fase più delicata, e richiede tempo e grande cura. Anche una sessione di test breve, se riesaminata con attenzione, può fornire molte informazioni. Ogni gesto, ogni frase, ogni esclamazione dell‘utente è un indizio importante, che va considerato e discusso dal team di valutazione, per individuarne cause e implicazioni. Ci sono alcuni errori tipici dei valutatori poco esperti, che vanno evitati. Il primo è di limitarsi sostanzialmente a riportare i giudizi espressi dagli utenti nelle interviste successive al test. Queste sono importanti, ma costituiscono solo una parte dei risultati di un test ben condotto. Infatti quasi sempre l‘utente tende a limitarsi a esprimere giudizi o sensazioni di carattere generale (es.: ―la fase di registrazione dell‘utente è troppo complicata e mi chiede informazioni inutili‖), senza essere in grado di risalire con precisione a tutte le cause di tali giudizi o sensazioni. Se lo fa, a volte la sua analisi può rivelarsi sbagliata: non possiamo pretendere che l‘utente sia un esperto di usabilità. Quindi il valutatore non potrà accontentarsi dei commenti degli utenti, ma dovrà sempre effettuare un‘analisi dettagliata dei loro comportamenti, esaminando il materiale registrato o gli appunti presi durante la sessione di prova. Il secondo errore tipico è quello di limitarsi all‘elencazione di poche difficoltà macroscopiche, senza andare oltre. Occorre, invece, elencare analiticamente tutti i problemi individuati, grandi e piccoli: solo così il test ci darà il massimo rendimento. Il prodotto di quest‘analisi sarà quindi un elenco dei problemi identificati per ciascun compito svolto, descritti in modo circostanziato. Normalmente, a ciascun problema, il team di valutazione as- Introduzione all‘Ingegneria dell‘Usabilità 177 segna un livello di priorità, sulla base di considerazioni di vario tipo: il numero di volte che tale problema è stato evidenziato nei test, il livello d‘esperienza degli utenti che hanno sperimentato il problema, l‘effetto che il problema ha avuto sul completamento del compito (il problema è risultato bloccante, o l‘utente ha trovato comunque una soluzione o un percorso alternativo che gli ha permesso di arrivare al risultato desiderato?). Al termine del test d‘usabilità, è molto utile intervistare gli utenti sull‘esperienza che hanno appena fatto. In queste interviste, il conduttore chiederà, ad ogni singolo utente, quali sono, a suo parere, i punti di forza e di debolezza del sistema, gli aspetti che dovrebbero essere migliorati, e quelli che ha gradito maggiormente. A tal fine sarà utile raccogliere le osservazioni con l‘ausilio di un semplice questionario. Conclusioni Questo capitolo ha presentato una visione introduttiva della disciplina della ingegneria della usabilità. La discussione è stata del tutto indipendente dalla specifica tipologia dei sistemi da progettare, per i quali si è fatta la sola ipotesi che si tratti di sistemi che interagiscano in modo ―sostanziale‖ con utenti umani (escludendo, quindi, quei sistemi che controllano altri sistemi, senza significativi interventi umani), e per i quali sia richiesto un elevato grado di usabilità. Quanto detto si può applicare, per esempio, alla progettazione di sistemi informativi, di apparati di controllo di apparecchiature critiche, di device per uso personale, di sistemi multi-utente di varia natura, e così via. In questo ambito, si è osservato che, negli ultimi due decenni, le discipline tradizionali della progettazione hanno subito un completo cambio di paradigma: da una visione sistema-centrica delle attività e dei processi coinvolti, a una visione fortemente utente-centrica, per la quale l‘oggetto della progettazione non sono più le funzionalità del sistema (system design), ma le modalità di interazione fra il sistema e i suoi utilizzatori (interaction design). Questo cambio di paradigma, apparentemente ―indolore‖, ha in realtà profonde implicazioni su tutte le tematiche connesse alla pro- 178 Roberto Polillo gettazione, e in particolare sui modelli del processo di progettazione e sviluppo, sulla composizione dei team di progetto, e sulla formazione stessa dei progettisti: i processi di progettazione e sviluppo, qualunque siano i contesti organizzativi, le metodologie, gli strumenti e gli standard adottati, devono necessariamente essere di tipo iterativo, per inserire l‘utente – e le prove d‘uso del sistema - lungo l‘intero processo di progettazione e sviluppo. Le prove d’uso diventano una componente della attività di progettazione i team di sviluppo devono essere di necessità multi-disciplinari, per fronteggiare la complessità e la articolazione dei problemi posti dalla forte focalizzazione sull‘utente, con tutte le problematiche connesse (ergonomiche, psicologiche, sociali) infine, la formazione dei progettisti – tradizionalmente di orientamento esclusivamente tecnico – deve ampliare i propri orizzonti. Un team multi-disciplinare raccoglie persone con professionalità, culture, linguaggio, valori e priorità diverse, che devono riuscire a comunicare in modo armonico, nel rispetto dei contributi specifici al progetto complessivo. Anche se la inevitabilità di questo cambio di paradigma è stata riconosciuta quasi un quarto di secolo fa, nella quotidiana pratica progettuale molta strada deve ancora essere percorsa per una sua adozione matura e consapevole, soprattutto nel nostro Paese. Letture Consigliate Mary B.Rosson, John M.Carroll, Usability Engineering – Scenario-based Development of Human-Computer Interaction, Morgan Kaufmann Publishers, 2002, pagg.xxi+422 Jennifer Preece, Yvonne Rogers, Helen Sharp, Interaction Design (Second Edition), John Wiley & Sons, 2007, pagg.xxvi+773. La prima edizione è stata pubblicata in Italia, con lo stesso titolo, da Apogeo (2004, pagg.xxi+503) Soren Lauesen, User Interface Design – A Software Engineering Perspective Addison Wesley, 2005, pagg.604 Introduzione all‘Ingegneria dell‘Usabilità 179 Bibliografia Alexander, C. [1979]. The Timeless Way of Building, Oxford University Press. Alexander, C., Ishikawa, S., Silverstein, M. [1977]. A Pattern Language, Oxford University Press. Carroll, J.M., Kellogg, W.A., Rosson, M.B. [1991]. The Task-Artifact Cycle, in J.M.Carroll (ed.), Designing Interaction – Psycology at the Human computer Interface, Cambridge University Press. Cockton, G. [2008]. Revisiting Usability‘s Three Key Principles, in Proceedings CHI 2008 Good, M, Spine, T.M., Whiteside, J., George, P. [1986]. User-derived impact analysis as a Tool for Usability Engineering, in Proceedings CHI 86. Gould, j., Lewis, C. [1985]. Designing for Usability: Key principles and what designers think, in Communications of the ACM, 28(3). Houde, S., Hill, C. [1997]. What do Prototypes Prototype?, Handbook of Human Computer Interaction (2nd Ed.), M. Helander, T.E. Landauer, P. Prabhu (ed.), Elsevier Science, Amsterdam. Nielsen, J. [1993]. Usability Engineering, San Francisco CA, USA, Morgan Kaufman. Nielsen, J.; Landauer, T.K. [1993]. A Mathematical Model of the Finding of Usability Problems, Proceedings of ACM INTERCHI ‘93 Conference, Amsterdam, Aprile 1993, pagg.206-213 Polillo, R. [2006]. Plasmare il Web. Apogeo. 180 Roberto Polillo Roberto Polillo è docente di Interazione Uomo Macchina e titolare del Laboratorio di Internet per il corso di laurea in Informatica e per il corso di laurea magistrale in Teoria e tecnologia della comunicazione dell'Università degli Studi di Milano Bicocca. In oltre 30 anni di attività nel settore del software, ha curato progetti di sviluppo di software di ogni tipo, dai language processors ai sistemi operativi, ai sistemi informativi, ai sistemi di supporto alla produttività individuale, alle applicazioni web, con particolare attenzione alle tematiche del software engineering, della qualità del software, dell'Interazione uomo-macchina e della qualità dei siti web. Recentemente ha pubblicato due libri sul Web, entrambi per la casa editrice Apogeo: ―Il check-up dei siti web‖ (2004) e ―Plasmare il Web‖ (2006). Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Misure di Qualità: Dall’Usabilità all’Esperienza dell’Utente Antonella De Angeli – Manchester Business School University of Manchester [email protected] Abstract. Questo capitolo offre un‘analisi delle principali misure e metodo- logie utilizzate per valutare la qualità interattiva del software. Il contributo presenta le principali metriche di qualità con particolare attenzione alle tradizionali definizioni operative del concetto di usabilità e alle più recenti proposte relative al costrutto di esperienza dell‘utente. L‘usabilità definisce la qualità interattiva come amichevolezza nei confronti dell‘utente; i suoi attributi fondamentali si riferiscono a qualità pragmatiche relative all‘esecuzione di compiti, quali efficacia ed efficienza d‘uso. L‘esperienza dell‘utente estende questa definizione fino ad includere anche qualità edonistiche che si riferiscono al godimento estetico, al coinvolgimento emozionale dell‘utente e al piacere derivato dall‘utilizzo di un sistema interattivo. Il contributo descrive le principali metodologie e misure di valutazione discutendone possibilità e limiti rispetto alle diverse concettualizzazioni di qualità dei sistemi interattivi. Keywords: metodologie e tecniche di valutazione, valutazioni analitiche, studi con utenti, studi sul campo. Introduzione Nella società in cui viviamo il computer si va imponendo sempre di più non solo come strumento di lavoro, ma anche e soprattutto come oggetto di intrattenimento. Se fino allo scorso decennio, il computer era essenzialmente uno strumento di calcolo, gestione ed elaborazione dell‘informazione, adesso le tecnologie informatiche sono diventate importanti mezzi di comunicazione, supporti all‘autorealizzazione e all‘affermazione sociale dell‘individuo, non- 182 Antonella De Angeli ché alla creatività individuale e collettiva. Accanto al computer inteso nel senso tradizionale come macchina di lavoro composta da video, hardware e unità periferiche di interazione si sono venuti ad affermare una serie di altri oggetti di uso quotidiano che incorporano complessi elaboratori elettronici, nascosti dietro semplici interfacce d‘uso (gli ultimi quatto capitoli di questo libro presentano numerosi esempi di tali tecnologie applicate a interfacce utente multi-dispositivi, mobile computing, realtà virtuale e tangible user interfaces). Questa evoluzione, che segna il passaggio da artefatti cognitivi (sistemi finalizzati alla soluzione di compiti) a artefatti esperienziali (sistemi progettati per coinvolgere l‘utente in attività sociali e ricreazionali) è stata elegantemente analizzata in chiave storica da Bagnara e Pozzi nel capitolo introduttivo: Fondamenti, Storia e Tendenze dell’HCI. Questo contributo si propone invece di presentare e discutere le implicazioni di tale cambiamento sul concetto di qualità interattiva del software e su metodologie e tecniche di progettazione e valutazione di strumenti informatici. A questo fine introdurremo i due concetti chiave di usabilità e esperienza dell‘utente per poi analizzare come questi concetti richiedano un approccio fondamentalmente diverso di valutazione. 1. Usabilità Negli ultimi 20 anni, la qualità interattiva dei sistemi informatici è stata definita come amichevolezza (user-friendliness) o, più rigorosamente, come usabilità (usability). Tale concetto è una pietra miliare nella storia dell‘informatica, che segna il passaggio da un approccio alla progettazione centrato sul sistema, a un approccio alla progettazione più complesso dove capacità e bisogni dell‘utente diventano requisiti fondamentali di progettazione e criteri basilari di valutazione (cfr. Capitolo 3, R. Polillo, Introduzione all’Ingegneria dell’Usabilità). Elementi chiave nella misurazione dell‘usabilità sono variabili quali facilità di apprendimento, efficacia ed efficienza nell‘utilizzo. Queste dimensioni possono essere misurate oggettivamente osservando gruppi di utenti durante l‘esecuzione di compiti. Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 183 L‘usabilità è un concetto di natura multidimensionale, caratterizzato in modo variabile a seconda dei modelli teorici di riferimento. Senza la pretesa di essere esaustivi, in questo capitolo ci soffermeremo su due importanti definizioni: quella elaborata da Jacob Nielsen nel libro Usability Engineering (1993) e quella proposta dall‘Organizzazione Internazionale per le Standardizzazioni (ISO, 1998). La prima ha il pregio di presentare un dettagliato modello degli attributi costituenti l‘usabilità e delle sue relazioni gerarchiche con altri concetti rilevanti per il dominio. La seconda, invece, rappresenta uno standard per la comunità degli informatici. La proposta di Nielsen Secondo il modello gerarchico di Nielsen, l‘usabilità è un aspetto dell‘accettabilità di un sistema vale a dire della sua capacità globale di soddisfare necessità e bisogni degli utenti. Tale concetto si articola in due sottocategorie: accettabilità sociale e accettabilità pratica. Da un punto di vista sociale, un sistema è considerato accettabile se coerente con alcuni valori fondamentali dell‘utente, quali per esempio sicurezza e privacy. Tale giudizio dipende in maniera cruciale dalla cultura dell‘utente e dal contesto di utilizzo. Da un punto di vista pratico, l‘accettabilità è invece definita da una serie di attributi quali: costo, affidabilità, compatibilità con sistemi preesistenti e praticità. Quest‘ultimo aspetto a sua volta è composto da due attributi: utilità e usabilità. Il primo si riferisce all‘effettiva capacità del sistema di eseguire le funzioni per cui è stato progettato, mentre il secondo definisce la qualità dell‘interazione. L‘usabilità è dunque il concetto chiave nel rapporto tra utente e computer. Tale concetto è composto da cinque attributi basilari, oggettivamente ed empiricamente misurabili. Facilità di apprendimento. Un sistema deve essere facile da imparare, in modo tale da permettere a un utente che lo utilizza per la prima volta di raggiungere buone prestazioni in tempi brevi. Efficienza nell’utilizzo. Una volta superata la fase di apprendimento il sistema deve garantire prestazioni altamente produttive. Questo attributo viene solitamente misurato con utenti caratterizzati da un elevato e stabile livello di esperienza. 184 Antonella De Angeli Facilità di ricordo. L‘utente deve potere interagire con un‘interfaccia anche dopo un periodo di lungo inutilizzo, senza essere costretto a ricominciare da zero il periodo di apprendimento. La memorizzazione semplice e immediata dei comandi è particolarmente importante in applicazioni destinate ad utilizzo occasionale. Sicurezza e robustezza all’errore. Un sistema deve essere il più possibile sicuro, deve cioè ridurre al minimo la probabilità del verificarsi di azioni errate. Inoltre, deve essere robusto, nel senso che il suo funzionamento non deve venire compromesso da errori banali e nel caso del verificarsi di errori deve permettere semplici azioni riparatorie. Soddisfazione soggettiva. Questa è l‘unica dimensione soggettiva dell‘usabilità e riguarda il giudizio relativo al comfort e alla piacevolezza dell'interazione. In generale, gli utenti dovrebbero sentirsi soddisfatti del tempo passato utilizzando il computer. Il valore relativo dei cinque attributi costituenti l‘usabilità è variabile poiché vari vincoli inerenti alla progettazione e alla realizzazione dei sistemi interattivi non consentono sempre di ottenere valori elevati per ciascuno di essi. Alcuni attributi, quali ad esempio facilità di apprendimento ed efficienza d‘uso, sono spesso in opposizione, per cui punteggi alti a un attributo tendono a implicare punteggi bassi all‘altro. In fase di progettazione concettuale di un sistema è quindi necessario ordinare tali attributi su una scala di importanza. L‘ordine viene stabilito sulla base delle caratteristiche dell‘utenza e del sistema. Si consideri, per esempio, la differenza fra un‘interfaccia destinata all‘uso quotidiano da parte di utenti esperti del dominio e delle tecnologie informatiche, con un‘interfaccia destinata a uso occasionale sul web, da parte di un utenza estremamente differenziata in termini di conoscenze ed esperienza. Mentre nel primo caso la dimensione dell‘efficienza assume priorità assoluta, anche a scapito di una maggiore complessità di apprendimento, nel secondo caso la situazione si ribalta e la semplicità di apprendimento diventa obiettivo principale di progettazione anche a scapito di una diminuzione nell‘efficienza nelle procedure di esecuzione del compito. Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 185 La proposta ISO Gli standard ISO definiscono l‘usabilità come l'efficacia, efficienza e soddisfazione con cui determinati utenti raggiungono determinati scopi in un ambiente ben definito (ISO, 1998). La dimensione dell'efficacia riguarda il grado di accuratezza e completezza con cui gli utenti raggiungono i loro obiettivi. Misure chiavi di tale costrutto sono il numero di errori commessi dall‘utente, l‘adeguatezza delle strategie di soluzione, la qualità del risultato finale. La dimensione dell'efficienza misura il rapporto fra efficacia e risorse spese per il raggiungimento dell‘obiettivo dell‘utente. La soddisfazione dell'utente è concettualizzata in modo simile alla proposta di Nielsen e si riferisce alla valutazione del comfort e della piacevolezza dell‘interazione. La proposta ISO riassume ed espande le precedenti concettualizzazioni di usabilità in quanto pone l‘accento in modo fondamentale sull‘importanza del contesto d‘uso. In questa visione, il termine contesto si riferisce a tutti gli attributi che possono influenzare la misurazione dell‘usabilità, come, ad esempio, caratteristiche degli utenti, del compito, dello hardware e del software, come anche dell‘ambiente in cui il sistema viene utilizzato. Per misurare l‘usabilità di un sistema è necessario definire operativamente le tre dimensioni chiave dell‘usabilità sulla base del sistema oggetto di valutazione e del suo contesto d‘uso. Efficacia ed efficienza sono misurate da indici oggettivi di prestazione, quali il numero di errori nel risultato finale o il numero di correzioni. Tali indici possono essere inferiti da valutazioni basate sulla teoria o mediante sperimentazione empirica. La soddisfazione dell‘utente invece è misurata da indici soggettivi, raccolti tramite questionari o interviste. I giudizi spaziano da valutazioni di carattere prettamente utilitaristico, a valutazioni edonistiche e di desiderabilità del sistema. Qualità come assenza di problemi La metrica dell‘usabilità definisce implicitamente la qualità interattiva come ‗assenza di problemi’ ed è proprio questa visione riduzionistica e negativa che è stata recentemente messa in discussione da un nuovo movimento di ricerca e progettazione che, nella letteratura anglosassone, si identifica sotto il termine generale di user- 186 Antonella De Angeli experience (UX), in italiano: esperienza dell‘utente. L‘esperienza dell‘utente è un concetto di natura multidimensionale che descrive la complessa reazione psicologica dell‘utente di fronte all‘interazione con strumenti interattivi. Secondo i ricercatori e i designer che si identificano con questo movimento, la qualità di un sistema interattivo trascende l‘assenza di problemi e deve essere definita in modo positivo come il valore aggiunto che un sistema offre ai suoi utenti in termini di soddisfazione di alcuni bisogni e valori fondamentali dell‘essere umano. Elementi chiave nella misurazione dell‘esperienza dell‘utente sono reazioni soggettive, quali ad esempio, divertimento, piacevolezza, motivazione, gratificazione, emozione, o identificazione sociale. 2. Esperienza dell’Utente Il concetto di esperienza dell‘utente come misura della qualità interattiva di un software è un costrutto di ricerca molto giovane e ancora acerbo che si riferisce all‘insieme delle risposte comportamentali e psicologiche indotte dall‘interazione con i sistemi informatici (Hassenzhal & Trackinsky, 2006). Tali reazioni sono causate da un vasto numero di variabili che in combinazione e spesso anche in contrapposizione determinano le preferenze degli utenti. Il costrutto dell‘esperienza dell‘utente si propone come un‘estensione del concetto di usabilità: la qualità dell‘interazione viene definita non solo da tradizionali aspetti pragmatici, relativi all‘esecuzione del compito, ma anche da attributi edonistici, relativi alla gratificazione dell‘utente. In questa visione, dunque, dimensioni quali la piacevolezza estetica di un artefatto, il divertimento derivato dal suo utilizzo, reazioni emozionali, sentimenti di identificazione e autoaffermazione, vengono considerate importanti dimensioni di qualità, alla pari e forse anche di più, dell‘efficienza nello svolgimento di un compito. Origini Il settore di ricerca e la filosofia di progettazione che si identificano sotto l‘etichetta di esperienza dell‘utente possono essere collocate all‘interno di un processo di interazione fra settori di studio diversi. Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 187 Se le prime critiche al concetto riduzionista dell‘usabilità emersero già alla fine degli anni 80 (Carroll & Thomas 1988), ci sono voluti almeno vent‘anni perché la comunità di Human-Computer Interaction cominciasse ad occuparsi della ridefinizione del concetto di qualità interattiva. La discussione è stata motivata dallo sviluppo tecnologico e dalla crescente diffusione delle tecnologie informatiche nella vita privata delle persone per cui si è giunti alla consapevolezza che la corretta esecuzione dei compiti non fosse più la sola misura di successo di un sistema interattivo. La ricerca è stimolata dal crescente riconoscimento dell‘importanza del piacere (Jordan, 2000), del divertimento (Blythe, et al. 2003) delle emozioni (Desmet, 2002; Norman, 2004), dell‘interazione sociale (De Angeli, et al. 2002) come determinanti fondamentali del comportamento umano di interazione con strumenti tecnologici e della loro possibilità di successo di mercato. Modelli Il concetto di esperienza dell‘utente sta vivendo un momento di estrema popolarità, ma le conoscenze disponibili per comprendere questo complesso costrutto sono ancora frammentarie ed elementari. Un elemento comune di definizione è la natura olistica dell‘esperienza dell‘utente che sottintende un modello di qualità multi-dimensionale. Vari modelli sono stati presentati per cercare di descrivere le costituenti principali dell‘esperienza dell‘utente. Tali modelli si differenziano sulla base degli attributi discussi e delle loro interazioni. Secondo Marc Hassenzhal (2004) l‘esperienza dell‘utente è composta da due dimensioni principali composte da attributi di tipo pragmatico (elementi tradizionali di usabilità) e attributi di tipo edonistico, quali ad esempio l‘arricchimento personale in termini di apprendimento, identificazione, comunicazione sociale e capacità evocativa. La dimensione pragmatica e la dimensione edonistica sono concepite come misure sostanzialmente distinte ed ortogonali. Tractinsky & Zmiri (2006) propongono invece un modello dell‘esperienza dell‘utente che si articola su tre dimensioni fra loro correlate: usabilità, estetica e simbolismo. Il concetto di estetica si 188 Antonella De Angeli riferisce all‘esperienza sensoriale stimolata dalla percezione dell‘interfaccia e viene suddivisa in una dimensione di estetica classica e una dimensione di estetica di espressione (Lavie & Tracktinsky, 2002). L‘estetica classica è composta da attributi quali bellezza, simmetria, e chiarezza del design, mentre l‘estetica di espressione si riferisce più direttamente alla dimensione interattiva ed è descritta da attributi quali coinvolgimento e utilizzo di effetti speciali nell‘interazione. La dimensione del simbolismo si riferisce al significato attribuito a uno strumento interattivo e alle associazioni da esso generate. In contrapposizione alla valutazione estetica, che in questo modello viene concepita come una reazione sensoriale, la valutazione del simbolismo sottintende un‘elaborazione cognitiva da parte dell‘utente, per cui all‘artefatto viene associato un significato. L‘ipotesi di una correlazione tra le varie dimensioni dell‘esperienza dell‘utente ed in particolare di un rapporto intrinseco fra il concetto di usabilità e quello di estetica è stato originalmente proposto da Tractinsky e colleghi nel 2000, in un importante e pionieristico lavoro empirico intitolato ‗What is beautiful is usable (Ciò che è bello è usabile). Tali autori propongono che la valutazione dell‘estetica dell‘interfaccia di un sistema interattivo influenzi la valutazione dell‘usabilità e giustificano tale ipotesi sulla base dell‘effetto alone. Tale effetto, ben noto nella letteratura di psicologia sociale, implica che la bellezza di una persona influenzi la percezione di una vasta gamma di dimensioni, fra cui ad esempio l‘intelligenza e la capacità di relazione sociale. Sulla base dell‘effetto alone dunque si ritiene che un‘interfaccia attraente tenda anche ad essere percepita come più usabile. Questa ipotesi è stata recentemente messa in discussione, da vari risultati sperimentali che hanno dimostrato un rapporto conflittuale fra estetica di espressione e usabilità (Sutcliffe & De Angeli, 2005; De Angeli, et al., 2006), due dimensioni che, per definizione, sono difficilmente compatibili. Infatti, se da un lato l‘estetica di espressione tende ad enfatizzare il bisogno di coinvolgere l‘utente con l‘utilizzo di effetti speciali, l‘usabilità raccomanda semplicità e chiarezza. Si propone quindi che il rapporto fra estetica e usabilità sia più complesso di una semplice relazione causale (bello allora usabile) ed in particolare si ipotizza che se tale relazione esiste Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 189 coinvolga solamente la dimensione di estetica classica che per definizione è molto più simile al concetto di usabilità. Questa proposta comunque non nega l‘ipotesi correlazionale nella sua interezza, in quanto numerosi studi sperimentali hanno dimostrato che il giudizio sulle dimensioni individuali dell‘esperienza dell‘utente è soggetto a molteplici influenze derivate dalla valutazione di altre dimensioni, così come dal contesto di valutazione. Dipendenza contestuale Un‘altro elemento comune della ricerca sull‘esperienza dell‘utente è l‘enfasi sulla dimensione soggettiva, personale e unica dell‘esperienza. Questa concettualizzazione rappresenta una differenza sostanziale rispetto al concetto di usabilità, che, a torto o ragione, è tradizionalmente presentata come una metrica di qualità oggettiva. Storicamente, gli studi di usabilità hanno preferito misure comportamentali ottenute osservando l‘utente nell‘esecuzione di compiti, a misure soggettive, ottenute tramite metodi verbali in cui l‘utente esprime un giudizio. Tali misure comportamentali vengono considerate valide e affidabili in quanto si ritiene che esse siano replicabili in campioni di utenti caratterizzati da abilità cognitive e motorie equivalenti. L‘esperienza invece è soggettiva: varia da persona a persona, viene influenzata dal contesto d‘uso, dalle motivazioni dell‘utente, dalla sua cultura, personalità, stato d‘animo, dal compito e, infine, anche dal prodotto interattivo (Hartmann, et al., 2007, 2008). Cercare di quantificare l‘esperienza è dunque un compito estremamente difficile e secondo alcune prospettive teoriche e metodologiche impossibile se non concettualmente sbagliato. Nei prossimi paragrafi ci proponiamo di presentare le principali metodologie di valutazione discutendone limiti e possibilità diagnostiche relativamente alla misurazione dell‘usabilità e dell‘esperienza dell‘utente. 3. Metodi di Valutazione Le principali metodologie di valutazione della qualità interattiva di un software si possono raggruppare in tre paradigmi principali: valutazioni analitiche, studi di laboratorio e studi sul campo. Tali pa- 190 Antonella De Angeli radigmi si differenziano sulla base del modo in cui i dati vengono raccolti (con o senza il coinvolgimento di utenti; in un contesto controllato o in un contesto naturalistico), sul tipo di sistema cui possono essere applicati (prototipi più o meno evoluti o sistemi finali) e sul tipo di risultati ottenibili (misure quantitative o misure qualitative). All‘interno di questi paradigmi principali esistono svariati metodi e molte tecniche che a partire dagli anni 80 sono state sviluppate per misurare l‘usabilità dei sistemi interattivi e più recentemente al fine di catturare questo concetto effimero dell‘esperienza dell‘utente. Valutazioni analitiche Le valutazioni analitiche si basano su conoscenze teoriche e non richiedono il coinvolgimento di utenti . Un esempio comune sono le valutazioni euristiche eseguite da un team di esperti che esprimono il loro giudizio sulla base di alcune direttive generali di progettazione. La valutazione mediante analisi del compito permette di formalizzare i pattern di interazione tramite l‘analisi delle procedure di esecuzione di un compito in riferimento a una concettualizzazione astratta dell‘utente, conosciuta come utente ideale (cfr. Capitolo 5, H. Pigot, Analisi Cognitiva delle Interfacce Utente). In questo modo è possibile identificare eventuali difetti nelle strategie di soluzione del compito. Le ispezioni di tipo cognitivo (in inglese, cognitive walkthroughs) si basano sulla simulazione del comportamento di un utente nell‘interazione con il sistema. Le valutazioni analitiche sono potenzialmente molto utili in quanto permettono di verificare che la direzione della progettazione sia congruente con i principi guida dell‘ergonomia cognitiva e dell‘ingegneria dell‘usabilità ed evidenziare i principali problemi di usabilità in modo veloce ed economico. A livello operativo possono essere applicate fin dalla fase di progettazione concettuale e forniscono una buona approssimazione della qualità di alcune dimensioni dell‘usabilità‘quali efficacia ed efficienza. Possono fornire anche degli indizi relativi alla semplicità di apprendimento. Il problema fondamentale delle valutazioni analitiche è che il rapido cambiamento della tecnologia informatica ne limita il valore diagnostico a sistemi interattivi di uso comune per cui sia disponibile un modello Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 191 teorico di riferimento. Inoltre, le valutazioni di tipo analitico forniscono molti pochi indizi relativi alla comprensione dell‘esperienza dell‘utente. Recentemente sono state proposte alcune euristiche per la valutazione del fascino di un‘interfaccia (Sutcliffe & De Angeli 2005, De Angeli, et al., 2006), ma il campo è ancora immaturo e la natura intrinsecamente soggettiva dell‘esperienza dell‘utente fa prevedere che un approccio di tipo analitico non sia la soluzione migliore per la valutazione dell‘esperienza dell‘utente, almeno non al momento attuale, poiché le conoscenze disponibili sono troppo limitate. Le valutazioni basate sull‘analisi del comportamento di utenti reali permettono di sorpassare alcuni di questi problemi. A seconda del livello di controllo che il valutatore esercita sul comportamento dell‘utente, questo paradigma si differenzia in studi di laboratorio e studi sul campo. Studi di laboratorio In generale, la valutazione basata sugli utenti implica costi maggiori rispetto a valutazioni analitiche poiché richiede il coinvolgimento di utenti e complesse analisi comportamentali, ma può offrire risultati migliori in quanto permette studi approfonditi del comportamento di interazione, come analisi dell‘errore, delle strategie di recupero e della fase di apprendimento. Inoltre, solo coinvolgendo gli utenti è possibile ottenere una misura dell‘esperienza dell‘utente. Per anni, il laboratorio è stato il tipico setting degli studi di valutazione dell‘usabilità. Nel tentativo di ottenere misure oggettive di qualità, le valutazioni sono state condotte in ambienti controllati, da ricercatori che osservavano il comportamento di un campione di utenti nell‘esecuzione di un set di compiti. Tali studi possono essere subordinati a due obiettivi principali, che richiedono approcci profondamente diversi. Un obiettivo è quello di verificare la qualità di un sistema (o prototipo). Un altro obiettivo invece è quello di paragonare prototipi diversi al fine di scegliere le migliori strategie di interazione per un dato sistema (valutazioni comparative). La distinzione è fondamentale. Le valutazioni di prototipi singoli sono più semplici: il loro obiettivo è quello di evidenziare il massimo numero di problemi di usabilità ed eventualmente paragonare questi 192 Antonella De Angeli risultati a standard disponibili. In questi i case un campione piccolo, anche di soli 5 utenti è sufficiente ad evidenziare un alto numero di problemi di usabilità (cfr. Capitolo 3, R. Polillo, Introduzione all’Ingegneria dell’Usabilità, in particolare il paragrafo Test di Usabilità e i relativi riferimenti). Le valutazioni comparative, invece, richiedono esperimenti controllati, e il loro valore diagnostico è funzione della qualità del disegno sperimentale, e del rigore di procedure e tecniche di misurazione e analisi statistica. Studi sul campo Un‘altra tecnica di valutazione dell‘usabilità basata sull‘analisi del comportamento degli utenti è lo studio sul campo. A differenza dei test di usabilità, che vengono eseguiti in ambienti controllati, gli studi sul campo avvengono in contesti naturali osservando il comportamento degli utenti in condizioni reali. Seguendo la tradizionale metodologia etnografica, il livello di coinvolgimento del ricercatore può variare. In alcuni casi il ricercatore si rende invisibile e si immerge nelle dinamiche del contesto sociale e culturale dello studio senza modificarle (ad esempio osservando a distanza l‘utilizzo di una postazione self-service), ma più spesso, in studi di interazione, il ricercatore dichiara i suoi intenti a degli informatori selezionati e li segue nelle loro dinamiche quotidiane cercando di comprendere in collaborazione con gli informatori l‘effetto delle tecnologie sulla loro vita. In questo caso, interviste, questionari e focus group diventano elementi fondamentali di ricerca. Gli studi sul campo stanno diventando sempre più comuni nel settore della Human-Computer Interaction perché sono un metodo privilegiato per comprendere l‘esperienza dell‘utente. Infatti, aumentano la validità ecologica delle osservazioni e facilitano la libera espressione di emozioni e sentimenti. Un metodo interessante utilizzato dai designer per raccogliere informazioni emozionali e sociali relative a situazioni naturali di utilizzo della tecnologia è quello dei cultural probes, letteralmente indagini culturali (Gaver, et al., 1999). Questo metodo implica una partecipazione attiva dell‘utente che comunica al ricercatore il suo comportamento o il suo stato d‘animo tramite una serie di ‗stimoli‘ fornitogli dallo sperimentatore. Ad esempio, il partecipante può fare foto, tenere un di- Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 193 ario o compilare delle cartoline relative ad eventi di interesse. Il ricercatore non è presente durante lo studio, ma raccoglie ed analizza i dati forniti dal partecipante, che tipicamente vengono chiariti ed analizzati mediante interviste. 4. Misure di Valutazione Gli studi di valutazione raccolgono un vasto numero di variabili che si distinguono a seconda del fatto che siano derivate da osservazioni comportamentali o da racconti e valutazioni fornite dall‘utente. Osservazioni comportamentali I metodi più comuni per raccogliere misure comportamentali sono l‘osservazione diretta delle azioni dell‘utente effettuata durante la valutazione (in laboratorio o sul campo) o tramite analisi di video, e il logging, la registrazione automatica delle azioni eseguite da utente e computer durante l‘interazione. L‘osservazione comportamentale è uno strumento molto importante per la valutazione dell‘interazione in quanto permette di conoscere le strategie di soluzione di un compito, e fornisce chiare indicazioni di efficienza (tempo) e efficacia (numero di errori). Un problema fondamentale è che le osservazioni comportamentali permettono solo di conoscere cosa è successo in un dato momento non le ragioni di tale comportamento. La mancanza di informazione sulle intenzioni dell‘utente rende spesso difficile la comprensione dei motivi sottostanti azioni che hanno causato errori. Il metodo del think aloud, letteralmente pensare ad alta voce, permette di ottenere alcune informazioni sui processi cognitivi sottostanti le azioni degli utenti (Ericsson & Simon, 1984). Il thinkaloud viene eseguito in laboratorio richiedendo agli utenti di verbalizzare ogni loro comportamento durante l‘esecuzione del compito. L‘interazione è registrata e in seguito sottoposta a analisi dei protocolli. Il vantaggio fondamentale di tale tecnica è la raccolta di misure qualitative relative alle strategie di soluzione del compito, che possono essere usate in concomitanza a misure comportamentali per ottenere un quadro complessivo della prestazione. Gli svantaggi sono numerosi. Innanzitutto, si tratta di un metodo particolarmente 194 Antonella De Angeli intrusivo che può aumentare anche in modo pesante il carico cognitivo dell‘utente e creare un contesto estremamente diverso da quello naturale di esecuzione. La verbalizzazione può influenzare il modo in cui gli utenti eseguono i compiti, modificandone le strategie di soluzione e l‘esecuzione è complessa, sia per il partecipante, che deve verbalizzare anche e specialmente nei momenti di difficoltà, sia per lo sperimentatore, che deve verificare l‘effettiva verbalizzazione di ogni comportamento ed eventualmente stimolare l‘utente. Per risolvere questi problemi il think-aloud può essere applicato come valutazione retrospettiva. L‘utente utilizza il sistema normalmente e solo in seguito, di fronte alla videoregistrazione della sessione, è stimolato a spiegare cause e motivi di errori o procedimenti insoliti. Il problema principale della variante è che spesso le persone non sono in grado di spiegare retrospettivamente le loro azioni. Un‘ulteriore variante è denominata codiscovery learning o constructive interaction. Entrambe le tecniche prevedono la partecipazione di due utenti che sono incoraggiati a parlare, comunicandosi le loro intenzioni prima di agire. Il vantaggio di tali tecniche deriva da un setting più naturale, lo svantaggio è invece legato all‘aumento di possibili variabili confondenti legate all‘interazione sociale. Se originariamente il think aloud è stato utilizzato essenzialmente per studiare i processi cognitivi dell‘utente, una variante di tale metodo può essere molto utile anche per raccogliere informazioni dirette sull‘esperienza dell‘utente (Hartman, et al., 2007). La verbalizzazione in questo caso non è finalizzata solo alla spiegazione dei comportamenti, ma, seguendo lo schema dell‘intervista semistrutturata, l‘utente è stimolato a riflettere su alcune variabili di tipo edonistico, quali il suo vissuto emozionale, la valutazione estetica dell‘interfaccia o le associazioni simboliche stimolate dall‘artefatto. È chiaro comunque che questa variante della procedura può interferire sulla valutazione degli aspetti pragmatici di esecuzione del compito. Il ricercatore deve avere ben chiari gli obiettivi della valutazione e alternare i due approcci in modo coerente con tali obiettivi. Le interviste contestuali sono sicuramente uno dei metodi privilegiati per raccogliere informazioni sulle variabili di natura edonistica (Pace, 2004). L‘analisi del comportamento permette anche di raccogliere varie informazioni relative allo stato emozionale dell‘utente. Esistono Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 195 svariate tecniche caratterizzate da un diverso livello di sofisticazione che si basano sull‘analisi del comportamento verbale spontaneo, delle espressioni facciali (Partala, et al. 2006), della dilatazione delle pupille (Partala & Surakka, 2003) e della postura dell‘utente (De Silva & Bianchi-Berthouze, 2004). Altri tipi di misure fisiologiche sono comunenente ottenute tramite analisi della risposta galvanica o misurazione dell‘attività cerebrale di un individuo (Picard, 1997). Metodi verbali Le misure soggettive riguardanti l‘interazione sono tipicamente raccolte chiedendo all‘utente di rispondere a domande contenute in questionari o interviste semi-strutturate. Numerosi strumenti psicometrici sono attualmente disponibili per la misurazione di aspetti diversi della soddisfazione dell‘utente (Chin, et al. 1988), anche se si sente ancora la mancanza di rigorose verifiche di validità e attendibilità di tali strumenti. Uno degli ostacoli principali allo sviluppo di robusti strumenti psicometrici è legato al fatto che alcune dimensioni dell‘usabilità sono sistema specifiche, vale a dire soggette a cambiamenti a seconda dell‘oggetto valutato e del compito. Questo richiede continui adattamenti e revisioni di questionari, se non addirittura formulazioni ex novo, in contesti di ricerca il cui interesse principale non risiede nella validazione di questionari e che necessitano risultati in tempi rapidi. Recentemente si stanno moltiplicando le proposte di questionari e scale per la misurazione di vari aspetti della user-experience. Fra queste ricordiamo il questionario delle qualità edonistiche (Hassenzhal, et al. 2000) e il questionario di valutazione estetica delle interfacce (Lavie & Trackyinsky, 2002). Altri approcci alla misurazione del vissuto emozionale si basano su stimoli visivi e tattili. PrEmo (Desmet, 2002) è uno strumento sviluppato per misurare le emozioni elicitate dal design di un prodotto che richiede all‘utente di esprimere la il proprio vissuto emozionale scegliendo 1 emozione fra 14 alternative possibili (7 emozioni positive e 7 negative). Ogni alternativa è rappresentata dal personaggio di un cartone animato le cui espressioni facciali e postura esprimono un‘emozione. Un'altra proposta interessante è lo strumento per la valutazione sensuale proposto da Isbister e colleghi (2006), che permette 196 Antonella De Angeli all‘utente di comunicare il proprio stato emozionale toccando, indicando o maneggiando una serie di sculture astratte di pietra bianca le cui forme sono correlate ad emozioni. Per esempio forme tondeggianti tendono a essere associate a emozioni positive, mentre oggetti appuntiti tendono a essere associati a emozioni negative. Conclusioni Questo contributo ha presentato le principali tendenze di ricerca relative alla definizione di una metrica della qualità interattiva del software. Il lavoro ha evidenziato un crescente interesse verso dimensioni di tipo emozionale ed edonistico in parallelo alle tradizionali dimensioni pragmatiche relative alla prestazione dell‘utente. Questo interesse verso il concetto di esperienza, intesa come vissuto soggettivo dell‘utente, pone una serie di problematiche nuove e richiede un approccio originale alla valutazione della qualità interattiva, basata meno sull‘effettivo comportamento di interazione e più sul significato che tale interazione viene ad assumere per l‘utente. Il settore dell‘esperienza dell‘utente è ancora molto giovane e al momento metodologicamente debole. In questo contributo abbiamo presentato la fase emergente di un settore di ricerca e design che secondo le previsioni dell‘autore è destinato ad affermarsi come la principale metrica di valutazione delle tecnologie interattive. Letture Consigliate Nielsen, J. [1993]. Usability Engineering. San Francisco, CA, USA: Morgan Kaufmann. Norman, D. [2004]. Emotional Design: Why We Love (Or Hate) Everyday Things. New York: Basic Books. Sharp, H, Rogers, Y, & Preece, J [2007]. Interaction design: Beyond humancomputer interaction. New York: John Wiley & Sons, Inc. 2nd Edition Cairns, P, Cox, A L Eds (2008) Research methods for Human-Computer Interaction. Cambridge UK: Cambridge University Press Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 197 Bibliografia Blythe, M. A., Overbeeke, K., Monk, A. F., & Wright, P. C. (2003). Funology: From Usability to Enjoyment. Dordrecht, The Netherlands: Kluwer Academic Publishers. Carroll, J., & Thomas, J. C. [1988]. Fun. ACM SIGCHI Bulletin , 19 (3), pp. 21-24. Chin, J. P., Diehl, V. A. and Norman, K. L. (1988). Development of an instrument measuring user satisfaction of the human-computer interface. Proceedings of the SIGCHI conference on Human factors in computing systems (pp. 213218). New York: ACM. De Angeli, A., Lynch, P., & Johnson, G. I. (2002). Pleasure versus efficiency in user interfaces: Towards an involvement framework. In W. S. Green, & P. W. Jordan, Pleasure with products: Beyond usability (pp. 97-111). London, UK: Taylor & Francis. De Angeli, A., Sutcliffe, A., & Hartmann, J. (2006). Interaction, usability, and aesthetics: what influences users' preferences? Proceedings of the 6th conference on Designing Interactive Systems (pp. 271-280). University Park, PA: ACM. De Silva, R. R e Bianchi-Berthouze, N. [2004]. Modeling human affective postures: an information theoretic characterization of posture features. Computer Animation and Virtual Worlds, 15, 3-4, 269-276. Ericsson, K. A. e Simon, H. A. (1984). Protocol Analysis: verbal Reports as Data. Cambridge, MA: MIT Press. Gaver, B., Dunne, T. Pacenti, E. (1999) Cultural Probes Interactions, 6,1 21-29. Hassenzahl, M., Platz, A., Burmester, M., & Lehner, K. (2000). Hedonic and ergonomic quality aspects determine a software's appeal. Proceedings of the SIGCHI conference on Human factors in computing systems (pp. 201-208), New York: ACM. Hassenzahl, M., & Tractinsky, N. [2006]. User experience - a research agenda. Behaviour & Information Technology , 25 (2), pp. 91-97. Hassenzahl, M. (2004). The Interplay of Beauty, Goodness, and Usability in Interactive Products. Human-Computer Interaction , 19, pp. 319-349. Hartmann, J., De Angeli, A., & Sutcliffe, A. (2008). Framing the User Experience: Information Biases on Website Quality Judgement. Proceedings of the SIGCHIconference on Human factors in computing systems, New York: ACM Press. Hartmann, J., Sutcliffe, A., & De Angeli, A. (2007). Investigating attractiveness in web user interfaces. Proceedings of the SIGCHI conference on Human factors in computing systems (pp. 387-396). New York: ACM press. 198 Antonella De Angeli Isbister, K., Höök, K., Sharp, M., and Laaksolahti, J. 2006. The Sensual Evaluation Instrument: Developing an Affective Evaluation Tool. Full paper at CHI 2006, nominated for best paper award ISO [1998]. ISO 9241: Ergonomic requirements for office work with visual display terminals (VDTs) - Part 11: Guidance on usability. Geneve: International Organization for Standardisation. Jordan, P. W. (2000). Designing Pleasurable Products: An Introduction to the New Human Factors. London, UK: Taylor & Francis Ltd. Lavie, T., & Tractinsky, N. (2004). Assessing dimensions of perceived visual aesthetics of web sites. International Journal of Human-Computer Studies , 60 (3), pp. 269-298. Pace, S. [2004]. ―A grounded theory of the flow experiences of Web users‖, International Journal of Human-Computer Studies, 60, 327-363. Partala, T., Surakka, V. [2003]. Pupil size variation as an indication of affective processing. Int. J. Hum.-Comput. Stud. 59(1-2): 185-198 (2003) Partala, T., Surakka, V. e Vanhala, T. [2006]. Real-time estimation of emotional experiences from facial expressions - Interacting with Computers, 208-226 Picard, R. W. (1997). Affective Computing. Cambridge, MA, USA: MIT Press. Sutcliffe, A., & De Angeli, A. (2005). Assessing Interaction Styles in Web User Interfaces. Proceedings of INTERACT 2005 International Conference on Human-Computer Interaction (pp. 405-417). Rome, Italy: Springer. Tractinsky, N., & Zmiri, D. (2006). Exploring Attributes of Sinks as Potential Antecedents of Emotion in HCI. In P. Fishwick (Ed.), Aesthetic Computing (pp. 405-421). Cambridge, MA, USA: MIT Press. Tractinsky, N., Shoval-Katz, A., & Ikar, D. (2000). What is beautiful is usable. Interacting with Computers , 13 (2), pp. 127-145. Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente 199 Antonella De Angeli è docente di Human-Computer Interaction presso la Business School dell‘Università di Manchester. Antonella si occupa dello studio del modo in cui le persone utilizzano e percepiscono la tecnologia, allo scopo di utilizzare queste conoscenze per progettare sistemi interattivi che siano non solo più semplici ed efficienti, ma anche più divertenti da usare, coinvolgenti e piacevoli. Antonella ha ricevuto un dottorato di ricerca in Psicologia Sperimentale dall‘Università di Trieste, dove ha anche trascorso 2 anni come ricercatore di post-dottorato. In seguito ha lavorato come Senior HCI researcher per NCR in Gran Bretagna. Antonella ha lavorato per dei periodi con vari gruppi internazionali fra cui ricercatori dell‘Oregon Graduate Institute di Portland (USA), del Loria a Nancy (France) e dell‘IRST, attualmente fondazione Bruno Kessler, a Trento. Antonella ha pubblicato circa 80 articoli nei principali giornali e conferenze di HCI, è regolarmente invitata a fare parte del comitato di programma dei maggiori eventi del settore e presta servizio nel comitato scientifico di vari giornali, fra cui l‘International Journal of Human-Computer Studies. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Analisi Cognitiva delle Interfacce Utente Hélène Pigot – Università di Sherbrooke [email protected] Abstract. La valutazione dell'interfaccia utente richiede metodologie rigorose per assicurare che l'interazione soddisfi le specifiche di accessibilità, usabilità e utilità; i due approcci principali oggi impiegati a questo scopo affrontano il problema rispettivamente in modo empirico e analitico. Nel caso di approccio analitico, piuttosto che focalizzare l'attenzione sulle performance dell'interazione, si studiano e applicano metodi automatici di analisi basati su strutture ben definite per valutare le proprietà cognitive dell'interfaccia utente. In questo capitolo si esplorano le abilità cognitive necessarie nella Human-Computer Interaction e vengono presentati i principali approcci analitici applicabili alla valutazione delle attività umane in relazione alle interfacce utente. Questi approcci analizzano l‘interfaccia secondo il punto di vista motorio (legge di Fitts), cognitivo (architettura cognitiva ACT-R) o del task (GOMS); viene quindi presentata una loro applicazione al design di un‘interfaccia rivolta a utenti con deficit cognitivi. Keywords: interfaccia utente, approcci analitici, analisi cognitiva, valutazione, ACT-R, Fitts, GOMS Introduzione La valutazione dell‘Interfaccia Uomo-Computer sta diventando sempre più importante e costituisce parte integrante del ciclo di sviluppo del sistema informatico. Così come lo sviluppo dell‘interfaccia comporta delle sfide, la loro valutazione richiede metodologie rigorose per accertare che esse soddisfino le specifiche iniziali e i requisiti di accessibilità, usabilità, utilità (Nielsen & Phillips, 1993; Di Eugenio, et al., 2003). Due approcci sono comunemente usati per la valutazione di un‘interfaccia: analitici ed empirici. Una valutazione empirica è essenzialmente basata su misurazioni di performance o sull‘opinione personale degli utenti, raccolta in 202 Hélène Pigot laboratorio o in una situazione sperimentale: questo tipo di approccio è focalizzato sull‘utente1. Gli approcci analitici, invece, non sono basati direttamente sulle performance dell‘utente, ma piuttosto sull‘esame automatizzato dell‘interfaccia stessa, compiuto per mezzo di strutture ben definite e tecniche di analisi rigorose (Yen, et al., 2005). Gli approcci analitici sono suddivisi in formali ed esperti. Mentre questi ultimi consistono di metodi rigorosi sviluppati da esperti per esaminare le interfacce, i primi sono basati su teorie delle capacità motorie, percettive e cognitive. Gli approcci analitici formali possono a propria volta essere focalizzati sull‘analisi specifica del task o sulle particolari abilità che sono necessarie per portarlo a termine (Fitts, 1954; Card, et al., 1983; Anderson, 1993). Alcuni approcci descrivono sistematicamente il task, alcuni stimano il tempo richiesto per completarlo, mentre altri simulano gli errori che si possono verificare nel compierlo. La validazione di un approccio analitico consiste nel confrontare i risultati della simulazione con quelli di prove sperimentali, in cui ad utenti reali viene richiesto di replicare il task in esame. L‘interazione con il computer richiede abilità cognitive e percettive, come ad esempio l‘attenzione, la memoria, la capacità di risolvere problemi. La psicologia cognitiva mira a spiegare il modo in cui il cervello umano trasforma gli input sensoriali e agisce sul mondo circostante. Questo ramo della psicologia è caratterizzato da un approccio scientifico alla validazione delle teorie, ma accetta l‘esistenza di stati mentali interni in contrasto con il behaviorismo (Neisser, 1967). Di conseguenza la ricerca nel campo della psicologia cognitiva costruisce teorie cognitive che spiegano il comportamento delle persone durante prove sperimentali nelle quali viene isolato uno specifico aspetto del processo cognitivo. La tendenza principale, information processing theory, confronta il cervello umano al computer. Questo modo di ragionare a proposito dei processi mentali spiega come gli stimoli sensoriali vengono raccolti, processati e memorizzati dai buffer percettivi e dai processi di me1 Le tecniche di valutazione empirica dell‘interazione sono trattate nei capitoli 2 (Introduzione all‘Ingegneria dell‘Usabilità) e 3 (Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente). N.d.c. Analisi Cognitiva delle Interfacce Utente 203 moria. Baddeley, Broadbent, Miller, Piaget sono alcuni dei più noti cognitivisti. Newell e Anderson spingono oltre l‘analogia proponendo le architetture cognitive con il duplice obiettivo di unificare le teorie cognitive e simulare automaticamente il funzionamento del cervello umano (Anderson, 1993; Newell, 1990). Presenteremo dapprima le abilità necessarie per interagire con il computer secondo l‘information processing theory. Viene dunque presentata l‘architettura cognitive ACT-R derivata dall‘information processing. Questo approccio cognitivo è confrontato con altri approcci analitici: vengono presi in considerazione due approcci: la Fitts law, relativa alle abilità percettive e motorie, e il modello GOMS di analisi dei task. L‘information processing theory, per mezzo dell‘architettura cognitiva ACT-R è applicata su diverse interfacce allo scopo di stimare la velocità nell‘uso dei menu (St-Amant, et al., 2007; Byrne, 2001). Presentiamo dunque l‘applicazione degli approcci analitici all‘interazione con un assistente contestuale usato in un ambiente smart home (Chikhaoui & Pigot , 2008 a; Chikhaoui & Pigot , 2008 b). 1. Abilità Cognitive La Human-Computer Interaction presuppone abilità percettive, cognitive e motorie. I sensi della vista e dell‘udito sono principalmente coinvolti nella percezione dello stato del computer. L‘impegno cognitivo è diretto alla comprensione di ciò che sta avvenendo e al reperimento delle informazioni rilevanti. L‘aspetto motorio dell‘interazione riguarda principalmente il controllo delle mani per manovrare mouse e tastiera. Nel seguito sono presentati i principali componenti dell‘information processing coinvolti nell‘interazione. Information processing theory L‘information processing theory spiega in che modo gli esseri umani percepiscono le informazioni sensoriali, le interpretano, le memorizzano e selezionano le informazioni da richiamare alla memoria (Fortin & Rousseau, 2003). La Figura 1 illustra l‘elaborazione dell‘informazione, da sinistra verso destra. La profondità di elabo- 204 Hélène Pigot razione aumenta in accordo con il ritardo di memorizzazione, mentre man mano la specificità della modalità sensoriale diminuisce. Presentiamo dapprima una panoramica dell‘elaborazione sensoriale, per poi affrontare più in profondità l‘attenzione e l‘elaborazione della memoria. Figura 1. Percorso dell‘informazione nella Information Processing Theory Sensory process L‘informazione sensoriale è memorizzata in un buffer per un periodo molto breve, di circa 250 msec (Sperling, 1963). Tale informazione è specifica per ogni senso: informazioni visive e uditive sono rispettivamente parte di specifici buffer e verranno elaborate ciascuna secondo la propria modalità sensoriale. Per evitare un sovraccarico sensoriale, un filtro seleziona solo le informazioni pertinenti. Questo filtro ha un ruolo nel processo di attenzione, che sarà chiarito più avanti. L‘informazione viene successivamente elaborata per riconoscere dei pattern, sempre in modo specifico per il tipo di informazione sensoriale. Le forme in un'informazione visiva vengono estratte mettendo insieme caratteristiche isolate o confrontando le forme con modelli predefiniti (Gibson, et al., 1969). La gestalt theory, sviluppata da Max Wertheimer nel 1920, spiega in che modo gli esseri umani raggruppano le forme e percepiscono i modelli, guardando a una lettera come a un tutt'uno, anche se alcuni punti risultano man- Analisi Cognitiva delle Interfacce Utente 205 canti. Teorie simili spiegano il modo in qui vengono riconosciuti i modelli uditivi. Il designer dovrebbe concepire l'interfaccia utente secondo le teorie dell'elaborazione degli stimoli, per far si che l'informazione sia prontamente accessibile. Attenzione L'attenzione gioca il ruolo cruciale di un filtro che riduce il carico cognitivo e determina quale input debba essere elaborato. L'attenzione è definita da due caratteristiche: la selettività e la concentrazione. La selettività fu introdotta con la funnel theory da Broadbent nel 1958 (Broadbend, 1958). Studi sperimentali condotti sull'ascolto di stimoli uditivi mostrano che è possibile elaborare l'input sensoriale proveniente da un solo funnel per volta. Treisman sottolinea come tale selettività è in relazione con la familiarità dello stimolo (Treisman, 1960). Il modello di attenuazione aggiunge alla teoria dei funnel un dizionario di attivazione che permette di dare attenzione a parole ben note. Kahneman propone quindi di suddividere l'attenzione in un fattore conscio e uno inconscio (Kahneman & Treisman, 1984). Ogni attività richiede attenzione, e l'attenzione è una risorsa limitata anche se è possibile suddividere la propria attenzione fra diverse attività simultanee, un processo controllato comunque anche da stati inconsci. Quanto più uno stimolo viene elaborato in profondità, tanto maggiori risorse in termini di attenzione saranno richieste da tale elaborazione. Anche in questo caso è responsabilità del designer valutare le risorse di attenzione disponibili ed evitare di presentare una quantità eccessiva di stimoli, sia visivi che uditivi, specialmente quando il task è più complesso. Memoria Per tutta la durata della vita le persone usano la memoria per risolvere problemi e per riconoscere situazioni già occorse in passato. Nella teoria cognitiva la memoria viene classificata secondo la persistenza delle informazioni. Negli studi sperimentali sulla memoria a breve termine ai soggetti viene tipicamente richiesto di ricordare elenchi di oggetti. Miller nel 1956 individuò la capacità della me- 206 Hélène Pigot moria a breve termine in 5 - 9 elementi, definiti come gli elementi che al soggetto viene richiesto di ricordare (Miller, 1956). Al contrario, la memoria a lungo termine è caratterizzata da capacità e persistenza nel tempo illimitate. Teorie recenti chiariscono meglio il processo usato per immagazzinare informazioni nella memoria a breve termine. La memoria di lavoro è composta di tre parti: il cosiddetto central executive controlla il flusso di informazioni tra i due buffer dedicati rispettivamente alle informazioni visive e uditive (Baddeley, 1990). Il visuospatial sketchpad trattiene informazioni visive e spaziali per aiutare a ricordare dettagli relativi a spazio, colore, forma, movimenti, per un tempo di 20 - 30 msec. Il phonological loop o articulatory loop ha invece a che fare con l'informazione uditiva. Esso è composto di una sezione a breve termine (short term phonological store) dove è memorizzata l'informazione uditiva verbale, e un componente, l'articulatory rehearsal component, usato per trasformare il testo visivo in un phonological code. Questo processo di trasformazione è inconsapevole e viene messo in evidenza dalla difficoltà incontrata da alcuni soggetti nel ricordare un testo visivamente, laddove le funzioni dell'articulatory rehearsal component vengano inibite. Studi sulla memoria a lungo termine mostrano in che modo le persone codificano l'informazione e i vari metodi adottati per recuperarla. La memoria a lungo termine è divisa in memoria procedurale, chiamata know-how e la memoria dichiarativa, definita memoria dei fatti. Baddeley ha stabilizzato che la memoria a lungo termine è accessibile solo tramite la memoria di lavoro. Data la limitata capacità della memoria di lavoro, in termini di spazio e tempo (20 - 30 msec) il designer deve evitare un sovraccarico cognitivo nella risoluzione di problemi di interazione uomocomputer, tenendo conto che la memoria di lavoro sarà tanto più impegnata quanto più il task è complesso. 2. Approcci Analitici Tre approcci analitici sono presentati, ognuno focalizzato su uno specifico aspetto dell'interfaccia. Per primo, la Fitts' law fornisce un modello delle azioni motorie impiegate quando l'utente punta un Analisi Cognitiva delle Interfacce Utente 207 pulsante nell'interfaccia grafica con il mouse (o con un dito sul touch screen). Secondo, il GOMS analizza il task. Infine l'architettura cognitiva ACT-R modella il processo cognitivo coinvolto nell'interazione uomo-computer. Dato il tema di questo capitolo si enfatizza l'approccio ACT-R per modellare le abilità cognitive e vengono usati gli altri due metodi per validarne i risultati. Legge di Fitts L'interazione uomo-computer può essere descritta come una sequenza di azioni di attivazione di pulsanti sullo schermo. Secondo questo approccio la legge di Fitts stima il tempo necessario per raggiungere i bersagli visualizzati nell'interfaccia (Fitts, 1954). Il tempo necessario per usare un'interfaccia viene stimato come la somma dei tempi necessari per toccare ogni pulsante. Questo tempo dipende dalla dimensione del pulsante W e dalla distanza D coperta dal cursore (o dal dito) che si muove da un punto di partenza fino al pulsante (Mackenzie, 1995) l'equazione generale al problema dell'interazione uomo-computer è: MT= a + b * log (D/W + 1) (1) in cui a e b sono costanti ricavate empiricamente. GOMS Il modello GOMS (Goals, Operators, Methods and Selection Rules) descrive le azioni dell'utente decomponendole in sub-task fino a che è possibile stimare il tempo richiesto per le azioni elementari (Card, et al., 1983). L'obiettivo del modello GOMS è duplice: mostrare in che modo l'utente compie sequenze di azioni e predire il tempo necessario per completarle. Il modello assume che l'utente formuli dei goals e li decomponga in sub-goal. Quindi l'utente pianifica la strategia richiesta per realizzare i goal per mezzo di methods, definite come sequenze di azioni conosciute (operators). Per esempio per raggiungere l'obiettivo "salvare il documento" l'utente deve: 1. selezionare il comando salva con nome dal menu File 2. scrivere il nome del documento nel text-field 3. premere il pulsante salva per confermare. 208 Hélène Pigot Gli operatori sono definiti come azioni elementari di tipo percettivo, cognitivo o motorio, come ad esempio premere un pulsante, indicare con il mouse o decidere quale parola scrivere. Spesso esistono molti modi di raggiungere un obiettivo. Nell'esempi precedente l'utente avrebbe potuto usare una combinazione di tasti per attivare il comando. Le selection rules esplicitano le alternative che l'utente ha a disposizione. Il tempo necessario per ciascun operatore è determinato in base a risultati sperimentali per una media di utenti, che conducono a un tempo medio di 1,1 sec. per puntare un elemento, 0,2 sec. per premere un tasto, ecc. Il tempo necessario per raggiungere un goal viene stimato sommando i tempi relativi a tutti gli operatori usati per completare il goal. Il tempo necessario per completare il goal "selezionare il comando salva con nome" viene quindi calcolato come: Tsave-as = H + M + P + K = 2,8 sec. (2) dove H è il tempo necessario per raggiungere il mouse con la mano, M il tempo di riflessione, P il tempo impiegato per puntare con il mouse e K è il tempo necessario per premere un pulsante o cliccare con il mouse. Il modello presentato qui è una delle quattro varianti di GOMS esistenti, il GOMS keystroke. Oltre il GOMS keystroke, il Natural GOMS Language (NGOMSL) propone un modo automatico per la scrittura dei modelli GOMS (Kieras, 2003). ACT-R L'architettura cognitiva ACT-R (Adaptive Control of Thought - Rational) è stata sviluppata a partire dalla Teoria dell'Adattamento del Pensiero di Anderson nel 1993 (Anderson, 1993). Successivi sviluppi integrano il modello percettivo (Byrne & Anderson, 1997). L'architettura ACT-R si basa su teorie psicologiche ed è diretta alla simulazione e alla comprensione della capacità cognitiva umana. Tra le numerose applicazioni dell'architettura ACT-R, l'analisi dell'interazione uomo-computer sfrutta la simulazione della cognizione, permettendo una comprensione approfondita del modo in cui le persone interagiscono con il computer, una stima del tempo necessario a completare l'interazione e una spiegazione dei possibili Analisi Cognitiva delle Interfacce Utente 209 errori (St. Amant, et al., 2007). L'interazione è simulata per mezzo di regole procedurali attivate a seconda del goal e delle informazioni disponibili in un certo momento. Tali informazioni sono disponibili attraverso i buffer che stabiliscono un collegamento con la memoria dichiarativa e con l'ambiente rappresentato da stimoli visivi e uditivi. La memoria dichiarativa contiene tutti i fatti noti, mentre la memoria procedurale contiene produzioni, cioè regole che spiegano come eseguire un compito. Inoltre, ACT-R aggiunge alla memoria il modulo visivo e il modulo motorio, questi moduli sono largamente usati nella modellazione dell‘interazione dell‘utente con l‘interfaccia. L'interazione visiva è articolata in due fasi. Per prima cosa lo stimolo viene localizzato nel visual-location buffer per simulare il passaggio di attenzione. Successivamente lo stimolo viene identificato secondo le caratteristiche descritte nel modello. Lo stimolo è quindi reso disponibile nel buffer visivo, confrontato con le regole procedurali e salvato nella memoria dichiarativa. La fase di localizzazione e identificazione dura 185 msec. Il modulo motorio è responsabile dei comandi cognitivi diretti alla mano per premere un pulsante o muovere il mouse. Per simulare il ricordo e la dimenticanza ad ogni fatto della memoria dichiarativa si associa un livello di attivazione. Solo i fatti il cui livello di attivazione supera una data soglia sono resi disponibili alla coscienza. Nello stesso modo ad ogni regola della memoria procedurale è associato un livello di utilità. Ciò può provocare qualche volta la selezione di una regole falsa. Ogni livello di attivazione e di utilità sono calcolati ad ogni ciclo di decisione: questo ha come risultato una simulazione non deterministica e consente molteplici modi di soddisfare un goal o il verificarsi di errori. I risultati possono quindi essere analizzati esaminando la registrazione di una particolare simulazione oppure il comportamento medio di numerose simulazioni. 3. Valutazione per mezzo di Approcci Analitici Presentiamo adesso una valutazione eseguita con i tre approcci analitici spiegati sopra. L‘interfaccia scelta è parte di un assistente con- 210 Hélène Pigot testuale progettato per aiutare un utente con deficit cognitivi. Di conseguenza, l‘analisi cognitiva riveste un ruolo fondamentale. Il risultato ottenuto è la stima del tempo di esecuzione effettuata con ACT-R, GOMS e la legge di Fitts e viene confrontato con le performance di utenti reali. Interfaccia utente di un assistente contestuale L'applicazione assistente contestuale è stata sviluppata per aiutare le persone con disabilità cognitive, come ad esempio pazienti con danni cerebrali o ritardi mentali (Pigot, et al., 2008a; LussierDesrochers, et al., 2007). Lo scopo dell'assistente contestuale è di agevolare l'autonomia nelle attività quotidiane e, in particolare, lo svolgimento di compiti di cucina complessi quali, ad esempio, la preparazione di una torta o la cottura degli spaghetti (Pigot, et al., 2008b). Il compito di preparazione del cibo viene suddiviso in tappe mostrate su un display touch-screen. Le due prime tappe della preparazione della ricetta consistono nella raccolta degli utensili e degli ingredienti necessari (Figura 2). Le tappe successive descrivono la ricetta per mezzo di immagini e filmati sul display, come pure per mezzo di informazioni che vengono comunicate all‘utente in vari punti della cucina. L'assistente contestuale aiuta l'utente a completare la ricetta in modo soddisfacente e a ricordare il posto in cui gli oggetti sono conservati. A questo scopo l'assistente contestuale fornisce una guida per trovare gli oggetti grazie all‘applicazione locate application che visualizza gli oggetti da cercare. Quando un oggetto viene selezionato sullo schermo l'assistente contestuale ricerca l'oggetto nell'ambiente per mezzo di tecniche di pervasive computing e indirizza l'utente verso l'oggetto evidenziando la posizione in cui esso si trova. Descrizione del task In questo studio simuliamo le due prime tappe della preparazione degli spaghetti (Chikahoui & Pigot, 2008a; Chikahoui & Pigot, 2008b). Esse consistono prima di tutto nel conoscere la lista degli oggetti necessari, siano essi utensili o ingredienti, e quindi nell'uso Analisi Cognitiva delle Interfacce Utente 211 della locate application per trovare ogni oggetto. Ciascuno dei due primi passi richiede tre sub-task Figura 2. Interfaccia dell‘assistente contestuale (versione francese) 1. attivare la locate application 2. localizzare ogni oggetto, sia esso un utensile o un ingrediente necessario in questa tappa, premendo il corrispondente pulsante nella locate application 3. ritornare all'applicazione principale per conoscere il prossimo passo della ricetta. Qui sono coinvolte tre differenti interfacce dell‘assistente contestuale: l'interfaccia della locate application e le due interfacce dell'applicazione contestuale che mostrano rispettivamente gli utensili e gli ingredienti necessari per la ricetta. Per enfatizzare il processo cognitivo richiesto nell‘uso dell‘assistente contestuale abbiamo progettato un task ricerca og- 212 Hélène Pigot getti nel quale è necessario specificare uno alla volta tutti gli oggetti da cercare. Ad ogni passo l‘utente deve: 1. notificare che sa quale è l‘oggetto da cercare. Lo fa premendo un pulsante su un Personal Digital Assistant (PDA) 2. premere sull‘interfaccia dell‘assestante contestuale il pulsante corrispondente. Il tempo richiesto della prima fase del task corrisponde al tempo impiegato dall‘utente per riconoscere l‘oggetto, dunque per accedere alla memoria dichiarativa. Analisi cognitiva dell’assistente contestuale Il processo cognitivo richiesto nell‘uso dell‘assistente contestuale è simulato con l‘architettura cognitiva ACT-R. L‘operazione di ricerca di un oggetto e scelta del relativo pulsante da premere è suddivisa in tre fasi: la fase visiva, la fase di riconoscimento e la fase motoria. In ACT-R la fase visiva consiste nella localizzazione dell‘oggetto e nella sua identificazione. L‘utensile o l‘ingrediente viene prima presentato nel visual-location buffer dove il modello deve portare l‘attenzione. Consideriamo che tutti i pulsanti sullo schermo sono oggetti, tanto i pulsanti usati per cercare un utensile o un ingrediente quanto quelli usati per la navigazione nell'applicazione. Ogni oggetto dell'interfaccia è visualizzato in posizioni determinate (x,y) sullo schermo. Queste coordinate specificano la richiesta fatta al visuallocation buffer il quale crea la conoscenza che rappresenta la posizione dell'oggetto. Successivamente l‘oggetto è identificato e registro nel buffer visivo. La fase di riconoscimento inizia quando l'immagine dell‘oggetto viene impressa nel buffer visivo. Questa fase implica il recupero del l‘oggetto nella memoria dichiarativa. Senza questa fase l‘oggetto è visto ma non riconosciuto e risulta impossibile fargli corrispondere un nome, descriverlo o riconoscerne il modo d‘uso. La fase motoria consiste nell'attivazione dei movimenti per mezzo di una richiesta al buffer motorio allo scopo di cliccare sul pulsante del‘oggetto. Questo processo in tre fasi viene applicato per Analisi Cognitiva delle Interfacce Utente 213 ogni oggetto visualizzato sull'interfaccia per ognuna delle due tappe della ricetta. Il modello che descrive la raccolta degli utensili e ingredienti si conclude quando l'ultimo oggetto è stato recuperato. Il modello ACT-R è sviluppato usando l'ambiente ACT-R 6. Questo modello è deterministico in quanto simula il comportamento di un utente che non sbaglia mai. Analisi dell’assistente contestuale con GOMS Il task è composto dei due sub-goals: raccogliere utensile raccogliere ingredienti. Figura 3. Decomposizione gerarchica del task 214 Hélène Pigot Usando il metodo divide-et-impera questi sub-goals sono divisi fino al livello degli operators. La possibilità di scegliere tra soluzioni alternative non viene illustrata in questo studio: il sistema impone all‘utente una procedura e non lascia alcuna scelta tra diversi possibili operatori. La Figura 3 mostra la rappresentazione gerarchica delle due prime tappe. È sufficiente sommare i tempi degli operatori per stimare il tempo complessivo del task. Analisi dell’assistente contestuale con la legge di Fitts La legge di Fitts stima il tempo secondo un punto di vista motorio. Dato che l‘esperimento ha come obiettivo quello di mettere in evidenza il tempo di reazione dell‘utente, l‘interazione uomo-computer è basata sull‘uso di due schermi touch screen: lo schermo del PDA dove l‘utente preme sempre lo stesso pulsante identificando il nome dell‘oggetto da cercare sull‘assistente contestuale lo schermo dell‘assistente contestuale dove la posizione e la dimensione dei pulsanti sono variabili. L'utente sta in piedi a una distanza di circa 30 cm dallo schermo dell‘assistente contestuale. La posizione di partenza è con le mani a riposo vicino al PDA. I soggetti selezionano direttamente gli oggetti visualizzati, toccandoli con il dito indice. Dopo ogni azione di puntamento l'utente ritorna alla posizione di partenza, e ripete la procedura dall‘inizio. Nome A [cm] W [cm] Tempo [ms] Pentola 30 5,8 614 Pulsante ―Suivant‖ 30 7,6 553 Pulsante ―Cercare‖ 30 3,8 713 Tabella 1. Stima del tempo necessario per premere un pulsante secondo la legge di Fitts. A e W rappresentano rispettivamente la lunghezza e larghezza del pulsante. Il tempo necessario per attivare ciascun elemento dell‘interfaccia è stimato come la somma tra il tempo necessario per premere il pul- Analisi Cognitiva delle Interfacce Utente 215 sante sul PDA e il tempo per premere il pulsante sull‘interfaccia dell‘assistente contestuale. Dato che tutti i pulsanti sul PDA hanno la stessa dimensione, il tempo necessario per premerli rimane costante quando stimato per mezzo della legge di Fitts (615 ms). Invece il tempo per premere il pulsante sull‘interfaccia dell‘assistente contestuale dipende dalla dimensione del pulsante come appare nell'interfaccia dell‘assistente contestuale (Tabella 1). Le variazioni tra i tempi stimati sono dovute alle diverse larghezze dei pulsanti ma non alla distanza tra la posizione iniziale e il pulsante, che rimane uguale. La dimensione del pulsante della pentola è uguale a quella dei pulsanti degli altri utensili e ingredienti. Utente [s] Fitts [s] GOMS [s] ACT-R [s] Tappa 1: Raccogliere utensile 28,286 13,708 29,750 24,050 Tappa 2: Raccogliere ingredienti 27,236 17,332 35,800 30,650 Totali 55,522 31,040 65,550 54,700 Tabella 2. Stima del tempo necessario al completamento delle due prime tappe dell‘interazione con l‘assistente contestuale. Confronto dei risultati delle valutazione analitiche dell’Assistente Contestuale I tre diversi approcci per la stima dell‘interazione sono stati valutati confrontandone i risultati con misure sperimentali su 10 utenti reali impegnati nelle prime due tappe dell‘esecuzione di una ricetta con l‘aiuto dell‘assistente contestuale. Gli utenti campione erano maschi di età compresa tra 27 e 32 anni, familiarizzati con l‘uso del computer. Ad ognuno è stato chiesto di completare 5 volte un task che richiedeva la pressione di 25 pulsanti sul PDA e di 25 pulsanti corrispondenti sull‘assistente contestuale. Il tempo medio viene calcolato sui 5 esperimenti per ognuno dei 10 utenti. La tabella 2 mostra il tempo di esecuzione delle prime due tappe della ricetta stimato con 216 Hélène Pigot i tre approcci in confronto a quello misurato sperimentalmente. Il tempo stimato con la legge di Fitts è significante inferiore a quello reale. Il tempo stimato con ACT-R è quello che approssima meglio i risultati degli utenti. Figura 4. Il progredire nel tempo del task di raccolta degli utensili. La Figura 4 espone dettagliatamente i risultati relativi alla tappa di raccolta degli utensili premessi che richiede la pressione di 11 pulsanti. I risultati seguono un andamento lineare rispetto al tempo. La legge di Fitts sottostima il tempo per ciascun oggetto. A eccezione dei pulsanti di navigazione dell‘interfaccia, ogni pulsante ha la stessa grandezza risultando in un tempo di attivazione uguale. Dunque la pendenza è minore rispetto alle altre curve. I risultati stimati con GOMS e ACT-R somigliano a quelli misurati sperimentalmente. Il tempo per premere un pulsante è in media più alto con GOMS (2,550s) che con ACT-R (2,100s). Durante la prima tappa la stima di GOMS è più accurata rispetto a quella effettuata con ACT-R, mentre è vero il contrario durante la seconda tappa. Nessuno dei Analisi Cognitiva delle Interfacce Utente 217 metodi descritti infatti stima l‘esperienza acquisita dall‘utente nell‘uso del sistema. Le analisi effettuate per mezzo di GOMS e ACT-R danno risultati più conformi alla realtà rispetto alla legge di Fitts. Nel nostro caso la simulazione con ACT-R risulta quella più interessante per il futuro: i risultati convalidano il modello ACT-R che può estendersi in un modello non deterministico. Questo modello simulerà gli errori umani, in particolar modo quelli dovuti alla dimenticanza e gli errori di metodo. Questi errori sono spesso commessi da persone con deficit cognitivi alle quali l‘assistente contestuale è dedicato. Conclusioni I metodi analitici di valutazione dell‘interfaccia utente permettono di prevedere l‘impegno cognitivo dell‘utente, il modo e il tempo d‘utilizzazione dell‘interfaccia. Concepire queste analisi fin dall‘inizio del percorso di sviluppo dell‘interfaccia permette di confrontare diverse soluzioni senza coinvolgere gli utenti. L‘interazione dell‘utente con il computer viene suddivisa nelle sue componenti: l‘azione percettiva, la riflessione cognitiva e il comportamento motorio. Secondo l‘aspetto che desidera analizzare, il designer sceglierà un diverso approccio analitico. I modelli basati sulla legge di Fitts stimano l‘interazione come l‘azione motoria di mirare una bersaglio. Questo modello, facile da applicare, permette di scegliere soluzioni di interfaccia che massimizzano la velocità di esecuzione. Basta costruire la lista delle azioni elementari e sommare il tempo richiesto da ciascuna. Se il designer dell‘interfaccia vuole invece capire il modo di fare dell‘utente, è necessario ricorrere al modello GOMS. Anche questo approccio stima il tempo necessario all‘esecuzione di un task, ma in più permette di descrivere il comportamento. La sequenza di azione elementari è raggruppata in metodi e goals, mettendo in evidenza le diverse possibili strategie per raggiungere un obiettivo. Se infine il designer vuole descrivere il carico cognitivo richiesto nell‘operare l‘interfaccia, l‘interazione deve essere analizzata per mezzo di un modello cognitivo. Abbiamo proposto l‘architettura ACT-R che è basata sulle teorie cognitive. Questa ar- 218 Hélène Pigot chitettura simula il tempo necessario per terminare un task, come pure gli errori cognitivi dovuti alla dimenticanza o agli errori nell‘uso dell‘interfaccia. Gli approcci analitici aiutano a confrontare diverse versione della stessa interfaccia stimando e spiegando l‘efficacia di ogni soluzione nonché la facilità con qui l‘utente utilizzerà l‘interfaccia o sarà in grado di superare un problema. Abbiamo infine mostrato come i risultati analitici si rapportano alle misurazioni reali effettuate grazie a utenti campione. Una volta appurato che l‘analisi fornisce risultati attendibili sull‘interazione diviene facile analizzare l‘impatto del cambiamento durante lo sviluppo dell‘interfaccia. Basta cambiare i componenti o la sequenza d‘uso nel modello per stimare la conseguenza sul tempo di utilizzazione o sulla possibile incidenza delle errore. Ringraziamenti: Questo capitolo non sarebbe mai esistito senza il contributo del CRS4, di Sardegna Ricerche, e soprattutto la collaborazione di Alessandro Soro. Vorrei anche ringraziare Belkacem Chikhaoui, senza il cui impegno non mi sarebbe stato facile spiegare in questo capitolo l‘importanza pratica degli approcci analitici. Bibliografia Anderson, J.R. [1993] Rules of the mind. Hillsdale, NJ :Lawrence. Erlbaum Associates. Baddeley, A.D. [1990] Human Memory, Theory and Practice. Lawrence Erlbaum Associates. Broadbend, D.E. [1958] Perception and communication. London: Pergamon Press. 338p. Byrne, M. D. [2001] ACT-R/PM and Menu Selection : Applying a Cognitive Architecture to HCI. International Journal of Human Computer Studies, 44, pp 41-84. Byrne, M. D., Anderson J.A. [1997] Enhancing ACT-R's perceptual-motor abilites. In Proceedings of the Nineteenth Annual Conference of the Cognitive Science Society. Stanford University, p. 880. Mahwah, NJ: Erlbaum. Card S.K., Moran T.P. Newell A. [1983] The psychology of Human-computer interaction. Mahwah, NJ: Lawrence Erlabaum Assosciates. Analisi Cognitiva delle Interfacce Utente 219 Chikhaoui B, Pigot H. [2008a]. Evaluation of a contextual assistant interface using cognitive Models. In proceedings of the 5th International Conference on Human-Computer Interaction , Venice, Italy, 29-31 October 2008 Chikhaoui B, Pigot H. [2008b] . Simulation of a human machine interaction : locate objects using a contextual assistant. In Proceedings of the 1st International North American Simulation Technology Conference, Montréal Canada. 13-15 August 2008. Di Eugenio B., Haller S., Glass M. [2003] Developpment and evaluation of NL interfaces in a small shop. AAAI Spring Symposium on Natural Language Generation in Spoken and Written Dialogue: 1-8. Fitts , P.M. [1954] The Information Capacity of the Human Motor System in Controlling the Amplitude of Movement. Journal of Experimental Psychology, 47 (6) pp 381-391. Fortin C., Rousseau R, [2003] Psychologie cognitive. Une approche de traitement de l’information. Presses de l‘université du Québec. Télé-université Gibson, E. J., Shapiro, F., Yonas A. [1969] Principles of perceptual Learning and Development. Englewood Cliffs, NJ Prentice Hall Kahneman, D., Treisman, A. [1984] Changing views of attention and automaticity In R. Parasuraman, D.R. Davies (eds), Variations of Attention. New York : Academic Press. Kieras, D.E. [2003] Goms models for tasks analysis. In D. Diaper & n.A. Stanton (Eds), The Handbook of task analysis for human-computer Interaction,. Pp 83116. Mahwah, NJ: Lawrence Erlbaum Assosciates. Lussier-Desrochers D., Lachapelle Y., Pigot H., Bauchet J. [2007] Apartments for people with intellectual disbility: Promoting innovative community living services. In 2nd International Conference on Intellectual Disabilities/ Mental Retardation. Mackenzie, I. S. [1995] Movement time prediction in human-computer interfaces. Readings in Human-computer interaction, pp 483-493. Miller G., [1956] The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information. The Psychological Review, 1956, vol. 63, Issue 2, pp. 81-97. Neisser, [1967] Cognitive psychology. Englewoods Cliffs, NJ: Prentice Hall. Newell, A. 1990] Unified theories of cognition. Cambridge,Ma : Harvard University Press. Nielsen J. and Phillips V. [1993] Estimating the Relative Usability of Two Interfaces : Heuristic and Empirical Methods Compared. In Proceedings of the INTERACT ‘93 and CHI ‘93 Conference on Human Factors in Computing Systems: 214-221. Pigot H., Lussier-Desrochers D., Bauchet J.,Giroux S., Lachapelle Y. [2008a]. A Smart Home to Assist Recipe Completion. In A. Mihailidis, J. Boger, H. Kautz 220 Hélène Pigot and, L. Normie, eds. Technology and Aging, Selected Papers from the 2007 International Conference on Technology and Aging, Volume 21 Assistive Technology Research Series. 8. Pigot H., Giroux S. Bauchet J. [2008b]. Assistive Devices for People with Cognitive Impairments. In Sumi Helal, Mounir Mokhtari, and Bessam Abdulrazak, The Engineering Handbook of Smart Technology for Aging, Disability, and Independence: Computer and Engineering Design and Applications, John Wiley & Sons. Sperling, G. [1963]. A model for visual memory tasks. Human Factors, 5, pp 19-31. St Amant R.., Horton T., Ritter E. [2007] Model-Based Evaluation of Expert Cell Phones Menu Interaction. ACM Transactions on Computer-Human Interaction, 14 (1), pp 1-24. Treisman, [1960] Contextual cues in selective listening. Quarterly Journal of Experimental Psychology, 12, 242-248. Yen B., Hu P., and Wang M. [2005]. Towards effective Web site designs: A framework for modeling, design evaluation and enhancement. In Proceedings of IEEE International Conference on e-Technology; e- commerce, and eService (EEE05). pp 1-6. Hélène Pigot, docente di informatica e bachelor di terapia occupazionale è professore presso l'Università di Sherbrooke in Québec, Canada, e ricercatrice presso il laboratorio Domotique Mobile (DOMUS) della stessa Università. I suoi interessi di ricerca riguardano gli strumenti di supporto per utenti con indebolimento cognitivo per cause diverse (trauma cranico cerebrale, ritardo mentale, schizofrenia, malattia di Alzheimer), lo sviluppo di protesi cognitive per facilitare l'autonomia nell'ambiente domestico e sociale, e la verifica degli stessi strumenti supportata dall'analisi cognitiva delle attività umane. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Interfacce Utenti Multi-Dispositivi Fabio Paternò – Laboratorio Interfacce Utenti dell‘Istituto di Scienza e Tecnologie dell‘Informazione del Consiglio Nazionale delle Ricerche [email protected] Abstract. Questo articolo mira a fornire una discussione su come ottenere interfacce utenti che si adattano a diversi dispositivi preservandone l‘usabilità. A questo scopo, esso analizza e discute lo stato dell‘arte in termini di approcci, criteri di progettazione e strumenti automatici; e mostra esempi di applicazione di tali concetti. L‘obiettivo è di consentire di comprendere lo spazio delle possibili soluzioni nell‘ambito dell‘adattamento al dispositivo sia in fase di progettazione che di esecuzione al fine di applicarle meglio e stimolare a pensare a nuove soluzioni. Keywords: HCI, Ambienti Multi-Dispositivi, Adattamento, Ubiquitous Computing. Introduzione Le motivazioni per affrontare le problematiche relative alle interfacce utenti multi-dispositivi sono sotto gli occhi di tutti. La nostra realtà quotidiana è caratterizzata dalla presenza di un numero sempre crescente di dispositivi informatici interattivi. Nel mercato di massa vengono proposti continuamente nuovi dispositivi con capacità di calcolo e risorse di interazione sempre maggiore. Il risultato è una offerta tecnologia che spazia da orologi con schermi interattivi a display delle dimensioni di una parete. Quindi diventa fondamentale proporre delle soluzioni che consentano agli utenti di sfruttare questa abbondanza tecnologica. Questo implica la capacità delle interface utenti di adattarsi al variare delle risorse di interazione. Il punto di vista di chi scrive è quello di un informatico anomalo, ovvero una persona che ha una formazione informatica ma che è 222 Fabio Paternò stato uno dei primi in Italia, ormai una ventina di anni fa, a capire l‘importanza della disciplina chiamata human-computer interaction (HCI) (Paternò, 2004). Questo implica non vedere più l‘informatica in modo tradizionale, ovvero come una disciplina orientata essenzialmente a trovare soluzioni per fare i calcoli più velocemente, ma vederla come una disciplina che mira a fornire ad un numero sempre più ampio di utenti la possibilità di interagire e comunicare informazioni in modo usabile ed accessibile. Il successo del Web è un chiaro esempio di questa visione, che ora può sembrare anche un po‘ banale ma che per molti anni non è stata facilmente recepita dal mondo accademico italiano. Quindi questo capitolo cercherà di fornire una discussione delle problematiche relative ad ambienti caratterizzati dalla presenza di vari tipi di dispositivi, in particolare sistemi desktop e mobile. Questa discussione è basata sulle esperienze maturate in vari progetti, in particolare progetti Europei che hanno coinvolto vari gruppi sia in ambito di ricerca che di aziende. Gruppi che spesso hanno avuto una caratterizzazione multi-disciplinare coinvolgendo non solo informatici ma anche esperti di psicologia cognitiva, designers, esperti dei domini applicative considerati, ecc. Il mio lavoro si è svolto nel Laboratorio Interfacce Utenti dell‘Istituto di Scienza e Tecnologie dell‘Informazione del Consiglio Nazionale delle Ricerche, che si focalizza nello sviluppo di soluzioni software e tecnologiche per interfacce utenti che siano accessibili nei più disparati contesti di uso. 1. Concetti di Base Per poter meglio seguire la discussione è utile richiamare alcuni concetti di base. Il primo è quello relativo all‘adattamento e la prima distinzione da fare tra le tecniche dell‘adattamento è quella tra adattabilità ed adattività. Una soluzione è adattabile quando ha la capacità di modificare aspetti su richiesta esplicita dell‘utente in accordo a opzioni predefinite. Un tipico esempio è un‘applicazione dove vi sono alcuni profili di accesso predefiniti (esperto, intermedio, iniziale), all‘inizio della sessione l‘utente ne sceglie uno e poi navigherà e riceverà informazione in modo conseguente alla scelta Interfacce Utenti Multi-Dispositivi 223 iniziale. Invece, una soluzione è adattiva quando ha la capacità di modificare aspetti dinamicamente senza richiesta esplicita dell‘utente. Quindi questo implica che nel sistema vi sono delle regole che a seconda di quello che viene rilevato determinano come modificare le modalità di interazione. Gli aspetti che si possono adattare nelle interfacce utenti sono di tre tipologie: le presentazioni (nella scelta di modalità, layout, attributi grafici, …) il comportamento dinamico (nella scelta del modello di navigazione, l‘abilitazione e disabilitazione dinamica delle tecniche di interazione, …) il contenuto dell‘informazione che viene presentata. Noi quindi vedremo come l‘adattamento si applica per gestire ambienti che sono disponibili a causa delle tendenze principali tecnologiche caratterizzate dalla presenza di vari tipi di dispositivi interattivi (desktop, cellulari, PDAs, TV digitale, dispositivi vocali, …). Questo ha anche portato ad una evoluzione nei linguaggi usati per specificare e programmare il comportamento interattivo, con una attenzione sempre maggiore a linguaggi capaci di descrivere i principali aspetti da considerare astraendo dalla miriade di dettagli implementativi associati ai vari possibili dispositivi e relativi linguaggi di programmazione. Quello che caratterizza gli ambienti multi-dispositivi è la variabilità del contesto di uso. Come indicato nella Figura 1 il contesto di uso è caratterizzato da tre dimensioni principali: utente, che è caratterizzato dalle sue preferenze, background, obiettivi, ecc. dispositivo, che è caratterizzato dalle sue risorse di interazione (ampiezza schermo, supporto vocale, modalità di interazione, ecc.) ambiente, che a sua volta può essere distinto in quello fisico (luce, rumore, temperatura, posizione, …) e sociale, che indica chi sono le persone che sono vicino e soprattutto che tipo di relazione abbiamo con esse perché questo può avere un impatto 224 Fabio Paternò sulla scelta dell‘informazione che vogliamo condividere con loro. Figura 1. Il Contesto di Uso 2. Gli Ambienti Multi-Dispositivi Negli ultimi anni vari approcci sono stati adottati e proposti per la progettazione e sviluppo di interfacce utenti in ambienti multidispositivi. Una prima classificazione di questi approcci è: Soluzioni Manuali, che implicano essenzialmente che una versione per ciascuna tipologia di dispostivi che si vuole supportare viene sviluppata. È chiaramente una soluzione costosa in termini di risorse umane e temporali richieste, in particolare con il crescere delle tipologie di dispositivi che si vuole supportare. Transcoders, in questo caso viene effettuate una traduzione automatica da un linguaggio per un tipo di dispositivo ad un altro (uno dei primi esempi erano i transcoders da HTML a WML). I criteri che solitamente adottano sono sintattici e quindi le soluzioni che ne derivano hanno spesso una limitata usabilità, in Interfacce Utenti Multi-Dispositivi 225 quanto cercano di forzare una progettazione per un tipo di dispositivo ad un altro che ha caratteristiche diverse. Style sheets, essi consentono di cambiare il modo di presentare vari tipi di informazione in base al tipo di dispositivo; rappresentano quindi un utile supporto anche se sono in realtà una soluzione parziale in quanto non consentono di modificare la struttura dell‘applicazione interattiva (cosa che talvolta è utile per meglio supportare l‘utente tramite un dispositivo di tipologia diversa). Information Visualization (Spence, 2007), questa è un‘area che ha studiato varie tecniche utili per rappresentare grandi quantità di dati in modo da poter accedere facilmente alle informazioni associate. Tali tecniche possono essere applicate utilmente quando si accede tramite dispositivi con schermi piccoli. Il problema è che spesso richiedono notevoli risorse di calcolo che piccoli dispostivi possono non avere. Approcci basati su modelli, dove l‘idea di fondo è di evidenziare nei modelli le scelte principali di progettazione e poi avere delle trasformazioni che le adattano ai dispositivi correnti. In questo caso un aspetto delicato è trovare un giusto equilibrio tra il livello di astrazione e la possibilità di controllare a pieno i risultati dell‘adattamento da parte del progettista. Un aspetto che caratterizza gli ambienti multi-dispositivi è la variabilità delle dimensioni degli schermi. I Personal Computer (PC) solitamente variano tra 800x600 e 1800x1440 pixel, i PDAs solitamente variano tra 240x240 e 480x640 pixel, i cellulari solitamente variano tra 128x128 e 240x240 pixel. L‘IPhone, che è a cavallo tra queste due ultime categorie, ha attualmente una risoluzione di 320x480 pixel. In genere, le dimensioni dello schermo variano più tra dispositivi mobili che tra i sistemi desktop. É bene ricordare che la legge di Moore cambia continuamente questi numeri! Essa infatti dice sostanzialmente che il numero di componenti in un chip raddoppia ogni 18 mesi, quindi le capacità di memoria o di elaborazione dei sistemi informativi evolvono di conseguenza. Quando si parla di dispositivi mobili in realtà si parla di una categoria molto variegata al suo interno. Infatti, se consideriamo i cel- 226 Fabio Paternò lulari possiamo facilmente notare che variano in termini di softkeys (i tasti fisici che forniscono). Un altro aspetto che può variare è la modalità di base di interazione. Alcuni consentono di poter selezionare liberamente qualsiasi punto dello schermo senza restrizioni (come accade con il mouse per i sistemi desktop), mentre altri danno la possibilità di fare solo 5 attività di base: spostare il cursore a destra o sinistra, in alto o in basso, sempre sequenzialmente, senza poter saltare liberamente da un punto all‘altro), oppure di selezionare l‘elemento corrente nell‘interfaccia utente (vedi Figura 2), quindi mancano di un dispositivo di puntamento. Figura 2. Esempio di cellulare con interazione a 5 vie L‘interazione con i dispositivi cellulari deve tener conto delle loro caratteristiche particolari. Il display è piccolo e la sua ampiezza può variare molto. L‘input testuale è lento. Talvolta non c‘è dispositivo di puntamento. Le softkeys sono usate per attivare i comandi ma il loro numero e scopo varia a secondo del dispositivo. Spesso l‘utente ha da pagare per accedere ai dati. Buoni cellulari supportano anche l‘accesso tramite WLAN diminuendo il tempo di scaricamento durante la navigazione, e migliorano continuamente in termini di caratteristiche e possibilità. Al fine di ottenere soluzioni usabili nell‘interazione mobile c‘è da tenere presente una serie di fattori. É importante minimizzare Interfacce Utenti Multi-Dispositivi 227 l‘input testuale, e sfruttare gli elementi del dispositivo, come gli accesskeys. É utile mantenere un certo livello di coerenza tra le versioni di un‘applicazione per piattaforme diverse, in modo che l‘uso di una versione per un dispositivo diverso non richieda sforzi eccessivi di apprendimento. É importante prevenire gli errori dell‘utente in quanto un accesso sbagliato può richiedere tempo (e quindi costi) per poter tornare ad una situazione corretta. Per questo lo scopo degli elementi dell‘interfaccia deve essere chiaro e bisogna evitare di sovraccaricare l‘interfaccia con molti elementi. É anche utile limitare il bisogno di scrolling. In generale, c‘è da tener presente che l‘accesso tramite dispositivo mobile è breve. Gli utenti non vogliono usare dispostivi con limitate risorse per lunghe sessioni interattive in quanto sarebbe alquanto scomodo. Quindi, l‘accesso tramite dispositivo mobile è solitamente orientato a piccole quantità di informazioni che servono al momento. Virpi Roto (Roto, 2006), ricercatrice di Nokia Research, nella sua tesi di dottorato evidenzia bene come l‘usabilità nei dispositivi mobili si differenzia da quella nei sistemi desktop perché i sistemi desktop sono molto standardizzati in termini di hardware e software. Viceversa nei dispostivi mobili c‘è una notevole variabilità in termini di ampiezza di schermi, tasti disponibili (sia in termini di numero che posizione e forma) e poi come questi tasti possono essere sfruttati dai microbrowser Web che consentono la navigazione nelle applicazioni. Questi microbrowser Web sono diversi dai browser a cui siamo abituati nei sistemi desktop e variano sensibilmente anche tra di loro (ad esempio nel modo in cui associano i tasti del telefono a dei comandi). In ambito W3C (W3C, 2008) c‘è stato recentemente uno sforzo per fornire guidelines per ottenere interfacce utenti usabili per dispositivi mobili. Esse considerano vari punti: Comportamento generale, ovvero sfruttare le capacità del dispositivo per fornire una migliore user experience (quindi fornire una migliore user experience su dispositivi più capaci); Navigazione e Links; Tenere brevi gli URIs delle home dei siti, fornire minimo supporto alla navigazione in cima alla pagina; 228 Fabio Paternò Layout e Contenuto; Cercare di limitare lo scrolling ad una sola direzione, assicurarsi che il contenuto che è centrale alla pagina preceda quello meno importante; Definizione pagina; Fornire un titolo della pagina breve ma descrittivo, non usare frames, non usare tavole annidate e tavole per il layout; User Input; tenere al minimo il numero di keystrokes, evitare input testuale libero quando possibile, fornire valori pre-selezionati di default quando possibile. 3. Comprendere le Interfacce Utenti MultiDispositivi Per poter effettuare una progettazione efficace in ambienti multidispositivi è importante aver chiaro lo spazio delle possibili scelte. In particolare. Va considerato lo spazio che mette in relazione i compiti (task in inglese) che gli utenti intendono svolgere e le piattaforme interattive considerate. Infatti una regola principale dell‘usabilità e di focalizzarsi sull‘utente e le attività che intende svolgere. Qui si intende per piattaforme gruppi di dispositivi che hanno risorse di interazione simili (desktop, PDA, cellulari, dispositivi vocali, …) I casi possibili sono essenzialmente quattro: Stesso task nello stesso modo in piattaforme diverse, ad esempio un login richiede una interazione simile per qualsiasi piattaforma si consideri; Stesso task su piattaforme diverse ma in modo diverso, ovvero l‘attività da svolgere è la stessa ma vi sono tecniche di interazione diverse che le supportano. Tali tecniche hanno quindi la stessa semantica ma richiedono risorse di interazione diverse che quindi sono più adatte per certe piattaforme che per altre; Dipendenze tra task eseguiti su piattaforme diverse, questo implica che il fatto di aver eseguito un‘attività attraverso un certo dispositivo abiliti o disabiliti la possibilità di svolgere un‘altra attività attraverso un altro dispositivo; Interfacce Utenti Multi-Dispositivi 229 Task significativi solo in un tipo di piattaforma, in questo caso ci sono delle attività che sono significative se si utilizza un certo dispositivo ma non con un altro e quindi se si cambia dispositivo non ha più senso supportarle. Vediamo alcuni esempi concreti per meglio capire questa classificazione di casi. Sicuramente a nessuno viene in mente di organizzare un viaggio aereo tramite un cellulare perché questa attività richiede di accedere ai siti di diverse compagnie aeree, confrontare i risultati, modificare le richieste per vedere se si trovano soluzioni più vantaggiose. Queste sono attività che si fanno bene seduti con uno schermo ampio a disposizione. Viceversa, se si è in auto e si vuole sapere se il volo che si vuole prendere è in orario o in ritardo l‘unica possibilità è l‘uso di un cellulare. Analogamente, in una applicazione cinematografica, la decisione di quale film vedere può richiedere l‘accesso a critiche dei film disponibili e relativi trailer che si fa meglio con un sistema desktop mentre verificare se ci sono ancora posti disponibili al cinema all‘ultimo momento mentre si è al bar con gli amici si fa decisamente meglio con il cellulare. Figura 3. Esempio Stesso Task, Interfacce Diverse. 230 Fabio Paternò Se torniamo alla classificazione precedente, vediamo come in Figura 3 si fornisce un esempio del caso stesso task ma supportato in maniera differente. Qui vediamo una versione precedente del sito delle ferrovie italiane. Vediamo, ad esempio, come la selezione del giorno e dell‘ora nella versione desktop avviene tramite dei pulldown menu, alcuni dei quali, quando selezionati devono mostrare una lista di possibili valori notevolmente lunga. Siccome sul dispositivo mobile lo spazio a disposizione è scarso queste due attività sono supportate in modo differente: la scelta del giorno viene specificata non selezionando da una lista di possibili valori ma immettendo direttamente i valori di interesse, mentre per le ore sono state predefinite alcune fasce in numero molto limitato da cui è possibile scegliere quella di interesse. Figura 4. Altro Esempio di Stesso Task, Interfacce Diverse. Un altro esempio dello stesso caso è presentato in Figura 4. In questo esempio consideriamo due versioni differenti del sito del quotidiano La Repubblica. Anche qui possiamo notare che anche se entrambi consentono l‘accesso agli stessi articoli le interfacce utenti si differenziano consistentemente. Nella versione desktop si fa maggior uso di immagini, anche più grandi, l‘informazione è strutturata su più colonne, con servizi aggiuntivi (come le news) e maggiori pubblicità. Mentre il disegno della versione mobile è più sobrio e lineare per facilitare l‘accesso da dispositivi con capacità più limitate. Interfacce Utenti Multi-Dispositivi 231 La Figura 5 ci mostra un esempio del caso in cui entrambe le piattaforme supportano lo stesso task principale ma con un diverso livello di decomposizione. Ovvero in un caso vi è il supporto di un numero di task secondari che non c‘è nell‘altro caso. Nell‘esempio il task principale è di effettuare una prenotazione alberghiera. Vediamo come nel caso del dispositivo mobile si forniscono solo le informazioni essenziali (nome, data di arrivo e partenza, contatto telefonico) mentre nel caso di accesso desktop si rende possibile specificare una serie di preferenze (come il tipo di stanza) e di dati personali (come il numero del documento di identità). Figura 5. Stesso task principale ma con diversa decomposizione. L‘ultimo esempio di questa sezione riguarda il caso in cui vi sono dipendenze tra task eseguiti su diverse piattaforme. In particolare, l‘esempio mostra il caso in cui l‘utente tramite l‘interfaccia desktop accede ad un servizio di prenotazione di un volo aereo, che quando è andato a buon fine abilita automaticamente la possibilità di accedere tramite il cellulare ad informazioni in tempo reale relative al 232 Fabio Paternò volo selezionato. Quindi un‘attività svolta tramite il desktop abilità successivamente un‘attività tramite il cellulare (Figura 6). Figura 6. Esempio di dipendenza tra attività attraverso diverse piattaforme. Per quanto riguarda esempi di attività che hanno senso con una piattaforma ma non con altre un esempio interessante è la partita di calcio. Vi fu un tempo in cui c‘era chi era sicuro che questa poteva essere la killer application che avrebbe fatto esplodere il mercato dei cellulari. Questo non è accaduto finora. Non è un problema tecnologico, infatti è possibile vedere partite di calcio su alcuni tipi di cellulari ma ben pochi si sognano di farlo. Il motivo è abbastanza semplice: le persone guardano le partite di calcio per rilassarsi e queste durano almeno 90 minuti. Stare 90 minuti avendo attaccato alla faccia un cellulare (anche di ultima generazione) è qualcosa di alquanto frustrante, considerando che i giocatori che vengono mostrati sono piccolini ed il pallone quasi invisibile. Cosa ben diversa di quando si sta seduti sul sofà con di fronte uno schermo di 40-50 pollici (e magari nel frattempo sorseggiando qualche bibita). Altra cosa sono le radiocronache che consentono in situazioni particolari Interfacce Utenti Multi-Dispositivi 233 (ad esempio mentre si guida) di essere informati o servizi in tempo reale che aggiornano sullo stato del risultato. Questi sono servizi che forniscono informazioni limitate e quindi possono essere veicolati tramite canali con maggiori limitazioni. Conseguentemente, è chiaro che anche la TV fruita tramite cellulare richiede un ripensamento dei contenuti proposti che non possono essere quelli della TV classica. 4. La Progettazione di Interfacce Utenti MultiDispositivi La progettazione di interfacce utenti multi-dispositivi può seguire quattro strategie di fondo: Sviluppo specifico per ogni piattaforma, viene sviluppata una versione diversa per piattaforma, questo consente di avere pieno controllo su di esse ma è chiaramente costoso in termini di tempo e lavoro; Sviluppo di una versione con differenti sottoversioni, quindi si crea una versione con la possibilità di indicare piccole modifiche per piattaforme diverse; Sviluppo di una versione generale, una unica versione generica che poi verrà specializzata per le varie piattaforme da qualche supporto a run-time; Adattamento automatico, si crea la versione per una piattaforma e poi c‘è un supporto automatico che la adatta alle altre piattaforme. Un esempio di sviluppo specifico per ogni piattaforma è il Sito Web di Amazon. Come mostrato in Figura 7 vi sono due versioni diverse a seconda se si accede tramite sistema desktop o mobile1 e, come si può ben vedere la differenza è notevole in quanto la versione mobile è alquanto essenziale, supporta il task principale (ricerca di informazioni) e non fornisce molti dettagli su contenuti ed anticipazioni. 1 http://www.amazon.com/anywhere 234 Fabio Paternò Figura 7. Esempio di versioni diverse a seconda della piattaforma. Un esempio diverso è proposto nel tool Damask (vedi Figura 8) sviluppato nella tesi di dottorato all‘Università di Berkeley di James Lin (Lin 2008). L‘idea in questo caso è di avere un ambiente di editing che supporta la conversione di grafici a mano in corrispondenti specifiche della interfaccia utente. L‘ambiente consente anche di dire se una parte della specifica è valida per tutte le piattaforme o solo per una specifica (vengono considerate desktop, mobile, e voce). Inoltre, sempre per facilitare l‘editing, è possibile sfruttare una libreria di pattern predefiniti che catturano un po‘ di best practice nella progettazione di interface utenti. Per quanto riguarda l‘approccio basato sullo sviluppo di una versione generale esso può essere ottenuto inserendo nella specifica indicazioni degli autori su come il contenuto si deve presentare o tramite descrizioni basate su modelli che astraggono dalle caratteristiche specifiche delle varie piattaforme. Per quanto riguarda l‘adattamento automatico vi sono varie strategie al suo interno: Interfacce Utenti Multi-Dispositivi 235 Figura 8. Interfaccia Utente dell‘Ambiente Damask. Scaling, un semplice cambiamento di scala che spesso lascia risultati poco usabili; Transducing, converte elementi ed immagini in altri formati, e comprime e converte immagini a seconda delle caratteristiche del dispositivo, come AvantGo2; Transforming, va oltre nel modificare maggiormente contenuti e struttura. Esempi di transforming sono: Single column, (per esempio Opera SSR) elimina lo scrolling in una dimensione, aumenta lo scrolling nell‘altra; Fisheye è un fisheye Web browser che mostra un focus in una scala leggibile e comprime le zone esterne, un esempio è Fishnet (Baudish, 2004); Overview + detail divide una pagina Web in sezioni multiple e fornisce un overview with links a queste sezioni. La pagina di 2 http://www.avantgo.com 236 Fabio Paternò overview può essere o una immagine thumbnail, o un riassunto della pagina Web. Nei transforming possiamo citare anche le overviews techniques, come: Smartview (Milic-Frayling & Sommerer, 2002) - Una vista thumbnail in zoom-out, riempie lo schermo orizzontalmente. Partiziona la pagina in regioni logiche; quando una è selezionata il suo contenuto è mostrato in dettaglio; Gateway (Mackay, 2004) – La vista dettagliata usa una tecnica focus-plus-context, allargando la regione selezionata; Summary Thumbnail (Lam, Baudish, 2005)- Usa la vista thumbnail ma i testi sono più brevi e più grandi assicurando una buona leggibilità (le font sono ingrandite ed i caratteri sono presentati finché c‘è spazio). 5. Progettazione Interfacce Utenti basata su Modelli I modelli sono astrazioni della realtà. Mirano ad evidenziare gli aspetti principali di interesse senza perdersi in tanti dettagli. I modelli possono essere utili anche quando si progettano o valutano applicazioni interattive. Nel mondo HCI l‘uso di modelli di vario genere è stato attivo fin dai primi anni 80. Possiamo individuare tre generazioni di approcci. La prima generazione mirava a creare dei modi dichiarativi per specificare interface utenti grafiche. Ad esempio in questa generazione troviamo il lavoro del gruppo di Jim Foley al Georgia Tech con UIDE (Foley, 1994) in cui si usavano pre e post condizioni associate con i vari oggetti di interazione. Un altro esempio era Humanoid (Szekely, 1993) che mirava ad esprimere esplicitamente le scelte di progettazione delle varie parti dell‘interfaccia utente. Nella seconda generazione di approcci si è passati ad usare modelli di task per supportare la progettazione e lo sviluppo di interface utenti, in quanto questi modelli erano visti un po‘ come un punto di incontro tra progettisti, sviluppatori ed utenti finali. Esempi di strumenti svi- Interfacce Utenti Multi-Dispositivi 237 luppati in questo ambito erano Adept (Wilson, 1993) e Mobi-D (Puerta, 1999). Negli ultimi anni abbiamo assistito ad un rinnovato interesse in questi approcci in quanto sono visti come uno strumento utile per gestire la complessità derivate dal proliferare di dispositivi interattivi con i loro linguaggi di implementazione. Esempi di approcci che cadono in questa generazione sono UIML (Abrams, 1999), TERESA (Mori, 2004)]. In generale, un sistema interattivo può essere considerato a vari livelli di astrazione. Un possibile modo è quello di considerare i compiti da eseguire per raggiungere gli obiettivi dell‘utente e gli oggetti logici che vanno manipolati per il loro svolgimento. Questa è una visione logica del sistema che può essere discussa tra le varie persone coinvolte nella progettazione (utente finale, committente, progettista di interfacce, sviluppatori software). Si può avere un‘altro punto di vista, che è sempre logica ma è più focalizzata sull‘interfaccia, ovvero considerare le presentazioni e le interazioni che ne fanno parte e come muoversi da una presentazione all‘altra. Le interazioni sono identificate in base alla loro semantica (i risultati che consentono di ottenere). Per esempio, si può dire che in un certo punto si ha bisogno di una selezione, ma senza specificare il tipo di modalità richiesta per realizzarla (che potrebbe essere ad esempio selezione grafica, vocale, o tramite un gesto). Vi è, poi, una possibile descrizione più concreta dove si specificano le modalità e le tecniche di interazione che si vogliono usare. Per esempio, si può dire che in un sistema desktop grafico la selezione avviene tramite una lista con una barra di scorrimento. Infine, si ha l‘implementazione, che può essere in HTML, Java ecc.. Quando si progetta, il livello di astrazione del punto di partenza può cambiare a seconda dei casi (vedi Figura 9). Certe volte si identificano i compiti da supportare e quelli sono il punto di partenza per ottenere, tramite raffinamenti successivi, l‘implementazione. In altri casi, si parte da una certa implementazione che esiste e si creano le descrizioni logiche corrispondenti, ad esempio per cercare di capire se effettivamente quella è la migliore per supportare le attività dell‘utente. 238 Fabio Paternò Figura 9. Possibili Trasformazioni tra Livelli di Astrazione. L‘uso di livelli multipli di astrazione ha vari vantaggi: consente di focalizzare sulle principali scelte di progettazione; collegano informazione semantica agli elementi implementativi; e, con il supporto di appropriate trasformazioni consentono di ottenere interoperabilità tra vari linguaggi implementativi. Per quanto riguarda i modelli di task una notazione largamente usata in università ed aziende è ConcurTaskTrees (Paternò, 1999). Come mostra la Figura 10 le sue caratteristiche principali sono una organizzazione gerarchica delle attività descritte, dove quelle generali sono decomposte in attività più dettagliate; un ricco insieme di operatori temporali che permettono di specificare comportamenti flessibili dove le attività possono andare in sequenza, concorrentemente, interrompersi, ecc. Vi è anche la possibilità con icone diverse di indicare come i compiti devono essere allocati: all‘utente, al sistema od ad una loro interazione. Per ciascun task è possibile specificare inoltre una serie di attributi, che includono anche le piattaforme per cui quel task è significativo. Interfacce Utenti Multi-Dispositivi 239 Figura 10. Esempio di specifica in ConcurTaskTrees Il tool che supporta l‘editing e l‘analisi di questi modelli di task è il CTTE (ConcurTaskTrees Environment3) (Mori, 2002),. Il tool, oltre vari strumenti di editing, consente anche una simulazione interattiva del modello, per cui il progettista può selezionare un task ed il tool mostra quelli successivamente abilitati a seguito del suo svolgimento. L‘informazione contenuta nei modelli di task può anche essere utile per la progettazione di interface concrete che sono coerenti con le loro indicazioni. Le relazioni temporali tra i task possono guidare la strutturazione dei dialoghi dell‘interfaccia utente, mentre la struttura dei modelli può fornire utili indicazioni su come strutturare le interface utenti corrispondenti. Ad esempio, se vi sono dei task che sono parte di una stessa attività più generale allora significa che sono strettamente collegati logicamente e gli elementi dell‘interfaccia corrispondente dovrebbero essere raggruppati in qualche modo per esprimere tale relazione logica. Inoltre la tipologia del task è utile per identificare le tecniche di interazione più idonee per supportare la sua semantica. 3 Disponibile all‘indirizzo http://giove.isti.cnr.it/ctte.html 240 Fabio Paternò Per quanto riguarda gli altri livelli di astrazione (interfaccia astratta e concreta) diversi linguaggi XML basati su modelli per interfacce utenti sono stati proposti: XIML4 (Puerta, 2002), sviluppato da RedWhale, UIML5 (Abrams, 1999), sviluppato da Harmonia, TERESA-XML6 (Mori, 2004), sviluppato al Laboratorio di Interfacce Utenti dell‘ISTI-CNR, USIXML7 (Limbourg and Vanderdonckt, 2004), sviluppato alla Louvain University, ed XForms8, sviluppato dal W3C. XForms applica concetti di progettazione model-based sviluppati in ambito di ricerca. Esso separa presentazione da contenuto (i tag per i controlli nella form sono separati dai tipi di dati e valori ritornati alla applicazione). I controlli XForms che possono stare nelle form sono device-independent (select, trigger, output, secret, …). Esso riduce anche il bisogno di script attraverso verifiche effettuate lato client sui dati in formato. In pratica in XForms sono presenti sia il livello astratto (attraverso il vocabolario dei controlli e dei costrutti) che quello concreto (attraverso gli attributi di presentazione dei tipi di dati). Ad esempio XForms consente di specificare un elemento di selezione singola tramite il controllo select1 e poi tramite l‘attributo appearance si possono dare vari valori (full, compact, minimal) che determinano diverse implementazioni (rispettivamente radio button, list box, drop down list) a seconda delle caratteristiche del dispositivo corrente. Un approccio diverso è seguito in TERESA XML dove vi è una chiara distinzione tra livello astratto e livello concreto. Più precisamente in TERESA XML vi è un linguaggio astratto e un linguaggio concreto per ciascuna piattaforma. I linguaggi concreti hanno la stessa struttura del linguaggio astratto ma aggiungo raffinamenti per ogni oggetto di interazione (interattore) o operatore di composizione che indicano aspetti specifici per la piattaforma considerata. La Figura 11 mostra una rappresentazione grafica di un esempio di interfaccia utente astratta in TERESA XML. L‘interfaccia è vista come un insieme di presentazioni, in ciascuna presentazione vi sono 4 http://www.ximl.org/ 5 http://www.uiml.org/ 6 http://giove.isti.cnr.it/teresa.html 7 http://www.usixml.org/ 8 http://www.w3.org/MarkUp/Forms/ Interfacce Utenti Multi-Dispositivi 241 interattori ed operatori di composizione che indicano come organizzare gli interattori. Le connessioni indicano come ci si muove da una presentazione ad un‘altra. In sostanza gli operatori di composizione hanno lo scopo di strutturare l‘interfaccia utente per indicare elementi che sono raggruppati logicamente (e che quindi bisogna presentare in modo che questo raggruppamento logico sia facilmente percepibile dall‘utente). Figura 11. La Struttura di un‘Interfaccia Astratta Quando ci si muove dal livello astratto a quello concreto si danno ulteriori dettagli che dipendono dalla piattaforma considerata. Per esempio a livello astratto possiamo dire che c‘è un interattore di tipo navigator (che consente di muoversi da una presentazione ad un‘altra), a livello concreto (nel caso di piattaforma grafica) si specificherà anche se si tratta di un link grafico o testuale od un button con associato un link (che sono tre tecniche diverse per supportare lo stesso concetto). A livello implementativo si specificherà poi in ulteriore dettagli a seconda del linguaggio implementativo scelto (XHTML; Java, Windows Forms, …). L‘approccio risultante assume che i progettisti conoscano le potenziali piattaforme (non i dispositivi) dalle prime fasi del processo di progettazione. Il risultato principale è che il metodo consente agli 242 Fabio Paternò sviluppatori di evitare una marea di dettagli implementativi (la trasformazione da descrizione concreta a implementazione è automatica). Inoltre è facile aggiungere supporto per nuovi linguaggi implementativi. La Figura 12 mostra un authoring tool che supporta l‘editing di specifiche e la generazione di interface con TERESA XML. Sulla sinistra appare la lista di presentazioni correntemente editate, la presentazione selezionata corrisponde alla descrizione astratta che è nella parte a destra in alto, l‘elemento correntemente selezionato nella descrizione astratta corrisponde a quello che si può editare a livello concreto nella parte a destra in basso. Nella parte a sinistra in basso vi è la lista di connessioni correntemente disponibili. Figura 12. L‘interfaccia Utente dell‘Ambiente TERESA 6. Adattamento Automatico al Dispositivo a Run-Time In questa sezione discutiamo tecniche di adattamento automatico al dispositivo a run-time, che significa mentre l‘utente sta accedendo all‘applicazione e non in fase di progettazione. Vi sono tre fasi principali che vanno attraversate in questo caso: Interfacce Utenti Multi-Dispositivi identificazione del dispositivo identificazione delle risorse del dispositivo adattamento. 243 In ambienti Web la tecnica che viene solitamente usata per identificare il dispositivo è il rilevamento dello User Agent nel Protocollo HTTP. Questo consente di sapere il tipo di dispositivo corrente, il browser, il sistema operativo ed altre informazioni correlate. Per quanto riguarda le tecniche per l‘identificazione delle risorse del dispositivo, possiamo citarne tre: CC/PP (W3C), il Composite Capability/Preference Profiles (CC/PP) è una specifica per definire capacità e preferenze (anche dette 'delivery context') dello user agent. É basato su RDF e mira a fornire solide fondamenta per lo UAPROF. UAPROF (OMA), descrive le capacità di un dispositivo mobile, comprese risoluzione e capacità multimedia. I dispositivi mobili mandano un header (generalmente "x-wap-profile―) dentro a http request con lo URL al suo UAProf. La produzione dello UAProf per un dispositivo è volontaria da parte dei costruttori. É un‘applicazione dello CC/PP. WURFL, è un file XML di configurazione che può essere memorizzato localmente e contiene informazioni riguardo alle capacità e caratteristiche per una ampia gamma di dispositivi9. Lo UAProf ha varie componenti: Hardware Platform, Software Platforms, Network Characteristics, Browser UA, WAP Characteristics, Push Characteristics. Un estratto di quello associato al Nokia Communicator 950010, è: <?xml version="1.0"?> <rdf:RDF xmlns:rdf= "http://www.w3.org/..." xmlns:prf=http://www.openmobilealliance.org/... xmlns:mms=http://www.wapforum.org/... xmlns:pss5="http://www.3gpp.org/..."> <rdf:Description rdf:ID="Profile"> …… 9 WURFL è un progetto open source http://wurfl.sourceforge.net/. 10 Disponibile a http://nds1.nds.nokia.com/uaprof/N9500r100.xml 244 Fabio Paternò <prf:component> <rdf:Description rdf:ID="HardwarePlatform"> …… <prf:PixelAspectRatio>1x1</prf:PixelAspectRatio> <prf:PointingResolution>Pixel</prf:PointingResolution> <prf:ScreenSize>640x200</prf:ScreenSize> <prf:ScreenSizeChar>29x5</prf:ScreenSizeChar> <prf:StandardFontProportional>Yes</prf:StandardFontPropo rtional> <prf:SoundOutputCapable>Yes</prf:SoundOutputCapable> <prf:TextInputCapable>Yes</prf:TextInputCapable> …… Da un punto di vista architetturale vi sono tre tipi di soluzioni per supportare l‘adattamento automatico (vedi Figura 13). Esse si differenziano essenzialmente su dove l‘adattamento viene eseguito. Figura 13. Possibili Soluzioni Architetturali per l‘Adattamento Nel primo caso avviene al lato del server dell‘applicazione. Il dispositivo client manda la richiesta di accesso ed un‘indicazione delle capacità del dispositivo ed il server applicativo manda il contenuto adattato conseguentemente. Il limite di questa soluzione è che richiede che le funzionalità che eseguono l‘adattamento siano dupli- Interfacce Utenti Multi-Dispositivi 245 cate in tutti i server applicativi. Questo viene evitato nella seconda soluzione in cui l‘adattamento viene svolto in un proxy server. Questo riceve la richiesta di accesso e l‘indicazione delle capacità del dispositivo client, poi gira la richiesta al server applicativo che fornisce i contenuti che vengono adattati dal proxy server prima di essere mandata al richiedente. La terza possibilità è quella in cui l‘adattamento avviene direttamente nel dispositivo client. La più semplice forma di client-side adaptation è rappresentata dall‘uso di CSS. Il browser Opera è capace di fornire il narrow layout. Il problema è che molti dispositivi mobili hanno limitate capacità di calcolo, memoria ed ampiezza di banda. Tuttavia, le capacità dei dispositivi mobili sono in crescita continua La maggior parte dei cellulari tradizionali supportano due viste: originale e narrow. L‘originale mostra la pagina come era per il desktop. Il vantaggio è che è più familiare ed è più facile trovare il contenuto, lo svantaggio è che se il testo va oltre i limiti dello schermo diventa difficile da leggere e se ci sono spazi bianchi tra le righe è facile sentirsi persi. La Figura 14 mostra la differenza tra la porzione dell‘applicazione che viene mostrata da un sistema desktop e da un sistema mobile. Figura 14. Differenze di vista tra Dispositivo Desktop e Mobile 246 Fabio Paternò Nella versione narrow l‘ordine del contenuto segue quello del file markup a partire dall‘alto (vedi Figura 15). Il testo è impacchettato e le immagini sono scalate all‘ampiezza dello schermo. Il testo è sempre visibile ed il contenuto è compattato senza spazi bianchi. Le limitazioni della soluzione narrow sono: contenuto che deve rimanere largo come cartine e tabelle diventa impossibile da leggere; è difficile capire dove si trova il contenuto che l‘utente cerca perché il risultato della trasformazione è imprevedibile; certe volte non si capisce che una selezione ha cambiato la pagina perché le pagine condividono la stessa parte iniziale; la trasformazione ha effetti imprevedibili sugli script nella pagina originale. Inoltre, questo tipo di soluzione richiede molto scrolling verticale da parte dell‘utente per vedere il contenuto. Figura 15. La soluzione narrow per Dispositivi Mobili Un browser Nokia mira a superare queste limitazioni (Roto et al., 2006). Esso ha l‘obiettivo di fare calzare la maggior parte del contenuto allo schermo, eliminare il bisogno di scrolling orizzontale Interfacce Utenti Multi-Dispositivi 247 per leggere il testo, e fornire abbastanza informazione di contesto per dare un‘idea della struttura della pagina e comunicare la locazione corrente nella pagina. Fare tutto questo senza distruggere l‘originale layout della pagina e senza introdurre interazioni modali. La soluzione si chiama MiniMap ed è ottenuta tramite modifiche alla formattazione delle CSS ed al processo di visualizzazione del browser. Gli elementi non testuali diventano più piccoli e l‘ampiezza del testo non deve oltrepassare quella dello schermo. E‘ una soluzione simile a quelle dell‘ information visualization tramite una tecnica di overview + detail. Una soluzione tipo fisheye è stata stimata in questo caso eccessiva in tempo di elaborazione per dispositivi mobili. La Figura 16 mostra l‘accesso al sito del quotidiano La Repubblica, sulla sinistra si vede una porzione della pagina corrente, con un apposito tasto è possibile attivare la vista sulla destra che mostra tramite un rettangolo rosso come la porzione corrente è posizionata nella pagina complessiva. Figura 16. Navigazione con il browser Nokia. Una soluzione di adattamento tramite server proxy è stata proposta anche dal motore di ricerca Google per presentare i risultati delle 248 Fabio Paternò interrogazioni e navigare in essi(Kamvar, 2006). A seconda dello user agent nella richiesta http si veniva ridiretti o a www.google.com/xhtml o a www.google.com/pda. XHTML search è usato per cellulari convenzionali con tastiere a 12 tasti. XHTML PDA veniva usato per dispositivi che hanno tastiere QWERTY o input con penne. Rispetto a quest‘ultima, la versione XHTML ha le seguenti caratteristiche: ha radio button invece di tab per accedere le varie sezioni non ci sono pubblicità i pezzi di testo per ogni link sono più piccoli i risultati non contengono link cached o a pagine simili e non indicano l‘ampiezza della pagina l‘utente può accedere solo alla pagina precedente o successiva di risultati. La Figura 17 mostra un esempio dove sulla sinistra c‘è il risultato per una interrogazione sul desktop mentre a destra c‘è sia la parte di interrogazione che di risultato per la stessa richiesta. Figura 17. Differenze di risultati di google a seconda del dispositivo Interfacce Utenti Multi-Dispositivi 249 La figura successiva mostra poi come si naviga nel risultato da una parte sul desktop, e dall‘altra tramite dispositivo mobile, e quindi si può notare come anche il contenuto selezionato tramite il risultato dell‘interrogazione viene adattato. Figura 18. Differenze di navigazione tramite google a seconda del dispositivo Un altro strumento che supporta adattamento desktop-mobile è Skweezer11. La politica di adattamento di default supporta scrolling piuttosto che splitting. Mira a ridurre l‘ampiezza delle pagine. Esso include nelle pagine trasformate un CCS fisso orientato per i dispositivi mobili (per esempio: ridefinizione delle fontsize per H1, H2, H3 etc.) Una tecnica che supporta adattamento sfruttando le descrizioni logiche introdotte precedentemente è Semantic Transformer (Paternò, 2008). Questa tecnica mira a preservare la semantica dell‘interfaccia utente quando si adatta da un dispositivo desktop ad uno mobile e dall‘altra cerca di adattarlo alle diverse risorse di interazione. L‘adattamento avviene spezzando una pagina desktop in più pagine se non è sostenibile per le capacità del dispositivo mobi11 http://www.skweezer.net/ 250 Fabio Paternò le corrente e cambiando gli elementi di interazione se ve ne sono che hanno gli stessi effetti ma richiedendo meno spazi (ad esempio una scelta tra varie opzioni che nel desktop è supportato da un radio-button può diventare supportata da un pull-down menu che occupa meno spazio). L‘algoritmo che determina la divisione di una pagina in pagine multiple analizza la descrizione logica di una pagina e valuta quanto spazio necessita per esser presentata effettivamente, se questo spazio non è sostenibile per lo schermo del dispositivo corrente allora si attiva la procedura di divisione. L‘algoritmo va a cercare i gruppi di elementi composti tramite un operatore nella specifica logica, e che quindi sono correlati logicamente e devono restare conseguentemente nella stessa pagina mobile. In particolare va a cercare la composizione che richiede maggior spazio, la toglie dalla pagina originaria e la associa ad una nuova pagina per la versione mobile. Quindi crea i link per poter accedere a questa nuova pagina per la versione mobile e per andare da questa alle altre pagine. Il procedimento continua ricorsivamente a spezzare la pagina desktop in altre pagine mobili fino a che la pagina originaria non è sostenibile per il dispositivo mobile. 7. Interfacce Utenti nell’Ubiquitous Computing L‘ubiquitous computing è caratterizzato da molte persone e molti dispositivi comunicanti dinamicamente. Diventa quindi importante trovare soluzioni per fornire supporto continuo all‘utente mobile. Le possibilità di accesso remoto furono introdotte dal X Window System che consente di cambiare dinamicamente lo schermo in cui appare un‘interfaccia utente. Nell‘ambito di ambienti multidispositivi un importante contributo fu dato da Rekimoto con la tecnica Pick-and-Drop (Rekimoto, 1997; Rekimoto, 1998). L‘idea era dare la possibilità di scambiare facilmente dati tra dispositivi diversi (vedi figura 19) tramite semplici gesti: una selezione dell‘elemento nel dispositivo sorgente che poi veniva rilasciato selezionando un punto nel dispositivo target. Interfacce Utenti Multi-Dispositivi 251 Figura 19. Interfaccia Utente di Pick-and-Drop Un altro contributo interessante è PUC (Nichols, 2002): esso genera dinamicamente interfacce utenti capaci di controllare dispositivi domestici a partire dalla loro descrizione logica. Un livello aggiuntivo (UNIFORM) (Nichols, 2006) fu aggiunto per generare interfacce utenti consistenti con le precedenti esperienze dell‘utente. Gli autori di PUC presentarono uno studio (Nichols, 2007) che indicava che PUC è in grado di generare interfacce utenti superiori a quelle disponibili ad approssimativamente lo stesso costo. Tuttavia PUC non fornisce la possibilità di supportare lo svolgimento continuo di task muovendosi attraverso diversi dispositivi. In generale, l‘accesso flessibile in ambienti Multi-Dispositivi può avvenire in varie modalità: muovere oggetti attraverso diversi dispositivi di interazione con pick-and-drop interfacce utenti distribuite: la logica applicativa riceve input da diversi dispositivi interfacce utenti migratorie: consentono il cambio di dispositivo, con migrazione dell‘interfaccia con mantenimento del suo stato. 252 Fabio Paternò La motivazione per questo tipo di accesso parte dalla constatazione che la nostra vita sta diventando un esperienza multi-dispositivi, nel senso che le persone sono sempre più circondate da vari dispositivi di interazione. Vi è quindi un bisogno di facilitare l‘accesso continuo ai servizi interattivi attraverso diversi dispositivi. Una delle maggiori fonti di frustrazione è che dobbiamo ricominciare la sessione ad ogni cambio di dispositivo. Le interfacce migratorie possono trasferirsi attraverso diversi dispositivi (da dispositivi sorgenti a target) in modo da consentire all‘utente di continuare le attività che stanno svolgendo. Domini applicativi che possono beneficiare da questo tipo di interfacce sono shopping, aste on line, giochi, prenotazioni, … I primi di studi in questa direzione furono di Bharat e Cardelli (Bharat & Cardelli, 1995) che prevedevano la migrazione di intere applicazioni, cosa problematica per dispositive con capacità limitata. Kozuch e Satyanarayanan (Kozuch & Satyanarayanan, 2002) proposero una soluzione per la migrazione basata sull‘incapsulamento di tutto lo stato di esecuzione di una macchina virtuale (migrazione di un‘applicazione tra desktop e laptop). Chung e Dewan (Chung & Dewan, 1996) invece hanno proposto che quando la migrazione è attivata l‘ambiente inizia una nuova copia dell‘applicazione nel sistema target e le applica la sequenza degli input di utente salvata. Non c‘è supporto per l‘adattamento in questa soluzione. La migrazione può essere totale o parziale. Nel primo caso tutta la interfaccia migra da un dispositivo ad un altro mentre nel secondo solo una parte. Un esempio di migrazione parziale è nella Figura 20 in cui dopo la migrazione i controlli restano nel dispositivo mobile mentre il contenuto si sposta nel dispositivo a schermo largo. La migrazione può essere attivata dall‘utente o dal sistema (ad esempio perché ha rilevato che la batteria del dispositivo mobile si sta esaurendo). La scelta del dispositivo al quale migrare può essere fatta analogamente dall‘utente o dal sistema. Interfacce Utenti Multi-Dispositivi 253 Figura 20. Esempio di interfaccia utente migratoria parziale Per quanto riguarda l‘usabilità, nelle interfacce migratorie sono importanti la continuità e la facilità con cui l‘utente continua il proprio task attraverso diversi dispositivi. Fattori che possono influenzare sono il tempo, in particolare il tempo richiesto dalla migrazione per attivare la nuova versione dell‘interfaccia nel dispositivo target, ed il processo di adattamento, ovvero l‘adattamento dell‘interfaccia utente al nuovo dispositivo deve consente all‘utente di capire facilmente come continuare il task corrente. É quindi importante anche la prevedibilità del risultato della migrazione per l‘utente finale, ovvero consentire all‘utente di capire facilmente come continuare i suoi compiti, predire quale è il dispositivo a cui migrare, quale parte dell‘interfaccia migra, su quale dispositivo verrà presentato il risultato di un‘interazione dopo la migrazione. Conclusioni La nostra vita quotidiana è caratterizzata dalla disponibilità di vari tipi di dispositivi di interazione con capacità diverse. Questo pone la necessità di cambiare il modo in cui le interfacce utenti vengono specificate, progettate e supportate durante le sessioni interattive. 254 Fabio Paternò Questo capitolo fornisce una descrizione e discussione delle problematiche relative e delle tendenze correnti. Il forte impulso tecnologico e di mercato, in particolare nell‘area dei dispostivi mobili, pone continuamente problematiche e possibilità nuove che stimolano la necessità di nuove soluzioni. Nel capitolo abbiamo visto come l‘utilizzo di linguaggi logici, basati su XML, fornisce uno strumento utile per gestire questa complessità, ed ambienti innovativi, come quelli in grado di supportare interfacce utenti migratorie. Bibliografia Abrams, M., Phanouriou, C., Batongbacal, A., Williams, S., Shuster, J. UIML: An Appliance-Independent XML User Interface Lan-guage, Proceedings of the 8th WWW conference, 1999. Available at http://www.harmonia.com/resources/papers/www8_0599/index.htm Bharat K. A. and Cardelli L.[1995]. Migratory Applications. In proceedings of User Inteface Soft-ware and Technology (UIST ‗95). Pitts-burgh PA USA. November 15-17. pp. 133-142. Baudisch, P., Lee, B., Hanna L. [2004] Fishnet, a fisheye Web browser with search term popouts: a comparative evaluation with overview and linear view. AVI 2004: pp. 133--140. Chung G., Dewan P. [1996]. A mechanism for Supporting Client Migration in a Shared Window System, Proceedings UIST‘96, pp.11-20, ACM Press. Foley, J., Sukaviriya, N., [1994]. History, results, and bibliography of the user interface design environment (UIDE), an early model-based system for user interface design and development, in: Paterno, F. (Ed.), Interactive Systems: Design, Specification, Verification. Springer, Berlin, pp. 3–14. Kamvar M., Baluja S.. A Large Scale Study of Wireless Search Behavior: Google Mobile Search. Proceedings CHI 2006, ACM Press. Kozuch M., Satyanarayanan M., Internet Suspend/Resume, Proceedings of the Fourth IEEE Workshop on Mobile Computing Sys-tems and Applications (WMCSA‘02) IEEE Press, 2002. Lam H., Baudisch P. [2005] Summary thumbnails: readable overviews for small screen web browsers. Proceedings CHI 2005, Portland, pp. 681-690, ACM Press. Limbourg, Q., Vanderdonckt, J., UsiXML: A User Interface Description Language Supporting Multiple Levels of Independence, in Matera, M., Comai, S. (Eds.), Engineering Advanced Web Applications, Rinton Press, Paramus, 2004. Lin J., Landay J.,: [2008] Employing patterns and layers for early-stage design and prototyping of cross-device user interfaces. Proceedings CHI 2008: 1313-1322. Interfacce Utenti Multi-Dispositivi 255 Mori, G., Paterno`, F., Santoro, C., [2002]. CTTE: support for developing and analysing task models for interactive system design. IEEE Transactions in Software Engineering 28 (8), 797–813. IEEE Press. Mori, G., Paterno`, F., Santoro, C., [2004]. Design and development of multidevice user interfaces through multiple logical descriptions. IEEE Transactions on Software Engineering 30 (8), 507–520. MacKay, B., Watters, C. R. Duffy, J. [2004] Web Page Transformation When Switching Devices. In Proceedings of Sixth International Conference on Human Computer Interaction with Mobile Devices and Services (Mobile HCI‘04) (Glasgow, September 2004), LNCS 3160. Springer-Verlag, 228-239. Milic-Frayling N., Sommerer R.. [2002] Smartview: Enhanced document viewer for mobile devices. Technical Report, Microsoft Research, Cambridge, UK, November 2002. Nichols, J. Myers B. A., Higgins M., Hughes J., Harris T. K., Rosenfeld R., Pignol M.. Generating remote control interfaces for complex appliances. Proceedings ACM UIST‘02. October 27 – 30. Paris, France. Vol.4, pp.161-170. Nichols, J., Myers, B.A., and Rothrock, B. UNIFORM: Automatically Generating Consistent Remote Control User Interfaces, in CHI'2006, pp.611-620, ACM Press.. Nichols, J., Chau D., Myers, B.A., Demonstrating the Viability of Automatically Generated User Interfaces, in CHI‘2007, ACM Press. Paternò, F. [1999]. Model-Based Design and Evaluation of Interactive Applications. Springer, Berlin. ISBN 1-85233-155-0. Paternò F. [2004]. Interazione Uomo-Computer: Un Introduzione, Mondo Digitale, N.4, Dicembre 2004. Paternò, F. [2005]. Interacting with Computers 17 291–315 315 Paternò, F., Santoro, C., Scorcia, A. [2008] Automatically Adapting Web Sites for Mobile Access through Logical Descriptions and Dynamic Analysis of Interaction Resources. AVI 2008, Naples, May 2008,ACM Press, pp. 260-267 Puerta, A.R., Eisenstein, J., [1999]. Towards a General Computational Framework for Model-Based Interface Development Systems, IUI99: International Conference on Intelligent User Interfaces. ACM Press, New York, pp. 171– 178. Puerta A., Eisenstein J., "XIML: A Common Representation for Interaction Data", Proceedings IUI2002: Sixth International Confer-ence on Intelligent User Interfaces, ACM, Gennaio 2002. Available at http://www.ximl.org/documents/ XIMLBasicPaperES.pdf Rekimoto J.. "A Multiple Device Approach for Supporting Whiteboard-based Interactions", CHI'98, 1998. Rekimoto J., "Pick-and-Drop: A Direct Manipulation Technique for Multiple Computer Environments", Proceedings of UIST'97, pp. 31-39, 1997. 256 Fabio Paternò Roto, V., Popescu, A., Koivisto, A., Vartiainen E.: [2006] Minimap: a Web page visualization method for mobile phones. CHI 2006: 35-44. Roto V., [2006] doctoral dissertation in Helsinki University of Technology (TKK), Department of Computer Science and Engineering, in 2006, Web Browsing on Mobile Phones – Characteristics of User Experience. Spence R., [2007] Information Visualization (2nd Edition), Prentice-Hall (Pearson), 2007, ISBN: 0132065509. Szekely, P., Luo, P., Neches, R., [1993]. Beyond Interface Builders: Model-based Interface Tools, Proceedings INTERCHI‘93. ACM Press. W3C, [2008] Mobile Web http://www.w3.org/TR/mobile-bp/ Best Practices 1.0 Wilson, S., Johnson, P., Kelly, C., Cunningham, J., Markopoulos, P., [1993]. Beyond Hacking: a Model-based Approach to User Interface Design, Proceedings HCI‘93. Cambridge University Press, Cambridge, pp. 40–48. XForms, [2004]. The Next http://www.w3.org/MarkUp/Forms/. Generation of Web Forms, Interfacce Utenti Multi-Dispositivi 257 Fabio Paternò, è Dirigente di Ricerca e responsabile del Laboratorio su Interfacce Utenti dell‘ISTI-CNR. È stato uno dei pionieri del settore HumanComputer Interaction in Italia nel settore informatico. È stato anche eletto dalla comunità nazionale italiana operante nel settore interazione uomo-macchina Presidente dell'associazione ACM SIGCHI Italy per quattro anni (2000-2004), oltre ad essere designato come rappresentante dell‘Italia nel Technical Committee dell'IFIP N.13 (Interazione Uomo-Macchina) dal 1996. Fa parte del gruppo del W3C su Ubiquitous Web Applications e, sempre in ambito W3C, è uno dei fondatori del gruppo su Model-based User Interface Design. Ha pubblicato oltre centosettanta articoli in riviste, libri e conferenze internazionali con processo di revisione con esperti internazionali (una lista è disponibile a http://giove.isti.cnr.it/~fabio/biblio.html). Ha partecipato ai comitati di programma delle principali conferenze al mondo del settore principale di appartenenza, l‘interazione uomo-macchina. Ad esempio è stato paper chair della conferenza ACM CHI 2000, la più grande, importante, e selettiva conferenza al mondo del settore Human-Computer Interaction, e conference co-chair di IFIP INTERACT 2005 (che è considerata la seconda al mondo per importanza e qualità nel settore) che si è tenuta a Roma. A questo va aggiunta la responsabilità di importanti progetti internazionali: è stato coordinatore globale di sei progetti Europei (MEFISTO, EUD-Net, GUITARE, CAMELEON ed attualmente OPEN), in questi progetti ha coordinato l‘attività scientifica di squadre di ricercatori e sviluppatori provenienti da accademia e industria di diverse nazionalità.. Ha tenuto corsi in varie università in Italia ed all‘estero e per varie conferenze ed aziende. Attualmente insegna Progettazione di Interfacce all‘Università di Pisa. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Mobile Computing Stefano Sanna – beeweeb technologies (Roma) [email protected] Abstract. Il Mobile Computing è uno degli ambiti applicativi più interessanti della computer science. Telefoni cellulari, computer palmari, navigatori satellitari, sistemi automotive racchiudono un concentrato di tecnologia di alto livello: hardware efficiente, sistemi operativi sofisticati, interfacce utente rivoluzionarie, moduli di comunicazione integrati. Il numero sorprendente di esemplari venduti e la varietà di utenti coinvolti rendono questo settore particolarmente interessante per le sfide che introduce nell'interazione uomo-macchina. La progettazione di interfacce utente dei dispositivi mobili affronta numerose specificità non presenti nell'ambito PC. L'interazione con il dispositivo deve essere semplice ed immediata, basata su linguaggi e comportamenti universali. Vi sono poi i vincoli di dimensioni, di mobilità, di utilizzo in condizioni non ottimali. Le moderne interfacce utente hanno bassa profondità di navigazione e interazione single-hand single-finger, con un numero ridotto di passi per raggiungere la funzionalità desiderata. Le interfacce tradizionali basate su display, tastiera, controller rotativi e schermi tattili sono oggi affiancate da sensori installati sul dispositivo, che arricchiscono l'interazione con l'utente. Accelerometri, lettori RFID/NFC, GPS e sensori ambientali consentono di automatizzare operazioni tediose e facilitare l'accesso a periferiche e servizi. Infine, la disponibilità di molteplici interfacce di comunicazione e di sensori a bordo ampliano i contesti di utilizzo dei terminali mobili, che diventano interfacce universali per l'accesso ai servizi interattivi di un ambiente e al tempo stesso sistemi portatili di acquisizione di dati. Keywords: Mobile Computing, device sensor, UI navigation. Introduzione al Mobile Computing Il Mobile Computing è il dominio applicativo dei dispositivi mobili personali quali telefoni cellulari, smartphone, palmari (PDA), 260 Stefano Sanna Internet tablet, terminali industriali. Più precisamente, nell'industria del software il Mobile Computing si realizza nella progettazione e nello sviluppo di applicazioni per oggetti personali programmabili e connessi di supporto alla mobilità delle persone. Entro certi limiti, dunque, anche i navigatori satellitari portatili e veicolari, le console di gioco portatili e altri oggetti possono essere compresi in questo dominio (purché siano in grado di accedere alla Rete e caricare software custom). Non ne fanno parte i computer portatili, meglio classificabili all'interno del nomadic computing, che per essere utilizzati necessitano di una posizione di lavoro assimilabile ad una scrivania e, viceversa, sono del tutto inadatti all'uso quotidiano per strada, in fila ad un supermercato, durante una passeggiata al parco. Questo capitolo, dunque, tratta del dominio applicativo costituito da software per telefoni cellulari e smartphone ad uso personale, accesso alla rete Internet, capacità di interfacciamento e comunicazione a dispositivi locali. Si tratta di oggetti, dunque realtà tangibili, le cui dimensioni, ergonomia e autonomia di utilizzo hanno impatto diretto sulla userexperience e possono condizionare fortemente il successo o la totale disaffezione dell'utente rispetto ad essi. È importante sottolineare il carattere personale di questi oggetti. Rispetto, infatti, al computer desktop, che in taluni casi può essere condiviso tra colleghi di lavoro o all'interno della famiglia (anche se magari ciascuno dispone del proprio computer), il telefono cellulare costituisce un canale di comunicazione riservato e, per così dire, intimo tra il suo proprietario e i contatti. L'interazione tra il dispositivo e il suo utilizzatore non è saltuaria, ma costituita da una continuità di piccole interazioni rapide (una chiamata, un SMS, la verifica di un appuntamento in agenda), che durano tutta la giornata. La possibilità di essere sempre raggiunti, in qualsiasi momento e in qualsiasi luogo, rappresenta l'elemento di continuità rispetto alla Rete e le funzioni di connettività (possibilmente su reti di tipo diverso) sono funzionali e indispensabili per poter parlare di Mobile Computing. I computer palmari privi di connettività non sono interessanti in tal senso e il loro utilizzo, già estremamente ridotto negli ultimi anni, diventerà nullo in breve tempo. La possibilità di programmare i terminali mobili, ovvero di potervi installare applicazioni dedicate a compiti specializzati, rientra nel carattere personale Mobile Computing 261 sopra esposto: il dispositivo è personale per possesso, per capacità di comunicazione e per ambito operativo, poiché svolge le funzioni che l'utente ha deciso di attribuirgli. Infine, si tratta di strumenti di supporto, cioè svolgono una funzione di utilità che li rende sempre più compagni imprescindibili nel lavoro ed in tutte le attività quotidiane degli individui. Non, dunque, mero accessorio di intrattenimento. Nessun altro prodotto elettronico ed informatico ha raggiunto questo grado di pervasività nella vita delle persone ed è per questo che le problematiche di interazione uomo-macchina hanno una importanza strategica. Figura1. Il trend di mercato dei telefoni cellulari Quello dei terminali mobili è un mercato immenso: le ultime statistiche pubblicate da Gartner Group (vedi Figura 1) indicano una crescita costante degli esemplari venduti ogni anno, che hanno superato la soglia del miliardo di pezzi nel 2007 (nello stesso anno sono stati venduti meno di 400 milioni di personal computer). Considerare, dunque, il software per cellulari come un ―settore di nicchia‖ è quanto mai errato. Inoltre, la ―vita media‖ di un terminale 262 Stefano Sanna cellulare, ovvero l'intervallo di tempo superato il quale l'utente sostituisce l'esemplare in suo possesso con uno nuovo, è di circa 23 mesi, dunque anche la velocità di rinnovamento dei modelli in circolazione è estremamente rapida. Questo rinnovamento avviene in tre direzioni: funzionalità, prestazioni e integrazione con i servizi Internet. L‘uso massivo e sistematico della Rete e dei terminali mobili di nuova generazione costituisce la base per la realizzazione di scenari applicativi alwayson e pervasivi: Internet sempre accessibile, da postazione fissa e da terminale mobile; informazioni in tempo reale, eventualmente georeferenziate; possibilità di comunicare con diversi mezzi: SMS, email, voce, instant messaging, video conferenza; controllo e automazione di procedure senza necessità di presenza: acquisti, prenotazioni, verifica intrusioni. Il potenziale in termini di servizi e di utenti attivi è enorme, ma appare ancora inespresso. Gli utenti adoperano il telefono cellulare, oltre che per effettuare telefonate, per inviare e riceve SMS ed MMS, scattare fotografie, giocare. Gli utenti più smaliziati installano applicativi per utilizzare il terminale come navigatore satellitare, mentre altri acquistano piani tariffari flat per l'accesso alla Rete, potendo quindi leggere la posta elettronica e navigare sul web con il browser fornito con il sistema operativo. Più recentemente i servizi di Mobile TV e di telefonia VoIP hanno incoraggiato l'acquisto di terminali con prestazioni multimediali avanzate e connessione a larda banda HSDPA, ma si tratta comunque di una frazione dei possessori dei terminali mobili. Il Mobile Computing appare dunque come un iceberg, in cui solo una piccola parte emersa è oggi sfruttata, mentre tutto il sommerso è ancora da esplorare e promuovere presso gli utenti (Figura 2). L'uso dei sensori installati a bordo dei dispositivi, della capacità di riconoscimento dei tag visuali con la fotocamera, di accesso ai servizi di ticketing e object tagging con RFID e NFC, di controllo di dispositivi ambientali periferici è tuttora estremamente limitato e circoscritto a pochi progetti pilota, ma nessuna di queste tecnologie appare, per esempio, tra le offerte di servizi dei maggiori operatori di telefonia mobile. La mancanza di queste offerte, infatti, è il riscontro oggettivo della scarsa consapevolezza che gli utenti hanno Mobile Computing 263 delle potenzialità dei propri terminali: l'operatore non promuove ciò che l'utente non percepisce come valore. Figura 2. Il potenziale inespresso del mobile computing Effettivamente, la mancata percezione del potenziale dei dispositivi mobili ha delle cause tecnologiche e operative evidenti: l'uso dei servizi e delle applicazioni è piuttosto complesso, i costi di connettività non sono chiari ed è difficile orientarsi tra tariffe a tempo e a traffico, specie per chi non ha dimestichezza con l'uso del PC. Manca inoltre quella interoperabilità che invece è abbastanza consolidata tra i computer desktop: gli accessori e le applicazioni progettati per un modello sono spesso incompatibili con altri modelli, anche della stessa marca e della stessa fascia di prezzo. Inoltre, le problematiche di porting tra diverse piattaforme, evidenziate nel paragrafo seguente, rendono onerosa (per tempi e costi) la realizzazione di applicazioni di qualità: le software house sono costrette a scegliere tra massimo sfruttamento del dispositivo, ma limitata possibilità di porting, o massima portabilità a costo di qualche sacrificio in termi- 264 Stefano Sanna ni di usabilità e sfruttamento delle funzionalità di ciascun modello. La conseguenza è che quel passaparola virtuoso che ha portato alla formidabile diffusione del personal computer e alla sensibilità nel cercare il software migliore per svolgere un certo compito manca quasi totalmente in ambito Mobile Computing. Superata una fase pionieristica, però, il Mobile Computing sta raggiungendo una maturità in termini di hardware, software, servizi e soprattutto di utenza, che presenta nuove esigenze e necessita di strumenti opportuni per soddisfarle. In questo senso, accanto ad aspetti puramente tecnologici, la HCI sui terminali mobili è fondamentale affinché questi strumenti possano diventare di reale supporto alla mobilità di tutti gli individui. 1. Sistemi Operativi e Ambienti Applicativi Lo studio dell'interazione con il dispositivo mobile non può prescindere da una ricognizione di quanto attualmente presente o annunciato sul mercato. Non trattandosi più di un settore di nicchia o di una tecnologia pionieristica, può infatti essere fuorviante riferirsi a modelli totalmente teorici o prototipi che non abbiano un riscontro concreto in terminali commerciali. Allo stesso tempo, però, il presente non deve diventare un ostacolo nella progettazione del futuro e, dunque, impedire che i modelli attuali vengano messi in discussione, rielaborati o sostituiti da concetti totalmente nuovi. In questa sezione, dunque, si offre una panoramica delle piattaforme software e dei modelli hardware attualmente disponibili e dei gradi di libertà che consentono allo sviluppo nell'implementazione di applicazioni complesse ed eventualmente nella riscrittura di porzioni di interfaccia utente delle funzionalità native del terminale. Prima di tutto occorre tenere presenti alcune specificità non formalmente dichiarate dai produttori dei terminali ma ormai assodate quali caratterizzanti tutti gli ambienti operativi: 1. salvo casi particolari, ogni ambiente dispone di un unico ambiente di programmazione nativo che permette il massimo grado di integrazione tra l'applicazione custom e il sistema operativo Mobile Computing 265 2. talvolta l'ambiente nativo è accessibile solo al produttore del dispositivo e alle terze parti coinvolte nello sviluppo del terminale; le software house e gli sviluppatori indipendenti possono utilizzare solo ambienti cosiddetti managed (Java, .NET...) con evidenti limitazioni in termini di accesso alle funzionalità native (ad esempio, i framework di comunicazione o di lettura del filesystem) 3. numero e tipo di ambienti operativi di un terminale sono statici e raramente sono disponibili runtime alternativi; quando possibile, l'installazione del runtime opzionale sottrae preziose risorse alle applicazioni e solitamente richiede una procedura piuttosto complessa 4. la retrocompatibilità tra nuove e vecchie versioni di sistemi operativi e piattaforme è spesso assente: le applicazioni esistenti, per poter essere eseguite sui nuovi terminali, devono essere adattate se non totalmente riscritte (si pensi, ad esempio, alla totale incompatibilità tra le diverse edizioni del sistema operativo Symbian). Quanto appena elencato evidenzia che l'attività di porting da un dispositivo ad un altro può richiedere la riscrittura totale del codice, specie se si vogliono sfruttare appieno le funzionalità del dispositivo. Rispetto al mondo desktop, consolidato su tre sistemi operativi (Windows, Mac OS X, Linux), e da un vasto insieme di framework cross-platform, in ambito mobile vi è una elevata frammentazione di sistemi operativi e piattaforme applicative. Accanto a sistemi operativi open, vi sono numerosi sistemi proprietari; accanto ad alcuni runtime multipiattaforma, ve ne sono altrettanti legati ad una sola piattaforma. Esistono attualmente quattro sistemi operativi con Application Programming Interface (API) aperte: 1. Symbian OS, declinato sui frontend Series 60 e UIQ, tra loro incompatibili, sopportato principalmente da Nokia 2. Windows Mobile, sviluppato da Microsoft e utilizzato da produttori hardware indipendenti 3. iPhone OS, realizzato ed utilizzato da Apple per iPhone e iPod Touch 266 4. Stefano Sanna Linux, supportato da diversi consorzi di produttori. In realtà, il mondo Linux è abbastanza variegato e specializzato in diverse piattaforme tra loro incompatibili, tra cui Android (Open Mobile Alliance), MOTOMAGX (Motorola), OpenMoko, ALP (Access), LiMo ed altri. Vi sono poi i sistemi operativi proprietari NokiaOS, MotorolaOS ed altri, usati dai rispettivi produttori per i terminali di fascia bassa. Sopra questi sistemi operativi, vi è un ampio insieme di ambienti applicativi: 1. Symbian C++, basato su una API comune del sistema operativo Symbian OS e librerie dei framework grafici e applicativi Series 60 e UIQ 2. Linux C++, basato su kernel e libreria standard di Linux più framework grafici e applicativi specifici di ciascuna implementazione (ad esempio, Qtopia e GTK) 3. .NET Compact Framework, basato sul linguaggio C# e su un sottoinsieme del Compact Framework della piattaforma Windows 4. Java Micro Edition (Java ME), suddivisa in due piattaforme CLDC/MIDP e CDC/PP, destinate rispettivamente ai terminali entry level e a quelli di fascia alta), non è legata ad uno specifico sistema operativo, ma attualmente le migliori Virtual Machine (VM) sono realizzate sulla Series 60 Nokia e sulla Java Plaftorm 8 di Sony-Ericsson (parte dei propri sistemi proprietari) 5. Android, la piattaforma sviluppata da Google basata su kernel Linux e ambiente operativo costituito da un subset di Java Standard Edition ed un insieme di librerie specializzate 6. Cocoa Touch, l'application framework di iPhone OS programmabile in Objective-C 7. Flash Lite, come Java ME non è legata ad un particolare sistema operativo; basata sul linguaggio Actionscript e su una libreria di classi specializzata per i dispositivi mobili Mobile Computing 8. 267 Python, supportato in ambiente Linux, Windows Mobile e Symbian OS, è utilizzato principalmente per la prototipazione rapida di applicazioni. I tre elenchi appena mostrati evidenziano che non esista una piattaforma software o l‘ambiente di programmazione universale: ogni progetto in ambito Mobile Computing implica uno o più compromessi sul tipo di dispositivo, sul sistema operativo, sul linguaggio di programmazione e, dunque, sulla diffusione che un applicativo per un sistema/piattaforma può avere. Numerosi progetti falliscono inesorabilmente perché non tengono conto di questa specificità, assumendo che basti un ―po‘ di abilità‖ a superare le limitazioni imposte dal sistema operativo o dall‘ambiente di programmazione. I requisiti di progetto ed eventuali vincoli sull‘hardware determinano la piattaforma da usarsi e i compromessi a cui occorre sottostare. Pertanto, nell'esplorare i canoni della HCI su dispositivi mobili descritti nella prossima sezione sarà opportuno ricordare che alcune soluzioni non sono realizzabili su alcune piattaforme e che, viceversa, la scelta di una piattaforma di riferimento può vincolare le possibili scelte implementative disponibili. 2. HCI su Dispositivi Mobili La Human-Computer Interaction sui dispositivi mobili investe numerosi ambiti, sia prettamente tecnologici che legati all'ambito applicativo e all'esperienza dell'utente (Figura 3). Un primo aspetto riguarda l'interfaccia di interazione e la combinazione dell'hardware (display, tastiera, elementi tattili, sensori) e software (componenti grafici, interpretazione dei gesti, gestione dei flussi informativi asincroni). Hardware e software, a loro volta, presentano specializzazioni e declinazioni più o meno sofisticate. Ergonomia, robustezza, autonomia di utilizzo e qualità di visualizzazione determinano la progettazione dei componenti fisici e la loro corretta integrazione. La mobilità implica la capacità di interagire a distanza e, dunque, la possibilità di comunicare su rete geografica attraverso trasporto wireless, di tipo telefonico, WLAN o su reti ad hoc. A sua volta, la disponibilità di risorse di connettività introduce le problematiche di continuità tra i servizi normalmente accessibili 268 Stefano Sanna su desktop e i frontend su terminali mobili. Ecco, dunque, che le problematiche di multimodalità e multicanalità si intersecano con quelle di adattamento dei contenuti, nel rispetto dei canoni di usabilità e accessibilità. Temi, questi ultimi, che richiamano quelli di ergonomia appena accennati. Figura 3. Le variabili che determinano l‘interazione su dispositivi mobili Salendo a livello applicativo, il passaggio da sistemi stazionari a dispositivi mobili pone in evidenza esigenze completamente originali e non riscontrabili nei primi. Ad esempio, durata della batteria e possibilità di utilizzo in condizioni di luminosità sfavorevoli sono problematiche specifiche del dominio del Mobile Computing. Tra le applicazioni più importanti di ausilio alla mobilità degli utenti vi sono quelle di assistenza alla guida e, più in generale, vi sono i servizi georeferenziati (Location-based Services), basati su apposite estensioni hardware e software che consentano la localizzazione automatica del terminale (attraverso GPS o triangolazione sulle celle della rete telefonica). Per il mercato consumer ricoprono grande Mobile Computing 269 importanza le applicazioni multimediali, essenzialmente legate alla riproduzione di contenuti audio e video residenti sul terminale o accessibili in streaming attraverso reti 3G e superiori. La capacità di memorizzare grandi quantità di dati e sincronizzare la base multimediale dell'utente con repository remoti costituisce un punto chiave per la condivisione dei contenuti esistenti e l'attivazione di canali distributivi di nuovi. In questo ambito particolare, la facilità di utilizzo e la qualità dell'interfaccia grafica svolgono un ruolo fondamentale. Meno legato all'aspetto prettamente estetico e di intrattenimento, ma non meno articolato in termini di funzionalità, è il settore delle Enterprise Application, in cui il terminale mobile costituisce appendice e, in senso lato, ―realtà aumentata‖ nella capacità di fruire in maniera ubiqua di risorse e servizi localizzati presso l'azienda. L'accezione di ubiquità portata all'estremo conduce all'Ubiquitous Computing (o Pervasive Computing), in cui il terminale mobile, non più legato solamente all'utente, interagisce con il computer invisibile che abilita l'ambiente circostante dandogli la capacità di percepire e attuare. La trattazione completa di tutti questi ambiti (hardware, software, interfacce grafiche, usabilità, accessibilità, ergonomia, networking, multimodalità e multicanalità, mobilità, contesti applicativi, navigation, entertainment, enterprise mobility e pervasive computing) richiederebbe più di un testo e, probabilmente, svierebbe l'attenzione da alcuni aspetti pratici che, come si vedrà nel seguito, costituiscono le sfide più attuali della Human-Computer Interaction in ambito mobile. Nel seguito di questo capitolo l'attenzione è focalizzata su tre ambiti particolari: interfaccia grafica, hardware e controller (con dettagli sull'uso di sensori di bordo) e pervasive computing. User interface I canoni tradizionali, ―classici‖, di definizione delle caratteristiche dei dispositivi mobili vedono solitamente una mesta enumerazione delle inevitabili limitazioni hardware che tali oggetti possiedono. Display dalle dimensioni ridotte (QCIF, QVGA nei casi migliori) su diagonale inferiore ai 2‖, modesta potenza di elaborazione e ri- 270 Stefano Sanna dotta quantità di memoria, input attraverso digitazione particolarmente difficoltoso, ampiezza di banda ridotta e connettività discontinua, autonomia limitata, capacità multimediali limitate sono l'epitaffio del Mobile Computing così come è stato concepito finora, ovvero com'era tecnologicamente possibile realizzarlo. Il perfezionamento dei componenti e il progressivo abbassamento dei prezzi ha portato ad un ridimensionamento (verso l'alto!) di tali canoni. I display arrivano a risoluzioni 320x480 e 800x480, su superfici superiori ai 3‖. Il taglio minimo della frequenza di clock della CPU va oltre la soglia dei 400MHz, mentre la memoria flash a bordo può arrivare a 16GB su alcuni modelli. I sistemi di input sono stati notevolmente perfezionati: tastiere, elementi grafici sul display, riconoscimento della scrittura e sistemi di predizione del testo rendono la digitazione molto più agevole che in passato. Componenti a basso consumo energetico e batterie di maggiore capacità hanno aumentato notevolmente l'autonomia di utilizzo, ormai misurata in ―giorni‖ anziché in ―ore‖. Le funzionalità multimediali consentono la memorizzazione di archivi musicali considerevoli e la riproduzione audio di qualità. Anche la fruizione di contenuti video, grazie al supporto a protocolli di streaming, è di buona qualità e sono sempre più frequenti i servizi di live TV e video-on-demand. Vi è però una anomalia temporale. Malgrado le attuali prestazioni dei dispositivi rappresentino, per così dire, un apparente segno di maturità della tecnologia, in realtà hardware e software sono nettamente sfasati cronologicamente. Mentre la diffusione e la progressiva innovazione dei servizi Internet nel mercato consumer è avvenuta quando il mercato PC era ormai consolidato sulle interfacce a finestre (principalmente sul sistema operativo Microsoft Windows), la diffusione dei terminali mobili, telefoni cellulari in primis, avviene mentre i paradigmi di interazione sono ancora in via di sperimentazione e ricerca. È sufficiente utilizzare le funzioni principali dei modelli di fascia intermedia di diversi produttori per trovare interfacce utente completamente diverse e l'uso di approcci spesso in contraddizione tra loro (ad esempio, nell'uso dei servizi di messaggistica o della rubrica). Gli utenti, dunque, subiscono questa anomalia, potendo disporre di oggetti estremamente sofisticati ma sostanzialmente ―isolati‖ in termini di usabilità e sopratutto compatibilità con modelli di marche diverse. Mobile Computing 271 In realtà, non potrebbe essere altrimenti. Mentre, infatti, i PC sono ancora un prodotto per una clientela specializzata (o che, comunque, deve in qualche modo specializzarsi per poterli utilizzare), i telefoni cellulari sono destinati ad un mercato molto più ampio, ad ogni individuo, senza distinzione di età, professione, estrazione sociale. Nel momento in cui un prodotto di massa (il telefono) diventa personalizzato (forme e funzionalità) e personalizzabile (applicazioni e temi) diventa difficile quel processo di standardizzazione e omologazione che invece si ritrova nel mondo PC. È sufficiente osservare il divario tra i terminali austeri dello standard iDen venduti negli Stati Uniti (e apprezzati per le caratteristiche miste di telefono cellulare e walkie talkie) e quelli con grafica manga aderenti allo standard iMode venduti in Giappone: impensabile scambiare questi prodotti tra i due mercati, gli utenti hanno aspettative ed esperienze di utilizzo talmente diverse che il tentativo di scambio sarebbe un fallimento. Appare dunque estremamente difficile pensare un layout fisico e una esperienza di utilizzo comune, ―globale‖, per uno strumento così intimo qual è un telefono cellulare, sia esso di fascia bassa che di elevata sofisticazione. Attualmente, i dispositivi proposti sul mercato presentano tre tipi di form factor fisico e UI layout, che saranno descritti nel seguito. L'estrema varietà di utenza possibile e le combinazioni di layout fisici e UI rappresentano una sfida per l'industria del software per dispositivi mobili. Come si vedrà a breve, ciascun layout ha precise implicazioni sulla user experience e l'intersezione tra requisiti applicativi, destinatari e vincoli dei terminali commerciali può talvolta non essere possibile. I terminali telefonici sono realizzati in tre possibili forme: brick, flip e slide. Nella forma brick (―monoblocco‖, ―a mattoncino‖, altrimenti detto ―candy bar‖, data la somiglianza con una barretta di cioccolato, vedi Figura 4), il terminale non ha parti in movimento ed è costituito da un unico blocco che contiene il display e l'eventuale tastiera. Un terminale di questo tipo ha tutti gli elementi funzionali immediatamente accessibili; opzionalmente, alcuni pulsanti dedicati posti lateralmente attivano funzioni accessorie (accensione/spegnimento, regolazione del livello del volume, fotocamera). 272 Stefano Sanna Figura 4. Telefoni cellulari con chassis di tipo ―brick‖ Questa forma comporta importanti conseguenze per le applicazioni. In primo luogo, l'applicazione (o meglio, il designer che ha ne ha progettato l'interfaccia grafica) sa di poter sempre disporre di tutti i componenti per l'interazione: tutti i pulsanti del dispositivo sono presenti in qualunque momento e non è richiesta alcuna operazione da parte dell'utente per potervi accedere in caso di necessità (ad esempio, inserire dei dati in una finestra di dialogo). Poiché il display è sempre visibile, una applicazione in background può attirare immediatamente l'attenzione dell'utente ponendosi in primo piano (eventualmente facendo lampeggiare la luce di retroilluminazione del display). È evidente, però, che la privacy dell'utente può essere facilmente compromessa: ogni messaggio inviato dall'applicazione sul display del terminale, magari nel momento in cui questo è rivolto verso l'alto su un tavolo di riunione, può essere facilmente letto anche da persone diverse dal proprietario del terminale. Una seconda forma, particolarmente apprezzata per le dimensioni compatte risultanti in condizioni di riposo, è quella denominata flip (―a cerniera‖, altrimenti detta ―fold‖, ―a portafogli‖, oppure ―clamshell‖, ―a cozza‖, vedi figura 5), in cui il display e la tastiera Mobile Computing 273 sono incernierati l'uno sull'altro, permettendo la chiusura del terminale prima di essere riposto in una tasca. I terminali a flip sono generalmente dotati di tastiera e, quando aperti, sono funzionalmente identici ai brick con medesima componentistica. L'utente deve ―aprire‖ il terminale per poterlo utilizzare. Per ovviare a questo svantaggio, già da tempo i terminali di questo tipo sono dotati di un secondo display posto esternamente ed in grado di visualizzare le informazioni essenziali sullo stato operativo (numero/nome del chiamante, eventuali messaggi non letti, data e ora, funzionamento del lettore di file audio). Figura 5. Telefoni cellulari formato ―flip‖ Quando chiuso, la forma a guscio garantisce una maggiore protezione a display e tastiera rispetto alla forma brick. Le implicazioni per il software applicativo alternano aspetti positivi e negativi. La privacy è certamente garantita rispetto alla forma flip: in condizione di riposo (chiuso) il display principale è inaccessibile e non leggibile da occhi indiscreti. D'altro canto, però, l'applicazione perde qual- 274 Stefano Sanna siasi possibilità di attirare l'attenzione dell'utente ponendosi in primo piano sul display. L'unica soluzione è un segnale con vibrazione; in tal caso, però, l'utente è costretto ad aprire il terminale, anche solo per dare un colpo d'occhio allo stato dell'applicazione. Figura 6. Terminali in formato ―slide‖ La terza forma è denominata slide (―a scorrimento‖) ed è caratterizzata da due strati sovrapposti che scorrono uno sull'altro nel senso della lunghezza (telefoni cellulari) o della larghezza (smartphone e PDA phone). Lo strato superiore, sempre visibile, contiene il display e qualche pulsante per le funzioni principali (gestione chiamate, softbutton e joypad); lo strato inferiore rivela all'occorrenza un tastierino numerico o una tastiera QWERTY completa (vedi Figura 6). Il ―feeling‖ per l'utente è pressoché identico alla forma brick, per le operazioni più frequenti non è necessario estrarre la tastiera. Le considerazioni di privacy sono le medesime a quelle espresse per la prima forma, mentre sul fronte dell'interazione hardware e software occorre qualche accortezza. Le applicazioni, infatti, potrebbero non sapere lo stato della tastiera (estratta o ritratta) e pertanto dovrebbero richiederne l'utilizzo solo a seguito di una operazione esplicitamente compiuta dall'utente. Oltre alle tre forme appena descritte, vi sono quattro possibili layout di display e tastiera sulle superfici del terminale. Portait con Mobile Computing 275 tastierino numerico, landscape con tastiera QWERTY, touch con pennino (ed eventuale tastiera) e touch gestuale sull'intera superficie sono i principali layout oggi utilizzati. Figura 7. Differenti layout di display e tastiera Il layout portrait (Figura 7A) prevede il display in posizione verticale e alla base un tastierino numerico arricchito da un joypad e altri tasti accessori. Questo layout è utilizzato su tutte le forme viste in precedenza (brick, fold, slider). Di recente, su terminali con questo layout sono state proposte applicazioni da utilizzarsi in modalità landscape, ovvero con il display in posizione orizzontale (Figura 7B). La rotazione di 90° però pone un evidente problema di usabilità: le serigrafie sulla tastiera, infatti, risultano di difficile lettura poiché orientate verticalmente rispetto al punto di vista dell'utente e la disposizione dei tasti, anch'essa ruotata rispetto alla norma, rende più complessa la digitazione sfruttando sistemi di input di testo rapido come il T9. 276 Stefano Sanna L'utente, infatti, abituato a trovare lettere e simboli sulla matrice 3x3 del tastierino numerico, deve inevitabilmente prestare maggiore attenzione durante la digitazione, poiché ciascun tasto (escluso il 5!) si troverà in posizione diversa da quella attesa. Così, ad esempio, la tripla ABC anziché trovarsi in posizione centrale della prima riga si trova in prima posizione della prima riga, la tripla DEF non è alla fine della prima riga ma all'inizio della stessa e così via. Tutti i processi automatici di digitazione, basati sull'esperienza d'uso quotidiano, sono inevitabilmente compromessi. I softbutton risultano posizionati lateralmente anziché alla base del display e devono essere accompagnati da etichette disegnate verticalmente, rendendo l‘interfaccia ―anomala‖. Il layout landscape (Figura 7C) prevede il display in posizione orizzontale e alla base una tastiera QWERTY completa, più il solito joypad e gli altri pulsanti accessori. I dispositivi con form factor brick non prevedono la rotazione in portrait; i terminali slide, invece, possono avere layout portrait quando la tastiera è chiusa e layout landscape quando la tastiera è aperta, se quest'ultima corre orizzontalmente anziché verticalmente. I vincoli dei layout portrait e landscape vengono meno se il display è di tipo touch-screen, che è possibile considerare quasi come un layout a sé stante (Figura 7D). Il display occupa l'intera superficie del dispositivo e l'interazione avviene attraverso un pennino. L'interfaccia grafica riproduce pulsanti e tastiera (eventualmente non presenti fisicamente sul dispositivo) e può essere adattata dinamicamente a seconda dell'orientazione del dispositivo. In caso di presenza di una tastiera estraibile, il cambio di orientazione portraitlandscape dipende dal suo stato. L'evoluzione del layout touch-screen è quello gesture-based (Figura 7E), in cui non esiste alcun componente fisico di input se non il display, la cui interfaccia grafica riproduce, quando necessario, i componenti assenti (pulsanti e tastiera), ma offre all'utente un'interazione basata sui tratti (gesti) eseguiti con le dita sulla superficie tattile. Mancano i concetti di menù contestuale: la contestualità è data dall'azione, dal gesto compiuto sull'oggetto mostrato sul display (un contatto, un messaggio, un'immagine). Tap (tocco), double-tap, drag (trascinamento), double-drag (trascinamento a due dita), consentono rispettivamente selezione, ingrandimento, scorri- Mobile Computing 277 mento e rotazione che, di volta in volta, sono interpretati dal sistema operativo e tradotti in azioni sulle applicazioni. Attualmente, l'unico ambiente totalmente gesture-based è iPhone OS, mentre esistono frontend simili per Windows Mobile (limitati, però, solo ad alcune funzionalità). Forme e layout determinano le modalità di interazione tra utente e applicazione; applicazioni progettate per un certo layout (ad esempio, landscape anziché portrait) possono diventare inutilizzabili su uno diverso. Forme, layout, sistema operativi e ambienti applicativi non sono combinabili in maniera indipendente ma la scelta di uno di essi vincola inevitabilmente gli altri. Il vincolo è puramente commerciale, ovvero legato a ciò che effettivamente è disponibile sul mercato. Pertanto, se in ambito PC è scontato trovare su qualunque postazione (e qualunque sistema operativo) schermo, tastiera e mouse con tastiere assolutamente standardizzate, la raccolta dei requisiti e la progettazione di una applicazione per dispositivi mobili non può prescindere dalla selezione del tipo di terminale a cui è destinata. O, alternativamente, scelto un modello come target, alcuni tipi di applicazioni potranno essere inevitabilmente escluse dalla fattibilità. Lo stesso dicasi della scelta di un particolare sistema operativo o un ambiente applicativo. Navigazione e animazioni Di tutti gli aspetti che riguardano la modellazione delle interfacce grafiche dei dispositivi mobili, l'organizzazione della navigazione tra le viste e le animazioni sono tra i più importanti. Entrambe sono state finora sottovalutate e solo di recente hanno ricevuto maggiore attenzione da parte dei designer di user interface. In particolare, le animazioni, considerate in passato ―graziosi abbellimenti‖ della UI, oggi svolgono un ruolo fondamentale nel fornire feedback delle azioni compiute dall'utente. Strutturare correttamente la navigazione è fondamentale per superare una delle limitazioni intrinseche delle interfacce dei dispositivi mobili: ogni vista è full screen e non esistono floating windows, l‘applicazione in primo piano nasconde qualsiasi altra applicazione in esecuzione. Inoltre, i comandi principali si limitano al joypad più i softbutton o agli elementi grafici 278 Stefano Sanna (touch-screen), raramente sono presenti shortcut. Mancano, dunque, i componenti di contorno delle interfacce desktop, in grado di visualizzare la dipendenza delle diverse finestre (attraverso la sovrapposizione vincolata di dialog modali) o la notifica di operazione in background attraverso barre opportunamente collocate lungo i bordi dello schermo. La quasi totalità delle interfacce grafiche si basa sul paradigma di selezione di un elemento da una lista, che provoca il cambio di vista (dettaglio sull'elemento) ed un comando ―indietro‖ che riporta alla vista precedente. Quando più selezioni avvengono in successione accade che il sistema passi il controllo tra diverse applicazioni (ad esempio, il dettaglio su una data all'interno di una applicazione può portare all'apertura dell'utility Calendario per visualizzare l'elenco degli appuntamenti presi per tale data) e il comando che ripercorre all'indietro la navigazione sia costituito dal binomio ―esci/indietro‖ senza che però l'utente sia pienamente consapevole della differenza delle due azioni. In altre parole, mentre il passaggio da una vista all'altra su applicazioni diverse è un dettaglio implementativo e tecnico, per l'utente si tratta sempre di una navigazione avanti e indietro che prescinde dalla suddivisione in applicazioni. Figura 8. Navigazione tra viste e applicazioni Ecco, dunque, che la discesa di quattro livelli può vedere l'alternanza ―esci‖ e ―indietro‖ senza che le due azioni abbiano effetti sostanzialmente differenti (vedi Figura 8). Su interfacce grafiche dotate di navigazione ―a tab‖, ovvero con etichette che raggruppano funzio- Mobile Computing 279 nalità o sottoinsiemi di dati, come le cartelle dove sono memorizzati i messaggi, il comando ―indietro‖ diventa fuorviante: l'utente non sa se ―tornare al passo precedente‖ corrisponda alla visualizzazione del gruppo precedentemente selezionato oppure se si abbandona la vista corrente per passare al menù principale. Figura 9. Interfaccia utente con barra di navigazione Una possibile soluzione a questo problema è la visualizzazione nella parte alta del display di una barra di navigazione, simile a quella utilizzata sui filesystem browser più recenti implementati su Windows Vista, Mac OS X e Gnome. Ad ogni passo della navigazione, la vista corrente mostra il percorso che conduce dal menù principale ad essa (ad esempio, MENU-SETUP-TELEFONOGENERALE). In questo modo l'utente può verificare immediatamente a quale contesto si riferisce la vista attuale e dove conduce l'azione ―indietro‖ (l'immagine in Figura 9 è un concept grafico basato sulla Nokia Series 60 3rd Edition). L'interfaccia grafica fornita da Cocoa Touch in ambiente iPhone OS va in questa direzione e consente all'utente di orientarsi facilmente nella navigazione delle viste. Anziché indicare un generico ―indietro‖ sulla UI, ogni vista mostra una freccia verso sinistra, la cui etichetta è il nome della vista che precede. L'elemento grafico (la freccia verso sinistra) indica la semantica dell'azione (tornare alla vista precedente) mentre il testo ne contestualizza l'esito (specifica qual è effettivamente la vista risultante). 280 Stefano Sanna Figura 10. Supporto alla navigazione in iPhone OS Quattro viste in sequenza sono concatenate l'una con l'altra grazie all'etichetta di testo del titolo e del pulsante di ritorno alla vista precedente (vedi Figura 10). La direzione della freccia è correlata alle animazioni che notificano la transizione da una vista all'altra: la discesa in profondità nell'albero delle viste provoca uno scorrimento verso destra (la vista corrente slitta verso sinistra, dunque l'utente ha percezione di spostare il proprio punto di osservazione verso destra), mentre la risalita verso le viste precedenti avviene verso sinistra, che è appunto il senso indicato dalla freccia. È evidente l'analogia con la lettura di un libro, che avviene sfogliando le pagine ruotandole da destra a sinistra. Le animazioni diventano parte integrante dell'esperienza interattiva sul dispositivo, non semplice abbellimento dell'interfaccia grafica. Le transizioni orizzontali (right-to-left e left-to-right) evidenziano la navigazione tra le finestre, mentre quelle verticali notificano la presenza di finestre modali che richiedono un'azione dell'utente prima di poter procedere con il funzionamento normale dell'applicazione. Ulteriori animazioni notificano altri cambi di contesto: un effetto di fade-out segnala il passaggio ad una vista scorrelata da quella corrente, mentre una rotazione sull'asse verticale indica la Mobile Computing 281 visualizzazione di funzionalità accessorie (generalmente le impostazioni o informazioni dettagliate) sulla vista corrente. Figura 11. Un effetto di rimbalzo indica l‘impossibilità di effettuare uno scorrimento Le animazioni possono svolgere un ruolo importante per dare riscontro delle azioni dell'utente sulla vista corrente (ovvero, non correlate ad una transizione). Cocoa Touch, ad esempio, utilizza un effetto rimbalzo per indicare all'utente che lo scorrimento in una direzione non è possibile. Anziché, dunque, inibire ogni movimento a fine corsa, la vista ―rimbalza‖, come se fosse tenuta da un elastico, segnalando all'utente che l'input (il trascinamento) è stato ricevuto ma non ha avuto effetto sulla visualizzazione (vedi Figura 11). L'obiettivo è dare sempre e comunque un riscontro all'utente, anche se negativo. Attraverso l'uso sapiente della correlazione tra le viste durante la navigazione e le animazioni, la qualità della userexperience migliora notevolmente. 282 Stefano Sanna 3. Mobile Sensor: l'Evoluzione della Mobile HCI Quanto descritto finora rappresenta la modalità di interazione consolidata, comune a PC e dispositivi mobili, basata su tastiere e display opportunamente disposti nelle forme degli chassis e nei layout dei componenti. Si è anche visto che le dimensioni dei display non consentono (o meglio, non incoraggiano) l'uso di interfacce multifinestra, mentre è preferibile arricchire la presentazione con elementi che consentano all'utente di orientarsi nella navigazione tra le viste dell'applicazione. Si tratta comunque di una rivisitazione di canoni tradizionali (tastiere e display) mediati dal mondo desktop a quello mobile. Quest'ultimo, però, ha contesti di utilizzo imprevedibili, legati alla molteplicità di situazioni e luoghi in cui può trovarsi l'utente. Non solo casa o ufficio, e non solo in condizione più o meno stazionaria (si veda nell'introduzione la differenza tra mobile computing e nomadic computing), ma in situazione di totale mobilità e libertà di azione: per strada, in auto, al gate di imbarco di un volo, durante un concerto, in un meeting di lavoro, in barca o durante una escursione. In queste condizioni, l'interazione non si limita all'accesso esplicito al dispositivo attraverso la sua UI, ma è legata al movimento, alla posizione, all'ambiente, al dispositivo stesso, che possono essere considerate sorgenti di input automatiche. Il dispositivo (device), l'utente (user) e l'ambiente (ambient) sono tre contesti di esecuzione che possono essere esplorati attraverso opportuni sensori. Le grandezze fisiche rilevate attraverso questi ultimi costituiscono un flusso continuo di dati di input con cui una applicazione può attivare in autonomia una o più funzioni: 1. nel device context i sensori forniscono informazioni sullo stato del dispositivo, come il livello di carica della batteria e del segnale ricevuto o l'inclinazione nello spazio (attraverso un giroscopio o più accelerometri) 2. nello user context i sensori forniscono informazioni sullo stato dell'utente (considerato solidale con il dispositivo): posizione, altitudine, velocità, nonché dati biologici quali pressione arteriosa, pulsazioni cardiache e tasso alcoolico Mobile Computing 3. 283 nell'ambient context i sensori a bordo del dispositivo rilevano grandezze fisiche relative all'ambiente quali umidità, pressione atmosferica, direzione del campo magnetico terrestre, intensità luminosa o sonora, oppure rilevano la presenza di oggetti attraverso l'uso tag e reader RFID. La presenza di sensori embedded arricchisce notevolmente le possibilità di utilizzo del terminale mobile. I dati relativi allo stato del dispositivo, alle attività dell'utente e alle caratteristiche dell'ambiente possono essere utilizzati per contestualizzare la comunicazione con servizi remoti, per rilevare automaticamente condizioni di emergenza, per fornire dati ambientali in maniera capillare e distribuita (si pensi, ad esempio, ad ogni terminale mobile come ad una stazione di rilevamento dell'inquinamento). Tutto questo avviene senza che l'utente debba inserire manualmente delle informazioni ed è proprio questo ―arricchimento automatico‖ che rende questa evoluzione dei terminali mobili particolarmente interessante. L'industria rende disponibile una grande quantità di sensori miniaturizzati (dunque adatti ad essere integrati all'interno dei dispositivi mobili) in grado di rilevare numerose grandezze fisiche. Attualmente, i sensori più diffusi rilevano luminosità e prossimità di oggetti, la posizione geografica attraverso la rete dei satelliti GPS, accelerazione e rotazione attraverso accelerometri, giroscopi e bussole digitali. Sensori più sofisticati permettono la rilevazione esatta di oggetti dotati di NFC o decodificare datamatrix attraverso la fotocamera. Accanto alle funzionalità fornite dall'hardware, i sistemi operativi e gli ambienti di programmazione si sono arricchiti di librerie e moduli software per l'interfacciamento ai sensori, fornendo procedure automatiche di inizializzazione e conversione dei dati rilevati. Il sensore di luminosità non interviene direttamente nel comportamento dell‘applicazione ma migliora la qualità della user experience sul dispositivo. In caso di illuminazione ambientale intensa, infatti, aumenta la luminosità del display (affinché sia ben visibile) e spegne la retroilluminazione della tastiera (per risparmiare batteria). Viceversa, in caso di utilizzo al buio, esso diminuisce la luminosità del display (affinché non dia fastidio alle pupille dilatate) e accende la retroilluminazione della tastiera (che altrimenti sarebbe 284 Stefano Sanna invisibile). Applicazioni intelligenti potrebbero utilizzare questo sensore per adattare il proprio comportamento, ad esempio, disattivando gli effetti sonori se il dispositivo è al buio. Il sensore di prossimità permette di rilevare la presenza di un corpo (una mano, il viso) nelle immediate vicinanze del dispositivo. Il Nokia 7650 è stato il primo telefono cellulare a disporre di questo tipo di sensore e ad utilizzarlo per passare automaticamente dalla modalità vivavoce a quella normale quando si porta il telefono all‘orecchio. L‘iPhone utilizza il sensore di prossimità per spegnere il display durante la telefonata e risparmiare carica della batteria. Il ricevitore GPS (brevemente ―il GPS) consente alle applicazioni di determinare automaticamente posizione e velocità del dispositivo. Inizialmente era disponibile come espansione CompactFlash/PCMCIA o modulo Bluetooth esterno per palmari e cellulari di fascia alta. Il crollo dei prezzi dei chip GPS ne ha consentito l'integrazione in dispositivi consumer, e tale componente è sempre più presente nei nuovi modelli di telefoni cellulari, anche di prezzo non elevato. Numerosi modelli di recente produzione includono un ricevitore A-GPS (Assisted GPS), che utilizza un assistance server remoto per i calcoli più onerosi. L‘A-GPS è più rapido all‘avvio, consente di risparmiare CPU e batteria, ma necessita di una connessione wireless attiva. La presenza di un GPS integrato consente la realizzazione di interessanti scenari applicativi. In primo luogo, vi sono i Location-based Service (LBS), attraverso i quali le informazioni richieste o inviate ai servizi remoti e gestiti dall‘applicazione sono elaborate in base ai dati di localizzazione (vedi Figura 12). L'utente, dunque, non deve inserire manualmente la propria posizione o proporre delle chiavi di ricerca contestuali con il luogo in cui si trova. Oltre a questa attività di automatizzazione, il GPS consente di determinare la direzione del moto dell'utente e, dunque, attivare meccanismi di pre-caricamento dei dati in funzione delle destinazione impostata (o presunta). Nel settore del mobile gaming, la localizzazione dei giocatori consente di verificare la loro presenza in un luogo specifico e, in questo senso, i georeferenced-games offrono una esperienza di gioco combinata reale-virtuale. Le prime applicazioni basate su GPS si interfacciavano direttamente allo stream seriale NMEA proveniente dal GPS e dovevano provvedere alla decodifica dei dati. I moderni sistemi operativi ed ambienti di Mobile Computing 285 programmazione offrono API di alto livello per la lettura di posizione, altitudine, velocità e direzione goniometrica. I framework più evoluti come la Location API di Java ME offrono la possibilità di registrare una applicazione al sistema di localizzazione, affinché venga automaticamente segnalato l‘ingresso in una zona di interesse. Figura 12. Location-based service su iPhone Sempre più diffuso nei terminali di nuova generazione, l'accelerometro permette di misurare le accelerazioni a cui è soggetto il dispositivo (compresa, ovviamente, l‘accelerazione di gravità). Sono disponibili modelli a 2 e 3 assi, con range ±1g, ±2g, ±6g. Introdotto dalla console Nintendo Wii e dalla prima generazione di iPhone, l‘accelerometro è utilizzato per rilevare sia i movimenti corrispondenti ad accelerazioni repentine del dispositivo sia l'inclinazione rispetto alla direzione della forza peso. Nei giochi, i movimenti degli oggetti sul video sono scatenati da movimenti fisici nello spazio; nei multimedia player, invece, l'accelerometro è utilizzato come shaker control, per cambiare il brano in riproduzione o per mixare in tempo reale e casuale diversi campioni audio. Infine, l'accelerometro agisce come interface controller, permettendo la commutazione automatica in modalità landscape quando si ruota il dispositi- 286 Stefano Sanna vo rispetto al piano di terra. I sistemi di sviluppo e gli ambienti di programmazione stanno rapidamente integrando librerie per la lettura dei dati dell‘accelerometro. Apposite estensioni sono già disponibili su Symbian OS in C++ e Python, mentre per la piattaforma Java ME la Mobile Sensor API (JSR 256) implementata sulla JP-8 di alcuni device Sony-Ericsson consente di accedere all'accelerometro ed ad altri eventuali sensori installati sul dispositivo. Su iPhone OS, le applicazioni possono accedere direttamente ai valori di accelerazione rilevati dall‘accelerometro o lasciare che il sistema operativo ruoti i componenti dell‘interfaccia grafica (notificando comunque la rotazione). La presenza dell'accelerometro consente la sperimentazione di nuove modalità di interazione con il dispositivo mobile. In particolare, il suo utilizzo come inclinometro, in grado cioè di rilevare la posizione rispetto alla direzione della forza peso, permette di inferire l'attività corrente dell'utente e, dunque, attivare opportune funzioni. È l'idea di base del prototipo Graviter (presentato a Frontiers of Interaction IV1), utilizzato per inviare automaticamente su Twitter lo stato dell'utente. Osservando il comportamento degli utenti si è visto che durante una comune giornata di lavoro, il telefono cellulare è solitamente collocato sulla scrivania o accanto al piano di lavoro con il display rivolto verso l'alto; questo consente all'utente, in caso di necessità (ad esempio, una chiamata in arrivo) di dare un‘occhiata al terminale per vederne lo stato. Viceversa, se disturbati durante una riunione, l'atteggiamento comune è quello di rovesciare il terminale con il display verso il piano del tavolo, affinché il lampeggìo del display stesso non distragga gli altri partecipanti e soprattutto i presenti non possano leggere il nome del chiamante mostrato dal terminale (si veda la sezione precedente dedicata alle forme dei terminali e alle conseguenze che queste hanno sulla privacy dell'utente). Mentre si cammina, il cellulare è solitamente posto in posizione verticale, nella tasca di una camicia o dei pantaloni, con il display rivolto verso l'alto affinché sia possibile darci un'occhiata senza che sia necessario estrarlo del tutto. Viceversa, se durante il movimento il cellulare non è in tale posizione, è possibile che sia stato messo in tasca distrattamente o con noncuranza. Gravi1 http://frontiers.idearium.org Mobile Computing 287 ter, dunque, rileva ciascuna di queste condizioni attraverso la lettura dell'accelerazione di gravità e indicando lo stato dell'utente su Twitter. Se l'accelerazione di gravità ha componente massima ortogonale al display nel verso entrante, Graviter segnerà lo stato ―available‖, corrispondente all'utente non impegnato, seduto alla propria postazione di lavoro. Se invece tale componente avrà verso opposto, significa che l'utente è impegnato e il dispositivo è stato ruotato con il display verso il basso, condizione notificata con lo stato ―busy‖ su Twitter. Allo stesso modo, la posizione verticale sarà associata alla componente massima del campo parallela all'asse Y del display (―walking‖) e tutte le altre su uno stato ―unknown‖. Graviter ha solo una valenza sperimentale, poiché non è pensabile riassumere gli stati di un individuo a sole quattro possibilità, ma come prototipo evidenzia quali sono gli scenari che possono realizzarsi utilizzando i sensori di bordo e analizzando i comportamenti degli utenti nell'uso dei dispositivi mobili. Meno diffusi degli accelerometri ma attesi nel mercato di consumo nei prossimi anni, i moduli NFC (Near Field Communication) consentono ai terminali mobili e alle applicazioni installate di rilevare la presenza di oggetti dotati di tag RFID in un raggio di alcuni centimetri. NFC è una specifica standard per comunicazioni radio sicure a corto raggio che estende la tecnologia RFID per la lettura e scrittura di tag, il riconoscimento di oggetti, l'autenticazione utente e la mutua autenticazione degli utenti. Il telefono cellulare diventa contemporaneamente lettore e scrittore di tag, tag esso stesso, e motore crittografico. L'utilizzo più semplice è quello del riconoscimento di un oggetto attraverso un identificatore univoco e la possibilità di ottenere informazioni aggiuntive su di esso effettuando una ricerca presso un servizio remoto indicando tale identificativo. Negli scenari più complessi, invece, il terminale mobile diventa esso stesso tag attivo, in grado di essere rilevato da altri terminali o da altri sistemi (ad esempio, un controllo varchi) e scambiare dati cifrati utilizzando la SIM dell'utente per firmare digitalmente le informazioni in transito. Come RFID da cui deriva, NFC si presta a numerose applicazioni, tra cui instant ticketing by touch, controllo accessi, annotazione digitale. La prima piattaforma che supporta nativamente lo standard NFC è Java ME, attraverso la Contactless 288 Stefano Sanna Connection API (JSR 257) disponibile sui terminali commerciali Nokia 6131 NFC e Nokia 6212 Classic NFC. Quando si parla di sensori su dispositivi mobili, si pensa solitamente agli accelerometri e a tutti gli altri componenti che sono stati citati all'inizio di questa sezione. In realtà, uno dei più potenti sensori installati a bordo dei terminali è la fotocamera digitale, in grado di acquisire immagini in alta risoluzione (sino a 8Megapixel) anche in condizioni di luce sfavorevoli. Le fotocamere digitali consentono l'acquisizione di tag visuali (DataMatrix, Semacode, QRCode), più economici dei tag RFID (anche se rispetto a questi ultimi sono utilizzabili evidentemente solo in lettura!) e stampabili immediatamente su qualsiasi supporto cartaceo. Figura 13. Esempi di Visual Tag I visual tag consentono la creazione di link web su oggetti fisici, come un articolo di un giornale, un manifesto pubblicitario o indumenti, permettendo l'attivazione automatica di applicazioni o di pagine web correlate all'oggetto (vedi Figura 13). 4. Ambient Interaction e Capillary Computing Il Mobile Computing sta conoscendo una crescita rapidissima in termini di prestazioni, varietà di servizi offerti, complessità dei dispositivi e numero di utenti. È possibile considerarlo come una dilatazione del mondo PC nella direzione della mobilità, a supporto di ogni individuo. Il Mobile Computing non è un punto di arrivo, ma Mobile Computing 289 un settore di transizione verso una adozione massiva e pervasiva di sistemi di calcolo elementare e acquisizione dati distribuiti. Figura 14. Oltre il pervasive computing La miniaturizzazione dei componenti a semiconduttore e la rapida diminuzione dei costi di produzione ha portato alla progettazione e realizzazione di microcalcolatori in grado di accedere comunicare su rete IP, eseguire software personalizzato ed essere collocati in vending machine, POS, sistemi di intrattenimento, stampanti, antifurto. Laddove c'era un sistema elettronico preprogrammato, si è sostituita la logica automatica con una applicazione interattiva, in grado di connettersi alla rete ed adattare il funzionamento dell'oggetto in base a informazioni provenienti da remoto o alla ―storia‖ di utilizzo. La penetrazione del computer e della Rete come parti integranti dell'ambiente ha portato alle definizioni ―Pervasive Computing‖, ―Ubiquitous Computing‖ e alla più recente ―Internet of Things‖, nella quale gli oggetti fisici partecipano la Rete come risorse attive. Sono evoluzioni estremamente interessanti, che rafforzano tecnologie diffuse in ambito client/server portandole sui si- 290 Stefano Sanna stemi embedded. Si tratta comunque di apparati in grado di utilizzare nativamente uno o più protocolli standard di Internet, come HTTP (con web service SOAP o REST), XMPP, SMTP e altri, o in grado di accedere ad una macchina gateway dedicata in grado di comunicare con tali protocolli. Per quanto la potenza dei sistemi embedded sia in continua crescita, è evidente che per supportare appieno tali protocolli e garantire buone prestazioni e sicurezza è necessario disporre di calcolatori piuttosto evoluti. Vi è però una classe di sistemi ulteriormente miniaturizzati e con bassissimo consumo energetico i quali, benché non in grado di accedere ai servizi di Internet, possono svolgere localmente funzionalità di raccolta dati, elaborazione, avvio di attuatori (motori, luci, automatismi) e comunicazione con esemplari omologhi attraverso sistemi di networking specializzati. Non una ―Internet of Things‖ ma una ―Internet of Sensor Networks‖, dove ciascuna rete vive di vita propria, utilizzando tecnologie specializzate e protocolli ad hoc. Si prospetta un nuovo modello di networking, di acquisizione dati e attivazione di output fisici che è possibile definire ―Capillary Computing‖ (vedi Figura 14). Questa felice espressione, coniata da Gavino Paddeu dell'Area NDA del CRS4 nell'ambito del progetto DART, rappresenta perfettamente, grazie all'analogia con il sistema cardiocircolatorio umano, lo scenario applicativo che si prospetta per i prossimi anni: alla periferia dei vasi principali(le dorsali della Rete e i collegamenti domestici a larga banda) si sviluppano delle connessioni periferiche estremamente ramificate e localizzate - capillari, appunto - in grado di raggiungere qualsiasi punto dello spazio fisico dove sia necessario leggere dati ambientali o azionare degli attuatori. I nodi periferici della Rete, dunque, non sono più i computer ma oggetti più piccoli e specializzati: telefoni cellulari nel caso più evoluto, ma anche sistemi embedded dotati di interfaccia IP. C'è però un elemento che segna una rottura rispetto ai sistemi tradizionali: l'elemento periferico della Rete Internet (il sistema embedded, ad esempio) diventa gateway verso reti dedicate, ad esempio ZigBee, costituite da decine, centinaia di nodi connessi in maniera eterogenea. L'evoluzione delle wireless sensor network, in termini di affidabilità e economicità, faciliterà la realizzazione di scenari applicativi complessi, in cui porzioni dello spazio fisico saranno controllate da Mobile Computing 291 nodi intelligenti connessi tra loro attraverso reti wireless dotate di un nodo gateway in grado di accedere alla rete Internet senza soluzione di continuità. Piattaforme quali SunSPOT di Sun Microsystems o JCreate di Sentilla, dotati di virtual machine Java, sensori on-board, di uno stack di networking wireless integrato e soprattutto di ingressi ed uscite analogici e digitali per il collegamento di sensori e moduli addizionali, sono esempi concreti di tale evoluzione. Moduli, sensori e reti wireless sono la base del Capillary Computing, sul quale si prospettano scenari applicativi di ambient interaction: domotica, automazione industriale e sicurezza negli spazi chiusi, monitoraggio ambientale, automazione delle aree urbane e sicurezza in spazi aperti. Dati provenienti da reti capillari installate su un'area definita potranno azionare sistemi gestiti da un'altra rete, con una granularità finora riservata solo ad attività umane. I dispositivi mobili svolgono un ruolo fondamentale in questo scenario, nella duplice veste di sistemi di acquisizione dati ubiqui (grazie ai sensori installati a bordo) e di sistemi di controllo locale sulle reti capillari. In altre parole, grazie alla molteplicità di interfacce di comunicazione (reti telefoniche, WLAN, Bluetooth, ZigBee, NFC) si prospetta la possibilità di utilizzare il proprio terminale, di qualunque tipo esso sia, con il sistema di pervasive/capillary computing fornito dall'ambiente (sia esso l'ufficio, una stazione della metro o un'autovettura presa a noleggio), accedere ai suoi servizi e fornirne di nuovi ad esso (ad esempio, indicare al veicolo lo stato di salute di chi guida). La rete capillare amministra il suo dominio (la cucina di una abitazione, l'impianto di irrigazione di un orto botanico) in maniera indipendente, fornendo servizi direttamente sul dispositivo mobile dei frequentatori del dominio stesso. Conclusioni Il Mobile Computing rappresenta una delle più importanti rivoluzioni del mondo ICT dopo l'avvento del personal computer e della Rete. Rispetto alle precedenti rivoluzioni, però, il numero di persone potenzialmente coinvolte è incredibilmente più ampio fin dall'inizio: non più una tecnologia per ―addetti ai lavori‖ che diventa per tutti, ma un prodotto di massa (il telefono cellulare) che si arricchi- 292 Stefano Sanna sce di nuove funzionalità. Da mezzo di comunicazione vocale (più i servizi di messaggistica di base), diventa oggetto personale programmabile e connesso di supporto alla mobilità. E lo è per ogni individuo, a prescindere dalla collocazione geografica, dall'età, dall'estrazione sociale, dalla cultura, dalla lingua. Realizzare strumenti che siano efficaci per funzionalità e per usabilità è una sfida importante che coinvolge interaction designer, sviluppatori, grafici, progettisti hardware. Mentre il mondo PC è maturo e consolidato su paradigmi di interazione collaudati e universali, nel Mobile Computing è ancora marcata una frammentazione negli approcci, sia della progettazione hardware che in quella software. Un elevato numero di sistemi operativi e ambienti applicativi rendono difficoltosa la realizzazione di prodotti in grado di funzionare su un vasto set di dispositivi, con inevitabili conseguenze in termini di costi e compromessi di usabilità riscontrabili da una piattaforma all'altra. D'altro canto, tanta varietà costituisce una importante risorsa per il settore, che raccoglie i frutti della sperimentazione, dell'accettazione e del rifiuto da parte degli utenti delle soluzioni proposte dall'industria. L'interazione uomo-macchina su dispositivo mobile si va però razionalizzando e nel futuro a medio termine si intravedono le interfacce touch/multi-touch su un display che occupa l'intera superficie del terminale quali candidate ideali a sostituire forme e layout attualmente presenti. Parallelamente, nuovi approcci alla navigazione delle viste e l'uso sapiente delle animazioni stanno portando ad una notevole semplificazione delle interfacce utente, a tutto vantaggio dell'usabilità dei dispositivi e delle applicazioni, che si traduce rapidamente in una propensione degli utenti ad utilizzare i terminali per funzionalità avanzate, come accesso a Location-based service, servizi di comunicazione integrata ed interfacce a sistemi di ambient intelligence. I sensori rappresentano la nuova frontiera dell'interazione: accelerometri, GPS, lettori RFID arricchiscono le occasioni e le modalità di utilizzo del dispositivo mobile, permettendo scenari applicativi quali il gesture control, il riconoscimento automatico di oggetti, la permeabilità tra Rete e mondo reale attraverso i servizi georeferenziati. L'incontro tra Mobile Computing e Pervasive Computing è la rivoluzione successiva, in cui i dispositivi mobili costituiranno le Mobile Computing 293 interfacce universali verso una moltitudine di reti capillari di sensori distribuiti nell'ambiente. Letture Consigliate School of Management [2008] Il Mobile diventa Web. Il Web diventa Mobile, Politecnico di Milano Norman, D. [2005] Il computer invisibile, Apogeo, Milano Sterling, B. [2006] La forma del futuro, Apogeo, Milano Wood, D. [2005] Symbian for Software Leaders: Principles of Successful Smartphone Development Projects, John Wiley & Sons, Chichester Moggridge, B. [2006] Designing Interactions, The MIT Press, Cambridge Sanna, S. [2007] Java Micro Edition, Sviluppare applicazioni network-oriented per telefoni cellulari e PDA, Ulrico Hoepli Editore, Milano Apple [2008] iPhone Human Interface Guidelines (e-book), Apple Inc, Cupertino Saffer, D. [2007] Designing for interaction, New Riders, Berkeley Stefano Sanna è Senior Engineer e Java ME Tech Lead presso beeweeb techologies (Roma), dove si occupa di sviluppo di applicazioni di Mobile TV. In precedenza è stato Expert Software Engineer nell‘area Network Distributed Applications del CRS4, dove ha partecipato a numerosi progetti di ricerca industriale nel campo del mobile computing, sistemi distribuiti e sistemi georeferenziati. È autore del libro ―Java Micro Edition Sviluppare applicazioni network-oriented per telefoni cellulari e PDA‖ (Ed. Hoepli, 2007), di oltre 50 articoli e pubblicazioni tecniche. Ha tenuto numerosi seminari su Java e tecnologie di mobile computing in Italia e all'estero. Scrive regolarmente sul suo blog raggiungibile all'indirizzo http://www.gerdavax.it ed è possibile contattarlo via email all'indirizzo [email protected] e su Skype con l'account ―gerdavax‖. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Interfacce Uomo-Macchina nella Realtà Virtuale José A. Iglesias Guitián – Visual Computing Group, CRS4 [email protected] Marco Agus – Visual Computing Group, CRS4 [email protected] Abstract. Questo capitolo fornisce una descrizione dei principali elementi che influenzano l‘interazione uomo–macchina in riferimento alla realtà virtuale, per come si configurano attualmente, e per come si prevede si svilupperanno in un prossimo futuro. Il capitolo è organizzato nel modo seguente: l‘introduzione presenta il concetto di realtà virtuale soprattutto in relazione alle possibilità offerte per quanto riguarda l‘interazione tra uomo e macchina, ed alle applicazioni di nuova generazione. La sezione successiva descrive i principali requisiti ed i vincoli che un sistema di realtà virtuale deve soddisfare per riuscire a fornire all‘utente un‘impressione convincente e delle esperienze realmente immersive. Viene quindi presentato l‘hardware per il feedback sensoriale principale, descrivendo le principali tecnologie di nuova generazione per la realizzazione di dispositivi in grado di fornire delle sensazioni visive e tattili estremamente realistiche. Infine si descrivono brevemente alcuni esempi di applicazioni di realtà virtuale realizzate dagli autori, nel campo della simulazione chirurgica, dei musei virtuali e dei sistemi di visualizzazione autostereoscopici multiutente, e, da ultimo, si discute brevemente la situazione attuale ed il potenziale futuro della disciplina. Introduzione Realtà virtuale (in inglese virtual reality, abbreviato VR) è il termine utilizzato comunemente per indicare una realtà sintetica simulata attraverso l‘ausilio del computer. A livello teorico, la realtà virtuale dovrebbe essere realizzata attraverso un sistema totalmente immer- 296 José A. Iglesias Guitián, Marco Agus sivo in cui tutti i sensi umani sono coinvolti (più specificamente realtà virtuale immersiva o RVI). Tuttavia, allo stato attuale il termine è applicato solitamente a qualsiasi tipo di simulazione virtuale creata attraverso l‘uso del computer, dai videogiochi che vengono visualizzati su un normale schermo, alle applicazioni che richiedono l‘uso di appositi sensori. Da un punto di vista commerciale si può dire che già a partire dagli anni 80, la VPL Research, fondata da Jaron Lanier, vendeva prodotti e dispositivi specifici per la realtà virtuale. La realtà virtuale, per sua stessa definizione, simula il più realisticamente possibile la realtà effettiva. In pratica però, per problemi tecnologici (tra cui la limitata capacità di calcolo degli attuali sistemi informatici) non è ancora stato raggiunto un livello di realismo così elevato da rendere indistinguibile l‘ambiente simulato da quello reale. La quasi totalità di questi ambienti virtuali rimangono prevalentemente limitati ad esperienze visive e sonore. Dal punto di vista delle applicazioni, gli ambienti virtuali vengono al momento programmati per alcune categorie di utenti, come ad esempio i piloti di aerei che utilizzano questa tecnologia per prepararsi al volo, oppure i chirurghi che fanno pratica su determinate procedure operatorie. Alcuni prevedono che una vera e propria commercializzazione di massa della realtà virtuale immersiva si avrà ottimisticamente nel corso del XXI secolo. Nel corso di questo capitolo vengono descritte le origini del concetto di realtà virtuale, e quali sono i vari problemi affrontati dalla comunità scientifica ed ancora da risolvere soprattutto in relazione agli aspetti legati all‘interazione uomo-computer. Background e motivazione Per quanto riguarda le origini del concetto di realtà virtuale, esse possono essere fatte risalire alla pubblicazione dell‘articolo ―The Ultimate Display‖ (Sutherland, 1965), nel quale Ivan Sutherland (vedi Figura 1) per primo introdusse i concetti chiave di immersione in un mondo simulato, e di scambio sensoriale completo, che rappresentano la base dell‘attuale ricerca nel campo della realtà virtuale. All‘interno dell‘articolo in questione, la sfida di ricerca venne lanciata attraverso la seguente metafora: Interfacce Uomo-Macchina nella Realtà Virtuale 297 Lo schermo è una finestra attraverso la quale si può vedere un mondo virtuale. La sfida è fare in modo che quel mondo appaia reale, si comporti in modo reale, emetta suoni reali, e si senta reale. (Sutherland, 1965). Tale affermazione, che può essere interpretata come una sfida a trovare metodi per simulare la presenza degli utenti che funzionino come metafore di interfaccia verso un mondo sintetico, è diventata punto di riferimento per la ricerca da parte di una comunità crescente di ricercatori e industrie. La motivazione per tale direzione di ricerca è duplice. Da un punto di vista evolutivo, la realtà virtuale è considerata come un modo per superare le limitazioni delle interfacce standard uomo–computer; mentre da un punto di vista rivoluzionario, la tecnologia realtà virtuale apre la porta a nuovi tipi di applicazioni che sfruttano le possibilità offerte dalla simulazione di presenza. Figura 1. Il primo prototipo di setup per realtà virtuale, creato da un team guidato da Ivan Sutherland. Fonte: www.flickr.com con licenza Creative Commons1 1 http://creativecommons.org 298 José A. Iglesias Guitián, Marco Agus Figura 2. Evoluzione delle interfacce. Sinistra: metafora desktop popolare nei PC. Centro: iphone della Apple. Destra: interfaccia Wii della Nintendo. Fonte: www.flickr.com con licenza CC. Nuovi metodi di interazione Nel corso degli ultimi decenni si è assistito ad un‘enorme crescita dell‘utilizzo del computer come strumento d‘ausilio e di supporto per quasi tutte le attività umane. Una delle principali ragioni di tale sviluppo è stata l‘introduzione di interfacce human-friendly che hanno reso i computer facili da usare e da apprendere. Attualmente sempre più device incorporano interfacce piuttosto complesse che abilitano l‘utente ad evidenziare, spostare e modificare i contenuti semplicemente attraverso movimenti delle dita su uno schermo. A titolo di esempio, lo smart phone Apple iPhone2 possiede un‘interfaccia in grado di simulare la fisica di oggetti 3D reali ed il display è inoltre collegato a diversi sensori: un sensore di vicinanza per spegnere il display ed il touch-screen in modo da risparmiare energia e prevenire input involontari, un sensore di luce ambientale per regolare la luminosità del display, ed infine un accelerometro a 3–assi per misurare l‘orientazione del telefono e modificare il contenuto visualizzato in modo appropriato. D‘altra parte, queste nuove interfacce sono delle naturali evoluzioni del paradigma di interfaccia utente che maggiormente ha avuto successo nel corso degli anni: ovvero la metafora desktop ideata da Xerox Parc che è stata poi resa popolare tra gli utenti dei PC dalla Macintosh. In ogni caso, mentre la metafora desktop è sicuramente appropriata per l‘interazione con mondi bidimensionali, inizia a mostrare limitazio2 http://en.wikipedia.org/wiki/Apple_iPhone Interfacce Uomo-Macchina nella Realtà Virtuale 299 ni quando la si utilizza per interagire con mondi tridimensionali. Infatti, i maggiori difetti di questa soluzione sono l‘assenza di correlazione tra manipolazione ed effetto ed allo stesso tempo il grado elevato di separazione cognitiva tra gli utenti ed i modelli con cui stanno interagendo (Conner, et al., 1992; Gobbetti & Balaguer, 1993; Gobbetti & Balaguer, 1995). Allo stato attuale, prodotti come iPhone della Apple o la console Wii della Nintendo hanno reso comune l‘utilizzo di accelerometri e misuratori di orientazione come nuovi dispositivi di input che arricchiscono le possibilità di interazione tra l‘uomo e il computer (Figura 2). Il feedback fornito agli utenti rappresenta però anche un problema: le limitate informazioni sulla struttura del mondo tridimensionale che vengono ricostruite a partire da un‘immagine visiva fissa costringono spesso l‘applicazione ad utilizzare molteplici viste per poter fornire informazioni di profondità aggiuntive. Questo fatto porta gli utenti a combinare viste separate per crearsi un‘immagine mentale di oggetti complessi, ed aggiunge ulteriore complessità a questa spesso molto difficile operazione (Herndon, et al., 1992) in quanto costringe gli utenti a concentrarsi su come ottenere quello che desiderano piuttosto che sull‘operazione stessa. La ricerca sulla realtà virtuale, che parte dal presupposto che gli esseri umani sono ben equipaggiati per interagire col mondo dove vivono, dovrebbe sforzarsi di fare in modo che gli utenti interagiscano con i mondi virtuali allo stesso modo nel quale interagiscono con i mondi reali, in modo da rendere l‘interazione la più naturale possibile e da ridurre i tempi e le fasi di addestramento. Il potenziale dei sistemi di realtà virtuale come metafora intuitiva per l‘interazione uomo–computer è pertanto enorme, dal momento che l‘utente può sfruttare le sue abilità cognitive e sensoriali per interagire con il mondo con una grande varietà di modalità sensoriali. Applicazioni di nuova generazione La realtà virtuale consente agli operatori di compiere operazioni su mondi reali remoti, su mondi sintetici generati al computer, o una combinazione di entrambi. Una definizione di questo tipo rende quasi qualsiasi area di attività umana adatta ad una rappresentazione 300 José A. Iglesias Guitián, Marco Agus mediante realtà virtuale (Gobbetti & Scateni, 1998). Nel seguito, descriviamo brevemente le più diffuse. Prototipazione Virtuale Quando si parla di progetti ingegneristici a larga scala, la fase più importante è quella di design, ed anche la più delicata a causa dei possibili drammatici effetti sui risultati finali. La Prototipazione Virtuale consente ai progettisti di testare e migliorare i propri progetti con la stessa precisione che si potrebbe ottenere utilizzando dei plastici, ma in modo più rapido e con maggiore flessibilità anche per quanto riguarda le collaborazioni in remoto, ed inoltre con una notevole riduzione dei tempi e dei costi (Balaguer & Gennaro, 1996). Figura 3. Visualizzazione del modello CAD del Boeing 777 attraverso tecniche di multi-risoluzione sviluppate dal CRS4. Da questo punto di vista, l‘esplorazione di costruzioni architettoniche ha rappresentato nel corso degli ultimi anni una delle applicazioni di realtà virtuale dal maggior successo. Questo tipo di sistemi consente all‘architetto di prototipare un edificio e di scambiare informazioni ed opinioni con il cliente in modo tale da affinare i dettagli del progetto ed inserire gli elementi desiderati (Brooks , 1986; Airey, et al., 1990). In un tentativo di migliorare i sistemi CAD tradizionali, grossi progetti ingegneristici si sono spesso accompagnati con lo sviluppo di strumenti di prototipazione virtuale (Ellis, 1996). Esempi di questo tipo sono il dimostratore ISS VR utilizzato da Rolls Royce per dimostrare la facilità di assemblaggio e di manu- Interfacce Uomo-Macchina nella Realtà Virtuale 301 tenzione di un motore (Haines & Akenine-Moller, 2002) ed il sistema di visualizzazione ad alte prestazioni della Boeing, utilizzato per il design del modello 777 (McNeely , 1996), si veda in Figura 3 una visualizzazione del modello CAD del Boeing 777 attraverso un dimostratore realizzato al CRS4 (Gobbetti & Marton, 2005). Inoltre, l‘agenzia spaziale francese (CNES) e CISI hanno congiuntamente lanciato il progetto di ricerca PROVIS nel 1995 per sviluppare soluzioni per i progettisti di satelliti per creare, manipolare e studiare i loro modelli utilizzando plastici digitali, mentre il CRS4 ed il CERN hanno congiuntamente sviluppato il sistema i3d per supportare il design del Large Hadron Collider del CERN (Balaguer & Gobbetti, 1995, 1996; Gobbetti & Balaguer, 1995, Gobbetti, et al., 1995). Tutti questi sforzi mostrano l‘interesse nei confronti della prototipazione virtuale interattiva come strumento di testing iniziale dei progetti. Nel corso degli ultimi anni, gli sforzi di ricerca e sviluppo per la costruzione di sistemi di prototipazione virtuale hanno avuto origine dalle esigenze di progetti specifici. Studi in corso al centro Fraunhofer per la ricerca in Computer Graphics hanno come oggetto l‘integrazione di strumenti esistenti per fornire caratteristiche di prototipazione virtuale ai sistemi CAD (Jasnoch, 1996). Figura 4. Stampanti di prototipazione 3D che utilizzano gesso e resina (ZCorporation e Stratasys). 302 José A. Iglesias Guitián, Marco Agus Proprio di recente, compagnie come ZCorporation3 o Dimension4 hanno immesso sul mercato nuove soluzioni rapide per la prototipazione (si veda Figura 4). Per esempio, stampanti 3D a colori ad alta definizione, che creano prototipi fisici tridimensionali attraverso la solidificazione mediante un legante liquido di strati di polvere di gesso depositata. Figura 5. Esempi di modelli stampati con una stampante 3D. Altri dispositivi che vengono comunemente usati per la prototipazione virtuale rapida sono gli scanner real-time, che usano tre camere CCD ad alta velocità ed un‘unità di proiezione laser per triangolare le posizioni degli oggetti a partire da una serie di target posizionati in modo casuale. In Figura 5 vengono mostrati alcuni modelli prototipati attraverso una stampante 3D dopo essere stati scannerizzati con uno scanner laser. Infine, un esempio recente di applicazione della Prototipazione Virtuale è rappresentato dalla progettazione della nuova Nissan Micra CC convertibile. La creazione dell‘automobile ha riguardato la realizzazione di nuovi paraurti anteriori e posteriori e portiere, ed una ri-decorazione delle parti esistenti. Per la creazione delle nuove parti, la compagnia inglese Ogle Models and Prototypes5ha avuto a disposizione i dati completi della superficie ed ha fatto un certo numero di tentativi prima che i dati finali per la lavorazione fossero rilasciati. I risultati furono presentati in tempo utile e secondo la stima iniziale di spesa al Motor Show di Francoforte del 2008. La stessa compagnia ha inoltre in 3 http://www.zcorp.com 4 http://www.dimensionprinting.com 5 http://www.oglemodels.com/. Interfacce Uomo-Macchina nella Realtà Virtuale 303 passato partecipato alla manifattura di canoe in composito ed alla realizzazione dell‘apparecchio aereo TriStar C Mk 2. Simulatori e addestramento Uno degli aspetti principali della realtà virtuale è che l‘utente può sfruttare le abilità cognitive o motorie per interagire con il mondo attraverso una certa varietà di modalità sensoriali e, in molti casi, l‘esperienza ottenuta negli ambienti virtuali può essere direttamente trasferita al mondo reale. Questi aspetti sono stati sfruttati a pieno nella realizzazione di diversi simulatori e sistemi di addestramento. A tal proposito, esistono molte applicazioni di ricerca ed industriali in diversi ambiti come la simulazione di volo, la simulazione di guida (Moroney & Moroney, 1991; Mueller, 1995; Pisanich, 1995) e la simulazione chirurgica (Yagel, et al., 1996; Zajtchuk & Satava, 1997; Agus, et al., 2002, 2006). In questo capitolo verranno descritti con maggior dettaglio gli aspetti riguardanti la simulazione chirurgica, con riferimento ad alcuni sistemi sviluppati dagli autori. Telepresenza e teleoperazione Ambienti ostili (ad esempio impianti nucleari danneggiati o altri pianeti) rendono difficile o impossibile agli esseri umani le operazioni di esplorazione o manutenzione. D‘altra parte, per quel che si può prevedere del futuro, i robot non saranno abbastanza intelligenti ed evoluti da operare in completa autonomia, ma richiederanno l‘intervento dell‘operatore per compiere operazioni in situazioni mutevoli o impreviste. La telepresenza ha lo scopo di simulare la presenza di un operatore in un ambiente remoto per supervisionare il funzionamento di una determinata piattaforma remota e compiere delle operazioni attraverso il controllo di robot remoti. Nelle modalità di controllo di supervisione, un‘interfaccia di realtà virtuale fornisce all‘operatore diversi punti di vista dell‘ambiente di lavoro remoto in un formato multi display che può essere riconfigurato a seconda delle esigenze del momento. L‘operatore può investigare il sito remoto sia attraverso delle tecniche di volo libero che attraverso delle camere montate sul telerobot. Per compiere delle operazioni remote che non possono essere fatte autonomamente dai robot, l‘operatore può ri- 304 José A. Iglesias Guitián, Marco Agus correre al controllo interattivo. In questa modalità di telepresenza, all‘operatore viene dato un sufficiente feedback sensoriale per approssimare la sua presenza effettiva nel sito remoto. Ad esempio il display stereoscopico dell‘operatore è direttamente collegato al sistema della camera 3D del robot ed il suo braccio è reso spazialmente coerente rispetto al braccio del robot. I primi lavori in quest‘area includono l‘applicazione prototipale di telepresenza NASA Ames, dove l‘operatore interagisce con un ambiente dove si svolge un‘operazione telerobotica simulata (Fisher, et al., 1986). Una delle applicazioni maggiormente avanzate di questa tecnologia è la chirurgia remota (Crawford, 1993; MacKenzie & Booth, 1996). Realtà aumentata La nuova frontiera della tecnologia della realtà virtuale è la cosiddetta realtà aumentata. In tale sistema il mondo virtuale è sovraimpresso al mondo reale, con lo scopo di fornire utili informazioni aggiuntive, come per esempio, una guida nella realizzazione di operazioni nel mondo reale. Soltanto di recente le potenzialità dell‘elaborazione video in tempo reale, i sistemi di computer graphics e le nuove tecnologie di display hanno trovato una direzione di convergenza per rendere il display di un‘immagine grafica virtuale registrato il più possibile in modo corretto rispetto ad una vista dell‘ambiente 3D. I ricercatori che lavorano nei sistemi di realtà aumentata, propongono soluzioni in molti domini applicativi, compreso l‘addestramento militare (Urban, 1996), i sistemi medici (State, et al., 1996; Rosen & Laub, 1996; State, et al., 1996), la progettazione ingegneristica (Ahlers & Kramer, 1995), la robotica (Drascisc, 1996), e la manifattura, la manutenzione e la riparazione (Gold, et al., 1993; Feiner, et al., 1993). 1. Caratteristiche e Requisiti L‘obiettivo della realtà virtuale è quello di inserire l‘utente all‘interno di un sistema a retroazione rappresentato da una applicazione in tempo reale, in modo che si trovi immerso all‘interno di un mondo che può essere sia autonomo che influenzabile dalle sue azioni. I requisiti per le applicazioni di realtà virtuale sono definiti Interfacce Uomo-Macchina nella Realtà Virtuale 305 attraverso le analisi delle necessità in termini di canali di input ed output per il simulatore del mondo virtuale. Feedback sensoriali principali I canali di input di un‘applicazione di realtà virtuale sono quelli attraverso i quali gli utenti emettono informazioni ed interagiscono con l‘ambiente. Noi interagiamo con il mondo principalmente attraverso la locomozione e la manipolazione, e comunichiamo informazioni principalmente attraverso la voce, la gestualità e le espressioni facciali (Balaguer & Mangili, 1992). Percezione visiva La vista è generalmente considerata il senso dominante, ed è unanimemente accettato che la percezione umana è orientata attorno alla visione (Kosslyn, 1994). Gli aspetti principali del senso visivo che hanno un impatto sui requisiti del display sono i seguenti: percezione di profondità: la visione stereoscopica è un meccanismo visuale umano primario per la percezione della profondità. Tuttavia, dal momento che gli occhi dell‘uomo si trovano distanziati in media di 6.3 cm, i benefici geometrici dovuti alla stereopsi vengono persi per oggetti più distanti di 30 metri. La percezione della profondità è molto più efficace per oggetti a distanze molto più vicine. Altri aspetti primari (convergenza degli occhi ed accomodazione) ed aspetti secondari (ad esempio visione prospettica, parallasse, dimensione, tessitura, illuminazione ed ombre) sono essenziali per oggetti lontani e di importanza variabile per quelli vicini; accuratezza e campo di vista: il campo di vista orizzontale di entrambi gli occhi umani è di circa 180 gradi senza muovere occhi o testa e di 270 gradi con la testa fissata e muovendo gli occhi. Il campo di vista verticale è tipicamente oltre i 120 gradi. Mentre il campo totale non è necessario ad un utente per sentirsi immerso in un ambiente virtuale, un intervallo tra 90 e 110 gradi viene considerato necessario per il campo di vista orizzontale (Youngblut, et al., 1995); quando si considera l‘accuratezza, la fovea centrale di un occhio umano possiede una risoluzione di circa 0.5 minuti di arco (Jain, 1989); 306 José A. Iglesias Guitián, Marco Agus frequenza critica di fusione: le simulazioni visive generano l‘illusione di animazione attraverso la presentazione rapida successiva di una sequenza di immagini statiche. La frequenza di fusione critica è la frequenza sopra la quale gli uomini non sono in grado di distinguere tra successivi stimoli visivi. Questa frequenza è proporzionale alla luminanza ed alla dimensione dell‘area dell‘immagine coperta sulla retina (Davson, 1994; Landis, 1954). Valori tipici per scene normali sono tra i 5 ed i 60 Hz (Youngblut, 1995). Una regola pratica comunemente accettata dall‘industria della computer graphics suggerisce che, sotto i 10–15 Hz, gli oggetti non appaiono in movimento fluido, causando distrazione o fatica da parte dell‘utente (McKenna & Zeltzer, 1992). Applicazioni ad alta velocità, come simulatori di volo professionali, richiedono frequenze visive di feedback di oltre 60 Hz (Bryson & Johan, 1996). Percezione sonora La vista è il nostro mezzo di percezione privilegiato, mentre l‘udito viene principalmente utilizzato per la comunicazione verbale, per ottenere informazioni da parti invisibili del mondo o quando la visione non fornisce abbastanza informazioni. Negli uomini, l‘apparato uditivo è più efficiente tra i 1000 ed i 4000 Hz, con una caduta di efficienza al salire o scendere della frequenza (Youngblut, et al., 1995). Percezione della posizione, del tatto, e della forza Mentre i sistemi visivo ed uditivo sono solo in grado di percepire, il senso del tatto è in grado sia di sentire cosa sta succedendo attorno all‘essere umano, ma anche di agire all‘interno dell‘ambiente. Questo fatto lo rende una parte indispensabile di molte attività umane e così, per fornire il realismo necessario per applicazioni efficienti, i sistemi di realtà virtuale devono fornire input di tipo tattile e devono poter riflettere gli output del sistema tattile. Le variabili primarie di input/output per il senso tattile sono spostamenti e forze. Due aspetti importanti nella simulazione di forza che hanno un impatto sui requisiti di un sistema di realtà virtuale sono la massima forza ottenibile e la frequenza del ritorno di forza. Questi due valori dipendono pesantemente dall‘applicazione, ed il settore di ricerca ri- Interfacce Uomo-Macchina nella Realtà Virtuale 307 guardante i fattori umani legati a questi argomenti è attualmente molto battuto (Youngblut, et al., 1995). Valori tipici per simulare l‘interazione con una buona varietà di oggetti è almeno 10 N a 1000 Hz. Un‘altra importante variabile da tendere in considerazione negli ambienti di realtà virtuale è la capacità umana di percepire il movimento e controllare la postura (orientazione e bilanciamento). Realismo spazio-temporale e rendering in tempo reale Le applicazioni di realtà virtuale tipicamente offrono molteplici modalità di input/output, e per ognuna di queste modalità ci sono vincoli temporali che devono essere rispettati per fare in modo che queste applicazioni siano utilizzabili (ad esempio la frequenza di ritorno delle immagini deve essere superiore ai 10 Hz, o la frequenza di ritorno di sensazioni tattili deve essere superiore a 1000 Hz). I vincoli di feedback visivo introducono il concetto di rendering in tempo reale, che riguarda la costruzione rapida di immagini attraverso il computer. Questa è l‘area di maggiore fermento nel settore della computer graphics e l‘obiettivo principale consiste nel produrre una sequenza di immagini e le reazioni conseguenti da fornire all‘utente ad una velocità abbastanza elevata da fare in modo che l‘osservatore non veda immagini singole ma piuttosto si senta immerso in un processo dinamico. Questa frequenza limite viene generalmente tollerata quando non è inferiore ai 15 Hz, ma il frame rate desiderato per simulatori complessi può superare i 60 Hz. Per un approfondimento sul rendering in tempo reale, il lettore può consultare il libro Real Time Rendering di Möller ed al (Haines & Akenine-Moller, 2002). Vincoli aggiuntivi di performance nelle applicazioni di realtà virtuale derivano dal fatto che output multimodali devono essere integrati in un singolo sistema come espresso da Wloka (Wloka, 1995). L‘immersione all‘interno di ambienti di realtà virtuale si è dimostrata causa di problemi di disorientamento e nausea simili ai sintomi del mal d‘aria o mal d‘auto, ed è stato dimostrato che i ritardi ed i problemi di sincronizzazione sono i fattori che maggiormente causano questi fastidi (Cobb, et al., 1996; Regan & Price, 1993; Kennedy, 1995; Wloka, 1995). Il realismo spazio-temporale, e la capacità di soddisfare i vincoli di sincronizzazione, ritardo e 308 José A. Iglesias Guitián, Marco Agus accuratezza sono requisiti fondamentali per tutti i sistemi di realtà virtuale. Un workshop ACM CHI sui problemi irrisolti relativi all‘interazione 3D (Herndon, et al., 1994) ha identificato cinque tipi di requisiti che le interfacce utente 3D devono possedere per sfruttare appieno le abilità percettive e di coerenza spaziale degli utenti. Questi requisiti possono essere riassunti come segue: Modalità di input ed output multiple ed integrate. Le interfacce utente dovrebbero essere in grado di sfruttare non solo il canale visivo per le comunicazioni. Fedeltà funzionale. Considerate nel complesso, le varie informazioni sensoriali fornite da un‘interfaccia devono essere adeguate per l‘operazione in esecuzione. Velocità di risposta. Le interfacce utente 3D devono essere molto rapide nel rispondere alle azioni dell‘utente in modo che dei comportamenti di tipo esplorativo possano verificarsi in modo naturale. Questo fatto introduce degli importanti vincoli temporali sulle applicazioni. Affordance. La affordance consente la creazione di oggetti che hanno delle proprietà ricche di significato e forniscono informazioni su come interagire con gli oggetti stessi ed all‘interno degli ambienti 3D. Attrazione rispetto alla rappresentazione mentale. Le interfacce utente devono essere organizzate in modo che siano riconoscibili dall‘utente. Metafore di comportamento all‘interno di un mondo reale e tecniche di simulazione fisica sono specialmente utili in questo contesto. Questi requisiti pongono dei problemi da risolvere sia dal lato hardware, in termini di dispositivi che devono essere usati per comunicare con gli utenti, sia dal lato software, in termini di tecniche che devono essere sviluppate per supportare in modo efficiente l‘interazione multimodale in un contesto time-critical. Nella sezione seguente di questo capitolo si considerano gli aspetti relativi all‘hardware per il feedback sensoriale legato alla vista ed al tatto. Interfacce Uomo-Macchina nella Realtà Virtuale 309 2. Hardware per il Feedback Sensoriale Una volta definiti i vincoli ed i requisiti per la creazione di sistemi di realtà virtuale, in questa sezione vengono presentati i dispositivi di nuova generazione che consentono un feedback sensoriale realistico. Particolare riguardo viene dato ai sistemi per la visualizzazione autostereoscopica multiutente, e per il ritorno di sensazioni tattili, che sono considerati i sensi dominanti per avere l‘impressione di essere realmente immersi all‘interno di uno spazio virtuale. Ritorno di sensazioni visive Gli esseri umani si orientano principalmente in relazione al loro senso visivo: essi danno sempre precedenza al sistema visuale nel caso esistano degli input in conflitto provenienti da altre modalità sensoriali. L‘obiettivo principale della realtà virtuale per quanto riguarda gli stimoli visivi è quello di fornire la sensazione di una visione stereo. A tal proposito, i display visivi correntemente utilizzati forniscono visione stereoscopica attraverso molte tecniche differenti: display a caschetto (head mounted displays o HMDs), occhiali ad otturatore, occhiali passivi e display olografici autostereoscopici. Un esempio di nuovo tipo di HMD che utilizza varie immagini per occhio è stato di recente proposto da Kim e Son (Kim, et al., 2004). Sistemi autostereoscopici Negli ultimi anni hanno avuto grande sviluppo i sistemi autostereoscopici multi-utente in cui osservatori ad occhio nudo sono in grado di percepire gli oggetti come se galleggiassero in uno spazio virtuale tridimensionale. Allo stato attuale, la tecnologia dei display ad alta risoluzione è matura ed in grado di riprodurre dei campi di luce naturali (Balogh, et al., 2005; Jones, et al., 2007). Il problema principale per questo tipo di display resta il rendering, che comporta la generazione di un numero elevato di fasci luminosi aventi adeguata origine, direzione e colore, e questa operazione è allo stato attuale complicata e computazionalmente onerosa. Oltretutto, le caratteristiche ottiche variabili dei display impongono dei metodi di visualizzazione particolari e specializzati. L‘elemento chiave caratteriz- 310 José A. Iglesias Guitián, Marco Agus zante i display 3D autostereoscopici è dato dalla possibilità di emettere luce in modo selettivo per quanto riguarda la direzione, e questo viene ottenuto in generale attraverso tre approcci principali: volumetrico, olografico, o multi-view. I display di tipo volumetrico sintetizzano i light field attraverso la proiezione di fasci di luce su mezzi rifrangenti o riflettenti posizionati o mossi nello spazio, come ad esempio (McKay, et al., 2000; Favalora, et al., 2001; Roberts & Slattery, 2000). Figura 6. Display autostereoscopici di nuova generazione. Alcune immagini di modelli visualizzati su un display di tipo lightfield con parallasse orizzontale basato su tecnologia a proiettori (Balogh, et al., 2005). Esistono anche dei display commerciali, ad esempio quello proveniente da Actuality Systems. In questo tipo di display i principali problemi sono legati alla limitata scalabilità, ed alla difficoltà nel rappresentare effetti di occlusione. Quest‘ultimo problema è stato di recente risolto nei display presentati da (Jones, et al., 2007) e (Cossairt, et al., 2007), che sfruttano un diffusore anisotropico che ricopre uno specchio rotante ad altissima velocità e sincronizzato con un video proiettore che ne illumina la superficie. Un setup di questo tipo permette una visione di 360, ma, a causa dei vincoli meccanici, risulta di pratico utilizzo soltanto per dimensioni di immagini limitate e modelli poco complessi. Tecniche puramente olografiche sono invece basate sulla generazione di pattern olografici per ricostruire il fronte d‘onda luminoso che si origina a partire dall‘oggetto visualizzato, ad esempio, utilizzando materiali acustoottici (St.-Hillaire, et al., 1995), oppure modulatori spaziali di luce (Stanley, et al., 2000), oppure ancora dispositivi digitali a microspecchi (Huebschman, et al., 2003). Interfacce Uomo-Macchina nella Realtà Virtuale 311 Nonostante questi approcci possano in teoria fornire le immagini più attraenti, il principio stesso su sui si basano impone una serie di limitazioni sulle dimensioni delle immagini e sulla risoluzione, con conseguente restringimento del campo di vista, ed al costo di una enorme potenza di calcolo richiesta per raggiungere delle accettabili velocità di aggiornamento durante l‘interazione. Nei prototipi attualmente a disposizione, ancora confinati all‘interno di laboratori di ricerca, la parte hardware del display è molto ingombrante in relazione alla dimensione dell‘immagine visualizzata (che è tipicamente di pochi centimetri in ciascuna direzione). Infine i tipici display multi-view, spesso basati su una maschera ottica o un array di lenti lenticolari, mostrano molte immagini 2D in molte zone dello spazio. Essi permettono l‘utilizzo a molti utenti simultaneamente, purché si trovino all‘interno di un determinato angolo di vista. Le maschere ottiche utilizzate introducono una significativa perdita di luce quando ci sono più di due viste. Oltretutto, la struttura a barriera diventa visibile man mano che il numero di viste aumenta. D‘altro canto, i display lenticolari ingrandiscono la matrice dei pixel dei dispositivi di proiezione creando delle zone oscure tra le posizioni di osservazione. Il display multi-view di Cambridge è un classico esempio di progetto di questo tipo (Dodgson, et al., 2000), ed un numero di case produttrici (Philips (van Berkel, et al., 1996), Sharp (Woodgate, et al., 2000), Opticality (Relke & Riemann, 2005), Samsung, Stereographics, Zeiss) realizzano monitor basati su variazioni di questa tecnologia. I display tipici allo stato dell‘arte usano in genere 8–10 immagini al costo di una limitata risoluzione. Matusik ed al. (Matusik & Pfister, 2004) hanno presentato un prototipo basato su questa tecnologia ed assemblato con 16 proiettori di risoluzione 1024x768 ed uno schermo lenticolare. L‘effetto stereo 3D è ottenuto quando l‘occhio sinistro e l‘occhio destro vedono immagini differenti ma corrispondenti. Il numero limitato di viste dei sistemi multi-view basati su maschere o lenti lenticolari produce, tuttavia, delle interferenze e delle discontinuità rispetto al movimento dell‘utente (Dodgson, 1996). Nel seguito verrà descritto un sistema di visualizzazione autostereoscopico multiutente basato su tecnologia a proiettori che permette di ricostruire fedelmente un campo di luce con una parallasse orizzontale (Balogh, et al., 312 José A. Iglesias Guitián, Marco Agus 2005) (si vedano in Figura 6 alcune immagini di modelli volumetrici visualizzati su tale display). Ritorno di sensazioni tattili A partire dall‘inizio di questo secolo, sistemi meccanici programmabili ed intelligenti diventano sempre più presenti ed importanti nella vita di tutti i giorni. A tal proposito, un‘area di particolare interesse è quella costituita da sistemi meccanici utilizzabili direttamente dall‘uomo; tali sistemi condividono uno spazio di lavoro ed interagiscono con l‘uomo per completare specifiche operazioni. Nello specifico, molti di questi dispositivi consistono di un meccanismo che viene manipolato fisicamente da un operatore per posizionare una particolare estremità del dispositivo. Il sistema meccanico può semplicemente registrare il percorso dell‘estremità o restringere un movimento dell‘operatore su un precorso pre– programmato, possibilmente in modo da fornire assistenza allo sforzo dell‘operatore. Tali dispositivi sono chiamati interfacce aptiche. La parola aptico sta ad indicare qualcosa che è collegato o proviene dal senso del tatto. Un interfaccia aptica è un dispositivo che permette ad un utente di interagire con un computer ricevendo delle sensazioni tattili. Il ritorno di sensazioni è ottenuto applicando una forza che si oppone all‘utente lungo gli assi x, y, e z. Tali dispositivi resistono al movimento umano in certe direzioni, simulando delle barriere o dei vincoli provenienti da un robot manovrato a distanza oppure da un ambiente virtuale programmato (Burdea, 2000). Le interfacce aptiche hanno una vasta gamma di applicazioni, non tutte esplorate a fondo. In effetti, potrebbero essere utilizzate per addestrare abilità fisiche nel caso di lavori che richiedono speciali abilità manuali su determinati strumenti (ad esempio chirurghi, astronauti, o meccanici), potrebbero essere utilizzate per mettere a disposizione degli strumenti di modellazione solida di oggetti 3D senza utilizzare un mezzo fisico (come i progettisti che lavorano con i modelli di creta), oppure per realizzare plastici di prototipi di sviluppo (Hollerbach & Jacobsen, 1995). L‘esplorazione tattile è un‘operazione sensoriale che ha lo scopo di identificare proprietà di superficie e volumetriche. Il sistema sen- Interfacce Uomo-Macchina nella Realtà Virtuale 313 soriale tattile umano è costituito da due componenti principali: l‘informazione tattile e l‘informazione cinestetica. Per quanto riguarda l‘informazione tattile, i recettori meccanici presenti nel palmo delle dita hanno il ruolo principale, mentre per quanto riguarda l‘informazione cinestetica, i recettori sensoriali nella pelle attorno alle articolazioni, le capsule delle articolazioni, i tendini ed i muscoli sono preponderanti. Vari tipi di interfacce sono stati realizzati in industria e come prototipi di ricerca, per cercare di veicolare entrambi i tipi di sensazione. Le interfacce aptiche commerciali di tipo general-purpose utilizzate attualmente possono essere classificate in dispositivi con base d‘appoggio ( come joystick con ritorno di forza e dispositivi ad articolazioni), dispositivi indossabili (guanti, abiti, dispositivi eso-scheletrici) o display tattili. I primi due tipi di interfacce aptiche eccitano i sensori cinestetici mentre il terzo tipo (display tattile) eccita i sensori tattili. Un esempio di concetto di interfaccia aptica in cui le forze vengono fornite in determinate parti della mano, è dato da guanto Master II-ND ideato alla Rutgers University, in cui l‘uso di pistoni pneumatici consente di minimizzare il peso e pertanto il dispositivo è in grado di simulare la prensione di oggetti virtuali. Figura 7. Interfacce aptiche. A sinistra una interfaccia aptica in configurazione seriale PHANToM Desktop comunemente usata per fornire sensazioni alla mano. A destra una interfaccia aptica in configurazione parallela (Delta Force Dimension). Fonte: www.flickr.com con licenza CC. 314 José A. Iglesias Guitián, Marco Agus In ogni caso, dal punto di vista delle applicazioni che richiedono ritorno di sensazioni tattili verso la mano, le interfacce aptiche che si prestano meglio sono quelle realizzate a partire da una configurazione robotica di tipo seriale o parallelo o ibrida: si vedano in figura 7 degli esempi di configurazione seriale (Sensable PHANToM) e parallela (Delta Force Dimension). Tra le interfacce aptiche, la più diffusa è il PHANTOM (Personal Haptic Interface Mechanism). Si tratta di un dispositivo che misura la posizione estrema di uno stelo ed esercita un vettore di forza controllato in modo preciso sul medesimo (si veda figura 7). Nella sua forma più semplificata, il PHANTOM può essere pensato come un mezzo di trasmissione tra tre motori a spazzola in corrente continua dotati di encoder digitali ed il dito umano. Tale dispositivo viene diffusamente utilizzato per fare in modo che gli utenti interagiscano e sentano un‘ampia varietà di oggetti virtuali e può essere inoltre utilizzato per il controllo di manipolatori remoti (Massie & Salisbury, 1994). Quali che siano i trasduttori ed i sensori elettromeccanici impiegati, uno degli aspetti importanti delle interfacce aptiche è dato dal sistema di calcolo impiegato per guidare i trasduttori. La funzione di questa componente di calcolo è quella di fornire il cosiddetto haptic rendering, analogamente a quanto accade con le funzioni di rendering di immagini dei sistemi grafici. L‘obiettivo del rendering aptico consiste nel generale segnali rilevanti per una data applicazione. Ad esempio, un determinato modello può essere utilizzato per rappresentare un ambiente, e le sue equazioni possono essere risolte per trovare delle forze come funzione degli spostamenti e delle loro derivate. Le caratteristiche del sistema tattile umano permettono in alcuni casi di utilizzare dei modelli fisici semplificati per rappresentare oggetti aptici che possono competere in realismo con gli oggetti fisici reali. In altri casi si possono registrare sperimentalmente dei dati che possono essere replicati come funzioni di variabili di stato o del tempo. Il lettore interessato alle problematiche principali riguardanti il ritorno delle sensazioni tattili può far riferimento al libro di Burdea ―Force and Touch Feedback for Virtual Reality‖ (Burdea, 1996). Interfacce Uomo-Macchina nella Realtà Virtuale 315 3. Esempi di applicazioni di realtà virtuale Una volta descritti i tipi di requisiti richiesti dalle applicazioni di realtà virtuale, ed i dispositivi di nuova generazione che possono essere utilizzati per il ritorno di sensazioni, in questa sezione vengono presentati alcuni esempi di possibili applicazioni, e descritti brevemente alcuni prototipi e sistemi realizzati dagli autori. Simulazione chirurgica L‘evoluzione delle modalità d‘addestramento del personale clinico e le emergenti necessità di aggiornamento e certificazione degli specialisti stanno negli ultimi anni portando ad una forte espansione della richiesta per sistemi di simulazione di procedure chirurgiche. Infatti, in analogia con quanto avviene nell‘industria aereonautica, dove i simulatori sono da decenni strumenti fondamentali nei processi di addestramento e certificazione dei piloti, l‘utilizzo di questa tecnologia permette: una notevole flessibilità nel calendario di addestramento di graduare le difficoltà degli scenari di addestramento di esporre l‘addestrando ad eventi che nella pratica chirurgica sono rari, ma potenzialmente molto pericolosi per la vita del paziente di misurare quantitativamente le performance e le skill chirurgiche dell‘addestrando. Purtroppo, a differenza di quanto succede nel campo aereonautico, i simulatori chirurgici basati su tecnologie di realtà virtuale stentano a raggiungere un elevato livello di realismo. Infatti, mentre in quest‘ultimo caso il modello di interazione pilota-aeroplano è sostanzialmente semplice e la limitazione principale al ―realismo‖ dei simulatori di volo è la velocità del rendering grafico, nel caso dei simulatori chirurgici il ―realismo‖ è principalmente limitato dalla complessità del modello sottostante che descrive l‘interazione virtuale tra gli strumenti manipolati dal chirurgo, gli organi e come quest‘ultimi reagiscono alle manipolazioni. 316 José A. Iglesias Guitián, Marco Agus Per quanto riguarda la realizzazione di un simulatore chirurgico, esistono sostanzialmente due problematiche di ricerca. La prima è legata al trovare nuove soluzioni tecnologiche per migliorare il ―realismo‖ (fidelity) dei simulatori; la seconda è invece orientata a cercare come si possano meglio sfruttare le potenzialità offerte da questo tipo di addestratori per valutare in maniera quantitativa il livello di apprendimento dei suoi utilizzatori per scopo di addestramento o certificazione. Le due problematiche sono fortemente complementari ed esiste un consenso della comunità scientifica che esse siano tra i pilastri tecnologici fondamentali per lo sviluppo di un‘attività industriale in questo settore. Satava ha identificato nel 1993, (Satava, 1993), cinque elementi, illustrati nella Tabella 1, che influenzano il realismo di un ambiente virtuale per applicazioni mediche. La tabella fornisce per ogni elemento un obiettivo ideale da raggiungere, ma non fornisce dettagli su come si debbano stabilire i livelli di fidelity, intesa come realismo visivo, necessaria per la simulazione di una data procedura chirurgica. Elemento Descrizione Finalità Fidelity riproduzione visiva della scena foto realismo, visione stereo con risoluzione almeno 800x600 pixels Display delle proprietà degli deformazione, resezione ed comportamento realistico dal organi in generale modifica punto di vista fisico e dell‘aspetto degli organi fisiologico Display delle reazioni da parte degli organi Interattività Sensory feedback secrezione di fluidi, ad esempio sangue e fluido celebro spinale comportamento realistico dal punto di vista fisico e fisiologico interazioni tra oggetti come latenza inferiore a 100msec, gli strumenti chirurgici e gli frequenza di update della organi scena visiva superiore a 2025hz ritorno di forze modelli fisicamente realistici, latenze inferiori a 10msec, e frequenze di sampling superiori a 5001000 hz. Tabella 1. Gli elementi che definiscono la fidelity di un simulatore La realizzazione pratica di un simulatore chirurgico impone di dover bilanciare tra i cinque elementi citati in tabella 1 in funzione Interfacce Uomo-Macchina nella Realtà Virtuale 317 della particolare applicazione, delle risorse computazionali e delle periferiche disponibili. Un esempio di simulatore chirurgico per l‘addestramento realizzato considerando tutti gli elementi della tabella 1 secondo un approccio human centered nella progettazione dei componenti, è quello realizzato nel quadro del progetto IERAPSI dal CRS4 (Agus, et al., 2002a, 2002b), che rappresenta una piattaforma sperimentale specializzata alla simulazione di procedure chirurgiche sulla base cranica. Il sistema si basa su modelli volumetrici direttamente derivati da dati 3D di TAC e MR. Il ritorno di sensazioni in tempo reale viene fornito all‘utente per mezzo di tecniche di rendering volumetrico e di modellazione di sensazioni aptiche. I vincoli nelle prestazioni imposti dal sistema percettivo umano sono soddisfatti sfruttando il parallelismo attraverso il disaccoppiamento della simulazione su una piattaforma di PC multiprocessore. A tal proposito, il sistema si suddivide in un sottosistema ―rapido‖, per la gestione delle operazioni ad alta frequenza ( rilevazione delle posizioni degli strumenti chirurgici, calcolo del ritorno di forza, erosione dell‘osso), ed un sottosistema ―lento‖, essenzialmente dedicato alla produzione di informazioni per il ritorno di immagini. Figura 8. Un sistema prototipale per la simulazione di procedure chirurgiche sull‘osso temporale. Sinistra: set-up operativo reale, il chirurgo è in contatto con il campo operativo solo attraverso gli strumenti. Destra: interfacce aptiche e visive del simulatore (Agus, et al., 2002 a). 318 José A. Iglesias Guitián, Marco Agus La Figura 8 illustra il set-up del sistema IERAPSI confrontato con un campo operatorio reale. Come si può notare, durante l‘intervento il chirurgo osserva la regione interessata dall‘operazione attraverso un microscopio chirurgico ed è in contatto con il campo operativo solo attraverso gli strumenti, in questo caso una fresa ed un aspiratore. La dinamica del sistema con cui interagisce il chirurgo è complessa e riguarda non solo l‘interazione diretta del chirurgo con i tessuti ma anche altri effetti secondari, ad esempio il flusso della miscela di sangue, soluzione salina e polvere d‘osso risultante dalla fresatura. La parte destra della Figura 8 mostra invece le interfacce aptiche e visive del simulatore per la chirurgia dell‘orecchio. In analogia al set-up operativo della parte sinistra della figura 8, il medico osserva il campo operativo simulato attraverso un display specializzato, molto rudimentale, ed interagisce con la scena mediante due interfacce aptiche PHANToM che, pilotate dal simulatore, riproducono le forze appropriate alla simulazione del contatto, in questo caso relative alla fresatura dell‘osso. Infine, la Figura 9 mostra l‘inizio di una tipica sequenza di rimozione dell‘osso realizzata nella regione della mastoide attraverso il simulatore IERAPSI. Figura 9.Sequenza di fresatura ottenuta con il simulatore chirurgico IERAPSI. Interfacce Uomo-Macchina nella Realtà Virtuale 319 Un altro esempio di piattaforma di realtà virtuale per l‘addestramento chirurgico è il sistema EYE, sviluppato dal CRS4 per DIES, in cui vengono simulate le fasi dell‘intervento di estrazione della cataratta (Agus, et al., 2006). In questo caso il tatto non è considerato senso dominante per cui le interfacce hardware vengono utilizzate solo come misuratori di posizione e orientamento. In questo tipo di simulazione, la modellazione fisica è fondamentale per l‘addestramento delle abilità manuali e per la familiarizzazione con gli strumenti chirurgici. Il sistema EYE contiene simulazioni fisiche accurate e rappresentazioni geometriche realistiche delle seguenti fasi dell‘intervento: incisione della cornea: creazione di uno o più tunnel all‘interno della cornea in modo da poter accedere al cristallino; capsuloressi: creazione mediante un forcipe di un‘apertura circolare sulla membrana anteriore che incapsula il cristallino; facoemulsificazione: rottura e rimozione completa del cristallino mediante uno strumento ad ultrasuoni che funge anche da aspiratore. Nella configurazione attuale, il simulatore utilizza due Sensable PHANToM per simulare gli strumenti chirurgici, ed un display binoculare per presentare immagini all‘utente. La Figura 10 mostra delle sequenze virtuali ottenute col simulatore EYE e rappresentanti le fasi di capsuloressi e facoemulsificazione. Figura 10. Sequenze virtuali di capsuloressi e facoemulsificazione virtuale ottenute con il simulatore chirurgico EYE. 320 José A. Iglesias Guitián, Marco Agus Musei virtuali Figura 11. Galicia Dixital Il recente sviluppo dei sistemi wireless per motion tracking, insieme alla crescita della potenza grafica dei laptop, ed alla popolarità delle reti wireless ha consentito la comparsa di sistemi in cui l‘utente è in grado di muoversi fisicamente in un determinato spazio con determinati confini e contenente oggetti ed elementi di uno spazio virtuale. Alcuni esempi di questo spazio ibrido sono stati sviluppati in tutto il mondo (Feiner, et al., 1997; Vlahakis, et al., 2001; Thomas, et al., 2002). Tuttavia, oltre ai problemi tecnici legati allo sviluppo di questi sistemi, si devono valutare attentamente i contenuti da mostrare, approfittando di tutte le possibilità astratte e tecnologiche offerte dal fatto che l‘utente rappresenta di per sé il puntatore in questo tipo di applicazioni di realtà virtuale, laddove lo spazio di interazione rappresenta invece l‘interfaccia. A tal proposito, in questo contesto, descriviamo a titolo di esempio l‘Empty Museum (Hernández, et al., 2003), che è una piattaforma di realtà virtuale ideata e sviluppata dal gruppo di ingegneria, architettura, e visualizzazione di progetti urbani VideaLAB6. Questo sistema può essere descritto come una stanza virtuale, non contenente oggetti reali, ma ricca di contenuti interattivi galleggianti all‘interno dello spazio virtuale che circonda l‘utente. Questi contenuti possono essere osservati soltanto dai visitatori che indossano uno speciale zainetto a spalla ed un caschetto HMD 6 Engineering, architecture and urban design visualisation group: Videalab, 2008. http://videalab.udc.es Interfacce Uomo-Macchina nella Realtà Virtuale 321 (head mounted display). Così equipaggiato, il visitatore del museo può camminare liberamente all‘interno di questo spazio, godendosi un‘esperienza immersiva totale. La piattaforma è stata ideata per essere utilizzata da musei e reality center, ed è stata mostrata in pubblico in occasione di varie mostre per promuovere diversi contenuti culturali (Hernandez, et al., 2004; Hernandez, et al., 2007). Figura 12. Diagramma che descrive l‘architettura dell‘Empty Museum Il sistema possiede le seguenti principali caratteristiche: Autonomo e wireless. Si tratta di un‘applicazione di realtà virtuale che consente all‘utente di muoversi liberamente, senza limitazione alcuna dovuta a cavi dato che tutti i dispositivi indossati sono alimentati da batterie; Transitabile. La sensazione di presenza è rafforzata permettendo all‘utente di camminare liberamente all‘interno dello spazio virtuale; 322 José A. Iglesias Guitián, Marco Agus Multi-utente. Il sistema consente l‘utilizzo simultaneo a diversi utenti, che sono consapevoli della presenza degli altri grazie all‘utilizzo di avatar all‘interno del mondo virtuale; Multi-piattaforma. L‘intero sistema funziona sopra diverse piattaforme e fa in modo che ogni componente del sistema possa funzionare all‘interno di diversi sistemi operativi; Diffusione sonora tridimensionale. Per aumentare la sensazione di immersione viene utilizzata una libreria audio specializzata 3D, che riproduce il suono tenendo in considerazione la posizione della sorgente sonora; Funzionamento basato su tecnologie di rete. Il sistema funziona utilizzando una rete TCP/IP. Questo permette diversi tipi di connessioni simultanee da differenti ubicazioni. Architettura dell’Empty Museum L‘architettura del sistema (rappresentata in figura 12) distingue tra due elementi principali, la base ed i satelliti. La base ha il compito di gestire tutto ciò che riguarda i sistemi di tracking e le comunicazioni fra utenti e i mondi virtuali da caricare nei satelliti. La base si compone di un computer collegato ad un sistema di tracking magnetico InterSense IS-900, che cattura la posizione e l‘orientazione. L‘equipaggiamento dei satelliti consiste invece di un sistema HMD leggero (ad esempio modello Sony Glasstron), un laptop con accelerazione grafica hardware che permette di visualizzare i modelli in tempo reale, ed una antenna che fa parte del sistema di tracking a che permette di seguire la posizione dell‘utente. Il sistema software è costituito da due applicazioni, corrispondenti al sistema fisso ed ai sistemi mobili. L‘applicazione eseguita dalla base controlla il sistema di tracking e invia i dati di posizione sulla rete wireless, mentre quella eseguita dai satelliti si incarica del rendering specifico per quell‘utente. L‘applicazione satellite riceve in modo continuo i dati di tracking dalla base, e genera istantaneamente contenuti visivi e sonori per quella posizione. Inoltre elabora l‘interazione con il mondo, con altri utenti e con possibili elementi del mondo virtuale (Figura 13). Interfacce Uomo-Macchina nella Realtà Virtuale 323 Per facilitare la creazione di mondi virtuali e di contenuti per l‘Empty Museum, si è progettato un motore di interazione flessibile ed estendibile basato su moduli. Detto motore valuta una sequenza di regole logiche che scatenano l‘esecuzione di differenti azioni. Le espressioni a loro volta possono essere costruite utilizzando costanti logiche, variabili o le uscite provenienti da diversi sensori dell‘applicazione. I sensori possono essere di diversi tipi: di prossimità (con uscita logica del tipo dentro o fuori), di tempo (con uscita data da un segnale di trigger), di visibilità (con uscita logica del tipo raggiungibile o non raggiungibile), etc. Tutti i sensori possiedono ingressi e uscite che vengono utilizzate per rilevare eventi interessanti per l‘interazione. Come risultato della composizione di questi elementi, si può implementare tutta la logica dell‘applicazione in una o più macchine a stati. Figura 13. Esempi di mondi virtuali realizzati per l‘Emtpy Museum. Sistemi di visualizzazione stereo immersivi Il crescente e rapido sviluppo dell‘hardware grafico programmabile e l‘utilizzo di nuove tecniche multi-risoluzione fa in modo che sia possibile visualizzare in modo interattivo dataset di notevoli dimensioni ed elevata fedeltà visiva su normali PC. Riuscire a distinguere ed interpretare la disposizione spaziale di strutture tridimensionali complesse nelle immagini prodotte da questi tipi di tecniche rimane 324 José A. Iglesias Guitián, Marco Agus tuttavia un‘operazione complicata. Qui descriviamo brevemente un esempio di sistema di visualizzazione su dei display light field multi-utente basati su tecnologia di proiezione. Il sistema è sviluppato dal CRS4 nel quadro dei progetti COHERENT e CYBERSAR. Figura 14. Idea del light field display. Sinistra: ciascun proiettore emette dei fasci di luce verso un sottoinsieme dei punti dello schermo olografico. Gli specchi laterali incrementano il numero disponibile di fasci luminosi. Destra: un numero elevato di fasci di luce è in grado di creare un punto spaziale (voxel). L‘obiettivo principale di questo sistema è quello di aumentare il livello di comprensibilità dei dati 3D attraverso delle informazioni percettive aggiuntive per quanto riguarda l‘accomodazione, la stereopsi e la parallasse di movimento, fornite da un display light field che supporti il filtraggio selettivo delle direzioni di luce. Esistono evidenze che l‘ego-motion o model-motion così come la stereopsi sono informazioni essenziali per ottenere una percezione rapida diretta dei dati volumetrici (Boucheny, et al., 2007; Mora & Ebert, 2004). I light field display utilizzati sono basati su una sequenza di proiettori allineati e posti dietro uno schermo olografico (vedi Figura 14). Ulteriori informazioni sulla tecnologia in questione possono essere trovate in (Balogh, et al., 2005). La Figura 15 mostra i dettagli di un display di grandi dimensioni: si possono apprezzare l‘array Interfacce Uomo-Macchina nella Realtà Virtuale 325 di proiettori e la fotocamera utilizzata per la calibrazione situati nella parte posteriore del setup. Figura 15. Prototipo di light field display di grandi dimensioni. Dalle fotografie si possono apprezzare i dettagli dell‘array di proiettori e della fotocamera utilizzata per la calibrazione situati nella parte posteriore del setup. Questo setup fornisce una parallasse orizzontale continua in una zona sufficientemente ampia davanti allo schermo. La semplificazione data dalla parallasse orizzontale riduce la complessità del light field, rendendo il problema di real-time rendering più trattabile. Le caratteristiche del display sono sfruttate da una tecnica di rendering specializzata che è in grado di dare a molti osservatori in movimento ad occhio nudo l‘illusione di vedere oggetti volumetrici virtuali come se galleggiassero nello spazio in determinate posizioni fisiche all‘interno dello spazio di lavoro del display (vedi Figura 16). 326 José A. Iglesias Guitián, Marco Agus Figura 16. Interazione in tempo reale con il light field display Ispezione in tempo reale di un modello di grandi dimensioni volumetrico contenente un dataset CT di un campione biologico. Le immagini sono state acquisite con una fotocamera da diverse angolazioni, in modo da mettere in evidenza la parallasse orizzontale del display light field. In figura 16 vengono mostrati i risultati di un GPU ray-caster volumetrico su un display di questo tipo: Il GPU ray-caster in questo caso segue i raggi generati da una tecnica multiple center of projection (MCOP), secondo la pipeline rappresentata in figura 17. Figura 17. Pipeline grafica per la generazione di immagini attraverso volume ray casting su un light field display In figura 18 viene invece mostrata la pipeline grafica ideata ed implementata per la gestione di modelli di superficie complessi, che avviene attraverso il campionamento di versioni pre-filtrate dei dataset a risoluzioni che corrispondono all‘accuratezza spaziale variabile del display. I display usati in queste applicazioni sono prodotti da Holografika (Balogh, et al., 2005), ed offrono un blend continuo tra le viste grazie alle proprietà di filtraggio della luce dello schermo olografico. Prestazioni real-time sono ottenute attraverso il con- Interfacce Uomo-Macchina nella Realtà Virtuale 327 trollo delle dimensioni delle immagini e delle frequenze di campionamento. Figura 18. Pipeline grafica per la gestione di modelli di superficie complessi 328 José A. Iglesias Guitián, Marco Agus Conclusioni Per concludere, possiamo dire che, data la complessità della realtà virtuale, l‘importanza dei fattori umani, e la carenza di soluzioni standard, il segreto per realizzare applicazioni di realtà virtuale realmente efficaci consiste nel fissare degli obiettivi realistici in considerazione della maturità della tecnologia (Leston, et al., 1996; Gobbetti & Scateni, 1998). È molto semplice cadere in confusione su cosa la realtà virtuale può o non può fare ed avere delle impressioni negative quando ci si rende conto che la realtà virtuale non è poi così reale. Come per tutte le tecnologie, ma in modo ancora più pressante per una tecnologia complessa come la realtà virtuale, è importante scegliere applicazioni appropriate che definiscano correttamente ed in modo preciso degli obiettivi determinati, in modo tale che le potenzialità della realtà virtuale possano essere messe a confronto con altre tecnologie utilizzate per raggiungere gli stessi obiettivi, ed al fine di assicurare che la realtà virtuale possa essere integrata all‘interno di pratiche di utilizzo consolidate (Leston, et al., 1996). Ma d‘altra parte, se si volesse fare anche un discorso legato al tipo di mercato che può avere la realtà virtuale, allora le cose si complicano. Infatti, se si considera la spinta che vi era nei primi anni 90 per una forte diffusione sul mercato consumer, non si può non considerare che da allora lo sviluppo del settore ha segnato il passo, soprattutto se confrontato allo sviluppo di altre tecnologie (vedi web). I motivi che hanno portato al rallentamento della diffusione possono essere di vario tipo: sicuramente la scomodità e il costo delle attrezzature, ma soprattutto l‘assenza della cosiddetta "killer application", ovvero quel software o quel servizio che spinge tanti ad acquistare le attrezzature, e che porta alla creazione di un nuovo mercato dal quale le industrie si alimentano e nel quale investono proponendo nuove soluzioni e prodotti. È evidente, in effetti, che il successo della Realtà Virtuale, non potrà essere raggiunto, fintanto che le interfacce più realistiche per la visione e l‘interazione tattile saranno assai costose, e finché quelle economicamente più accessibili non daranno una soddisfacente sensazione di realismo. Ciò nonostante, esiste chi prevede delle prospettive future con scenari realmente modificati, in cui l‘avvento dell‘ipertecnologia provvederà in un futuro prossimo a modificare Interfacce Uomo-Macchina nella Realtà Virtuale 329 intere professioni. La Realtà Virtuale interattiva, si prevede che permetterà di vivere situazioni da sogno, oltre che seguire una formazione personalizzata che preparerà i famosi lavoratori della "conoscenza", risolvendo problematiche tutt‘oggi fantascientifiche. Molti problemi, soprattutto per quanto riguarda il ritorno di sensazioni, sono ancora irrisolti, ma si ipotizza ancora che scenari come quelli descritti nei film Matrix e Minority Report siano possibili in un futuro non troppo remoto. Letture Consigliate Burdea, G. C. [1996]. Force and touch feedback for virtual reality. John Wiley & Sons, Inc., New York, NY, USA. Craig, A., Sherman, W. [2002] Understanding Virtual Reality. Elsevier Books, Oxford. Haines, E., Akenine-Moller, T. [2002]. Real-Time Rendering (2nd Edition). AK Peters, Ltd. Bibliografia Agus, M., Giachetti, A., Gobbetti, E., Zanetti, G., John, N. W., and Stone, R. J. [2002 a]Mastoidectomy simulation with combined visual and haptic feedback. In Medicine Meets Virtual Reality (January 2002), J. D. Westwood, H. M. Hoffmann, G. T. Mogel, and D. Stredney, Eds. Agus, M., Giachetti, A., Gobbetti, E., Zanetti, G., and Zorcolo. [2002b] A. Realtime haptic and visual simulation of bone dissection. In IEEE Virtual Reality Conference, Conference (Orlando, FL, USA, March 2002), IEEE Computer Society Press. Agus, M., Gobbetti, E., Pintore, G., Zanetti, G., and Zorcolo. [2006]. A. Real time simulation of phaco-emulsification for cataract surgery training. In Workshop in Virtual Reality Interactions and Physical Simulations (VRIPHYS 2006) (November 2006), Eurographics Association. Conference held in Madrid, Spain, November 6-7. Ahlers, K., and Kramer, A. [1995]. Distributed augmented reality for collaborative design applications. Tech. rep., European Computer Industry Research Center. Airey, J. M., Rohlf, J. H., and Brooks, Jr., F. P. [1990]. Towards image realism with interactive update rates in complex virtual building environments. Computer Graphics (Symposium on Interactive 3D Graphics) 24, 2 (Mar. 1990), 41–50. 330 José A. Iglesias Guitián, Marco Agus Balaguer, J.-F., and de Gennaro, S. [1996]. VENUS: A virtual reality project at CERN. Computer Graphics 30, 4 (Nov. 1996), 40–48. Balaguer, J.-F., and Gobbetti, E. [1995]. i3D: a high-speed 3D Web browser. In 1995 Symposium on the Virtual Reality Modeling Language (VRML ‗95) (Conference held in San Diego, CA, USA, Dec. 1995), ACM Press, pp. 69–76. Balaguer, J.-F., and Gobbetti, E. [1996]. i3D: A high speed 3D web browser. In VRML: Bringing Virtual Reality to the Interet, J. R. Vacca, Ed. AP Professional, Boston, MA, USA, 1996. Balaguer, J.-F., and Mangili, A. [1992]. Virtual environments. In New Trends in Animation and Visualization., D. Thalmann and N. Magnenat-Thalmann, Eds. Wiley, New York, NY, USA, 1992. Balogh, T., Forgács, T., Agocs, T., Balet, O., Bouvier, E., Bettio, F., Gobbetti, E., and Zanetti, G. [2005]. A scalable hardware and software system for the holographic display of interactive graphics applications. In Eurographics Short Papers Proceedings (2005), pp. 109–112. Boucheny, C., Bonneau, G.-P., Droulez, J., Thibault, G., and Ploix, S. [2007]. A perceptive evaluation of volume rendering techniques. In Proc. ACM APGV (2007), pp. 83–90. Brooks, Jr., F. P. Walkthrough — A dynamic graphics system for simulating virtual buildings. In Proceedings of 1986 Workshop on Interactive 3D Graphics (Oct. 1986), F. Crow and S. M. Pizer, Eds., pp. 9–21. Bryson, S. T., and Johan, S. Time management, simultaneity and time-critical computation in interactive unsteady visualization environments. In IEEE Visualization ‘96 (Oct. 1996), IEEE. ISBN 0-89791-864-9. Burdea, G. C. [2000]. Haptic feedback for virtual reality. special issue on Virtual Prototyping, International Journal of Design and Innovation Research 2 pagg. 17–29. Cobb, S., Nichols, S., Ramsey, A., and Wilson, J. [1996]. Health and safety implications of virtual reality: Results and conclusions from an experimental programme. In Proceedings of FIVE ‘96: Framework for Immersive Working Environments, the 2nd FIVE International Conference, pp. 154–162. Conner, D. B., Snibbe, S. S., Herndon, K. P., Robbins, D. C., Zeleznik, R. C., and van Dam, A. [1992]. Three-dimensional widgets. Computer Graphics 25, 2 (Mar. 1992), 183–188. Cossairt, O., Napoli, J., Hill, S., Dorval, R., and Favalora, G. [2007]. Occlusioncapable multiview volumetric three-dimensional display. Applied Optics 46, 8 (Mar. 2007), 1244–1250. Crawford, L. S. [1993]. A DEXTROUS MASTER FOR TELESURGERY. Technical Report ERL-93-95, University of California, Berkeley. Davson, H. [1994]. Physiology of the Eye, fifth ed. Pergamon Press, New York, NY, USA. Interfacce Uomo-Macchina nella Realtà Virtuale 331 Dodgson, N. A. [1996]. Analysis of the viewing zone of the Cambridge autostereoscopic display. Applied Optics: Optical Technology & Biomedical Optics 35, 10 (1996), 1705–1710. Dodgson, N. A., Moore, J. R., Lang, S. R., Martin, G., and Canepa, P. [2000]. Time-sequential multi-projector autostereoscopic 3D display. J. Soc. for Information Display, pagg 169–176. Drascisc, D. [1996]. Stereoscopic vision and augmented reality. Scientific Computing and Automation 9, 7 (June 1996), 31–34. Ellis, G. [1996]. They‘re not making ‘em like they used to: Virtual reality saves time and money in manufacturing and construction. Iris Universe (1996). Favalora, G., Dorval, R., Hall, D., and Napoli, J. Volumetric three-dimensional display system with rasterization hardware. In Proc. SPIE (2001), vol. 4297, pp. 227–235. Feiner, S., MacIntyre, B., Haupt, M., and Solomon, E. [1993]. Windows on the world: 2D windows for 3D augmented reality. In Proceedings of the ACM Symposium on User Interface Software and Technology (1993), Virtual Reality, pp. 145–155. Feiner, S., MacIntyre, B., Hollerer, T., and Webster, A. [1997]. A touring machine: Prototyping 3d mobile augmented reality systems for exploring the urban environment. iswc 00 (1997), 74. Fisher, S. S., McGreevy, M., Humphries, J., and Robinett, W. [1986]. Virtual environment display system. In Proc. 1986 ACM Workshop on Interactive 3D Graphics (Chapel Hill, NC, Oct. 1986), pp. 77–87. Gobbetti, E., and Balaguer, J. [1995]. An integrated environment to visually construct 3D animations. In SIGGRAPH 95 Multimedia Conference Proceedings (Conference held in Los Angeles, CA, USA, Aug. 1995), R. Cook, Ed., Annual Conference Series, ACM SIGGRAPH, Addison-Wesley. Gobbetti, E., and Balaguer, J. F. [1993]. VB2: An architecture for interaction in synthetic worlds. In Proceedings of the ACM SIGGRAPH Symposium on User Interface Software and Technology (Conference held in Atlanta, GA, USA, 1993), Virtual Reality, ACM Press, pp. 167–178. Gobbetti, E., and Balaguer, J. F. [1995]. i3D: An interactive system for exploring annotated 3D environments. In Scientific Visualization ‘95 (AICA ‘95 International Symposium on Scientific Visualization Proceedings) (Conference held in Chia, Italy, 1995), R. Scateni, Ed., World Scientific Publishing Co. Gobbetti, E., Leone, A., and Marini, A. [1995]. Virtual sardinia: a hypermedia flythrough with real data. In Proceedings of the International Workshop on Soft Computing in Remote Sensing Data Analysis (Conference held in Milan, Italy, 1995), E. Binaghi, P. B. PA, and A. Rampini, Eds., pp. 253–260. Gobbetti, E., and Marton, F. [2005]. Far Voxels – a multiresolution framework for interactive rendering of huge complex 3d models on commodity graphics 332 José A. Iglesias Guitián, Marco Agus platforms. ACM Transactions on Graphics 24, 3 (August 2005), 878–885. Proc. SIGGRAPH 2005. Gobbetti, E., and Scateni, R. [1998]. Virtual reality: Past, present, and future. In Virtual Environments in Clinical Psychology and Neuroscience: Methods and Techniques in Advanced Patient-Therapist Interaction, G. Riva, B. K. Wiederhold, and E. Molinari, Eds. IOS, Amsterdam, The Netherlands, November 1998, pp. 3–20. Gold, R., Buxton, B., Feiner, S., and Schmandt, C. [1993]. Ubiquitous computing and augmented reality. Computer Graphics 27, Annual Conference Series (1993), 393–394. Greenfield, D. [1996]. Virtual prototyping at rolls-royce. Intelligent Systems, Report 13, 1 (1996). Hernández, L., Taibo, J., Seoane, A., López, R., and López, R. [2003]. The empty museum. multi-user interaction in an immersive and physically walkable vr space. In CW ‘03: Proceedings of the 2003 International Conference on Cyberworlds (Washington, DC, USA, 2003), IEEE Computer Society, p. 446. Hernandez, L., Taibo, J., Seoane, A., Lopez, R., and Lopez, R. [2004]. The experience of the empty museum. displaying cultural contents on an immersive, walkable vr room. In CGI ‘04: Proceedings of the Computer Graphics International (Washington, DC, USA, 2004), IEEE Computer Society, pp. 436–443. Hernandez, L. A., Taibo, J., Blanco, D., Iglesias, J. A., Seoane, A., Jaspe, A., and Lopez, R. [2007]. Physically walking in digital spaces - a virtual reality installation for exploration of historical heritage. International Journal of Architectural Computing 5, 3 (September 2007), 487–506. Herndon, K., van Dam, A., and Gleicher, M. [1994]. The challenges of 3D interaction: A CHI‘94 workshop. SIGCHI Bulletin 26, 4 (Oct. 1994), 36–43. Herndon, K. P., Zeleznik, R. C., Robbins, D. C., Conner, D. B., Snibbe, S. S., and van Dam, A. [1992]. Interactive shadows. In Proceedings of the ACM Symposium on User Interface Software and Technology (1992), 3D User Interfaces, pp. 1–6. Hollerbach, J., and Jacobsen, S. [1995]. Haptic interfaces for teleoperation and virtual environments. In Workshop on Simulation and Interaction in Virtual Environments (1995). Huebschman, M., Munjuluri, B., and Garner, H. [2003]. Dynamic holographic 3-d image projection. Optics Express 11 (2003), 437–445. Jain, A. [1989]. Fundamentals of Digital Image Processing. Prentice-Hall, Englewood Cliffs, NJ 07632, USA, 1989. Jasnoch, U., Klement, E., H.Kress, and Schiffer, N. [1996]. Towards collaborative virtual prototyping in a world market. In Proceedings FAIM (Atlanta, 1996). Interfacce Uomo-Macchina nella Realtà Virtuale 333 Jones, A., McDowall, I., Yamada, H., Bolas, M. T., and Debevec, P. E. [2007]. Rendering for an interactive 360 degree light field display. ACM Trans. Graph 26, 3 (2007), 40. Kennedy, R. [1995]. Simulator sickness: relationship of different symptoms to equipment configuration and safety. In Proceedings of DSC‘95: Driving Simulation Conference (1995), pp. 42–58. Kim, S.-K., Son, J.-Y., and Honda, T. [2004]. HMD-type multifocus 3D display system. In Stereoscopic Displays and Virtual Reality Systems XI. Edited by Woods, Andrew J.; Merritt, John O.; Benton, Stephen A.; Bolas, Mark T. Proceedings of the SPIE, Volume 5291, pp. 347-353 (2004). (May 2004), A. J. Woods, J. O. Merritt, S. A. Benton, and M. T. Bolas, Eds., vol. 5291 of Presented at the Society of Photo-Optical Instrumentation Engineers (SPIE) Conference, pp. 347–353. Kosslyn, S. [1994]. Image and Brain: The resolution of the imagery debate. MIT Press, Cambridge, MA, USA, 1994. Landis, C. [1954]. Determinants of the critical flicker-fusion threshold. Physiological Review 34 (1954), 259–286. Leston, J., Ring, K., and Kyral, E. [1996]. Virtual Reality: Business Applications, Markets and Opportunities. Ovum, 1996. MacKenzie, C. L., and Booth, K. S. [1996]. Manipulation in virtual environments. In Proceedings of ACM CHI 96 Conference on Human Factors in Computing Systems (1996), vol. 2 of Workshops, p. 420. Matusik, W., and Pfister, H. [2004]. 3D TV: a scalable system for real-time acquisition, transmission, and autostereoscopic display of dynamic scenes. ACM Transactions on Graphics 23, 3 (Aug. 2004), 814–824. McKay, S., Mair, G., Mason, S., and Revie, K. [2000]. Membrane-mirror based autostereoscopic display for teleoperation and telepresence applications. In Proc. SPIE (2000), vol. 3957, pp. 198–207. McKenna, M., and Zeltzer, D. [1992]. Three dimensional visual display systems for virtual environments. Presence 1, 4 (1992), 421–458. McNeely, W. [1996]. Boeing‘s high performance visualization software: Flythru. CERN Computing Seminar, June 1996. Mora, B., and Ebert, D. S. [2004]. Instant volumetric understanding with orderindependent volume rendering. Computer Graphics Forum 23, 3 (2004), 489– 497. Moroney, W. F., and Moroney, B. W. [1991]. Utilizing a microcomputer based flight simulation in teaching human factors in aviation. In Proceedings of the Human Factors Society 35th Annual Meeting (1991), vol. 1 of Educators‘ Professional: Use of Microcomputers in Teaching Human Factors in Aviation, pp. 523–527. 334 José A. Iglesias Guitián, Marco Agus Mueller, C. [1995]. Architectures of image generators for flight simulators. Tech. Rep. TR95-015, Department of Computer Science, University of North Carolina - Chapel Hill, Apr. 24 1995. Wed, 26 Jun 1996 18:10:16 GMT. Pisanich, G. M., and Heers, S. T. [1995]. A laboratory glass-cockpit flight simulator for automation and communications research. In Proceedings of the Human Factors and Ergonomics Society 39th Annual Meeting (1995), vol. 2 of POSTERS, p. 951. Regan, E., and Price, K. [1993]. Some side-effects of immersion virtual reality. VR News (1993). Relke, I., and Riemann, B. [2005]. Three-dimensional multiview large projection system. In Proc. SPIE (2005), vol. 5664. Roberts, J. W., and Slattery, O. [2000]. Display characteristics and the impact on usability for stereo. In Proc. SPIE (2000), vol. 3957, p. 128. Rosen, J. M., and Laub, D. [1996]. Virtual reality and medicine: From training systems to performing machines. In Proceedings of the IEEE 1996 Virtual Reality Annual International Symposium (1996), pp. 5–13. Satava, R. M. [1993]. Virtual reality surgical simulator: The first steps. Surgical Endoscopy 7 (1993), 203–205. St.-Hillaire, P., Lucente, M., Sutter, J., Pappu, R., Sparrell, C. G., and Benton, S. [1995]. Scaling up the mit holographic video system. In Proc. 5th SPIE Symposium on Display Holography (1995), pp. 374–380. Stanley, M., Conway, P., Coomber, S., Jones, J., Scattergood, D., Slinger, C., Bannister, B., Brown, C., Crossland, W., and Travis, A. [2000]. A novel electro-optic modulator system for the production of dynamic images from giga-pixel computer generated holograms. In Proc. SPIE (2000), vol. 3956, pp. 13–22. State, A., Livingston, M. A., Garrett, W. F., and Hirota, G. [1996]. Technologies for augmented-reality systems: Realizing ultrasound-guided needle biopsies. Computer Graphics 30, Annual Conference Series (1996), 439–446. State, A., Livingston, M. A., Hirota, G., Garrett, W. F., Whitton, M. C., and Fuchs, H. [1996]. Technologies for augmented-reality systems: Realizing ultrasoundguided needle biopsies. In SIGGRAPH 96 Conference Proceedings (Aug. 1996), H. Rushmeier, Ed., Annual Conference Series, ACM SIGGRAPH, Addison Wesley, pp. 439–446. held in New Orleans, Louisiana, 04-09 August 1996. Sutherland, I. E. [1965]. The ultimate display. In Proceedings of IFIPS Congress (New York City, NY, May 1965), vol. 2, pp. 506–508. Massie, T. H. and Salisbury, J. K. [1994]. The phantom haptic interface: A device for probing virtual objects. In Proceedings of the ASME Winter Annual Meeting, Symposium on Haptic Interface for Virtual Environments and Teleoperator Systems (Chicago, IL, 1994). Interfacce Uomo-Macchina nella Realtà Virtuale 335 Thomas, B., Close, B., Donoghue, J., Squires, J., Bondi, P. D., and Piekarski, W. [2002]. First person indoor/outdoor augmented reality application: Arquake. Personal Ubiquitous Comput. 6, 1 (2002), 75–86. Urban, E. [1996]. The information warrior. IEEE Spectrum 32, 11 (1996), 66–70. Van Berkel, C., Parker, D., and Franklin, A. [1996]. Multiview 3d-lcd. In Proc. SPIE (1996), vol. 2653, p. 32. Vlahakis, V., Karigiannis, J., Tsotros, M., Gounaris, M., Almeida, L., Stricker, D., Gleue, T., Christou, I. T., Carlucci, R., and Ioannidis, N. [2001]. Archeoguide: first results of an augmented reality, mobile computing system in cultural heritage sites. In VAST ‘01: Proceedings of the 2001 conference on Virtual reality, archeology, and cultural heritage (New York, NY, USA, 2001), ACM, pp. 131–140. Wloka, M. [1995]. Interacting with virtual reality. In Virtual Environments and Product Development Processes, Chapman and Hall. Wloka, M. [1995]. Lag in multiprocessor virtual reality. Presence: Teleoperators and Virtual Environments 4, 1 (Sept. 1995), 50–63. Woodgate, G. J., Harrold, J., Jacobs, A. M. S., Moseley, R. R., and Ezra, D. [2000]. Flat-panel autostereoscopic displays: characterisation and enhancement. In Proc. SPIE (2000), vol. 3957, p. 153. Yagel, R., Stredney, D., Wiet, G. J., Schmalbrock, P., Rosenberg, L., Sessanna, D. J., Kurzion, Y., and King, S. [1996]. Multisensory platform for surgical simulation. In IEEE Virtual Reality Annual International Symposium 1996 (VRAIS‘96) (Mar. 1996), pp. 72–78. Youngblut, C., Johnson, R. E., Nash, S. H., Wienclaw, R. A., and Will, C. A. [1995]. Review of virtual environment interface technology. IDA Paper P3186, Institute for Defense Analysesc, Mar. 1995. Zajtchuk, R., and Satava, R. M. [1997]. Medical applications of virtual reality. Communications of the ACM 40, 9 (Sept. 1997), 63–64. 336 José A. Iglesias Guitián, Marco Agus José A. Iglesias Guitián svolge attività di ricerca nel campo della computer graphics e realtà virtuale. Dal 2004 ha collaborato con il gruppo di Visualizzazione per Ingegneria e Architettura e per il Design Urbano dell'Università della Coruña (Spagna), Università presso la quale ha conseguito la sua laurea in informatica. Attualmente collabora con il VideoLAB del CRS4 (Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna), dove si occupa di volume rendering, tecniche multi-resolution and light-field displays. Marco Agus è ricercatore presso il Visual Computing (ViC) group al Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna (CRS4). Ha conseguito la Laurea in Ingegneria Elettronica e il Dottorato di Ricerca in Ingegneria Meccanina presso l‘Università di Cagliari. I suoi interessi di ricerca includono il rendering di grandi modelli su display innovativi, la visualizzazione di modelli tridimensionali, lo studio delle interfacce aptiche e della simulazione chirurgica. Ha partecipato a progetti di ricerca industriale e di base mirati alla creazione di simulatori visuali e aptici realtime. Ha pubblicato numerosi contributi in libri, journals e atti di convegni nel campo della computer graphics e ha partecipato come membro di comitato scientifico, revisore e speaker a numerose conferenze internazionali. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy Fuori dallo schermo: Teoria e Pratica dell’Interazione Tangibile Patrizia Marti – Università degli Studi di Siena [email protected] Abstract. L‘interazione tangibile è un‘area di ricerca che tenta di colmare il divario tra il mondo fisico e quello digitale progettando oggetti e ambienti il cui controllo è fondamentalmente realizzato in modo fisico. Questo paradigma esplora lo spazio concettuale che si determina laddove il luogo in cui l‘azione inizia e la rappresentazione del suo effetto coincidono ed hanno proprietà fisiche. Questo capitolo offre un quadro teorico e applicativo del settore mostrando come non sia soltanto la fisicità a caratterizzare le interfacce tangibili quanto piuttosto le rappresentazioni e i controlli fisici dell‘informazione: la forma degli oggetti, la loro posizione, il loro orientamento giocano un ruolo fondamentale nella elaborazione dell‘informazione di cui l‘oggetto stesso è rappresentazione. Nel capitolo le caratteristiche dell‘interazione tangibile vengono illustrate attraverso temi di design ed esemplificate da casi studio. L‘argomentazione si conclude con la presentazione di alcuni domini applicativi che danno un‘indicazione puntuale delle potenzialità di sviluppo di questa area di ricerca. Keywords: Interfacce tangibili, interface grafiche, HCI, rappresentazioni, interaction design. Introduzione ―Interazione tangibile‖ è un termine ampio e generico che sottintende la ricerca in vari settori disciplinari, quello dell‘interazione uomo-macchina, della computer science, del design di prodotto, dell‘arte interattiva, della robotica. All‘inizio degli anni novanta, si sviluppa un settore di ricerca che sperimenta l‘uso di artefatti fisici come rappresentazioni e con- 338 Patrizia Marti trolli dell‘informazione digitale. Come era già avvenuto negli anni 80 a Xerox Parc con la rivoluzionaria introduzione delle interfacce grafiche, ancora a Parc Marc Weiser introduce il concetto di Ubiquitous Computing contrapponendo alla realtà virtuale l‘idea di ―embodied virtuality‖, un‘integrazione profonda del mondo elettronico in quello fisico (Weiser, 1991). I primi a teorizzare questo approccio e a realizzare i primi prototipi di ―tangibles‖ furono Wellner con il Digital Desk (Wellner, 1993), un tavolo interattivo sul quale è possibile manipolare fisicamente contenuti digitali; Fitzmaurice et al. con Bricks (Fitzmaurice, et al., 1995), blocchi che funzionano da controlli fisici per contenuti elettronici; e Ishii e Ullmer con Tangible Bits (Ishii & Ullmer, 1997), un paradigma innovativo di interazione fisica per ―afferrare e manipolare‖ informazioni digitali. La metafora che Ullmer e Ishii utilizzarono per illustrare questo concetto è quella dell‘abaco. L‘abaco infatti è un artefatto fisico computazionale che ha una specifica proprietà: l‘input dell‘azione e la rappresentazione del risultato della computazione sono indistinguibili. In sostanza l‘abaco non ha bisogno di una tastiera o di qualsiasi altro input device per funzionare, né del resto di un meccanismo di output per mostrare il risultato della computazione. Tutti gli elementi dell‘abaco, la cornice, le tessere mobili, i supporti che le sostengono sono sia rappresentazioni fisiche e manipolabili di valori numerici astratti e di operazioni matematiche, che controlli fisici delle operazioni eseguibili con lo strumento. Questa integrazione così profonda e così ancorata al mondo fisico di rappresentazione e controlli segna una linea di demarcazione fondamentale con il concetto di interfaccia grafica propria del mondo dell‘HCI (HumanComputer Interaction). Infatti mentre le interfacce grafiche per funzionare hanno bisogno di meccanismi di input per esprimere un comando e di output per rappresentare l‘effetto di quel comando, le interfacce tangibili esplorano lo spazio concettuale che si determina laddove il luogo in cui l‘azione inizia e la rappresentazione del suo effetto coincidono ed hanno proprietà fisiche. Tuttavia non è la fisicità a segnare un confine netto tra le interfacce grafiche e le interfacce tangibili. Ovviamente anche il mouse, la tastiera, lo schermo del computer sono oggetti fisici. Ciò che fa Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 339 realmente la differenza sono le rappresentazioni fisiche dell‘informazione, che nelle interfacce tangibili coincidono con l‘oggetto fisico e con le proprietà che esso rappresenta. La forma degli oggetti, la loro posizione, il loro orientamento giocano un ruolo fondamentale nella elaborazione dell‘informazione di cui l‘oggetto è rappresentazione. E le caratteristiche fisiche di un oggetto continuano ad avere un ruolo fondamentale in termini di affordance per l‘interazione e di rappresentazione dello stato del sistema anche nel caso in cui le componenti digitali non siano per qualche ragione accessibili. Lo stesso ovviamente non si può dire per un mouse, il quale se collegato ad un computer spento non ci comunica alcuna informazione sullo stato del sistema. Se tuttavia vogliamo comporre un quadro concettuale sufficientemente ampio e articolato dell‘interazione tangibile e delle opportunità che offre per il design dell‘interazione, dobbiamo considerare non solo gli oggetti come possibili mediatori per l‘accesso al mondo digitale ma più in generale tutti gli elementi che giocano un ruolo nel dar forma e significato all‘azione umana. L‘azione umana infatti è sempre situata in un particolare contesto fisico e sociale e il controllo che gli individui possono esercitare durante l‘interazione con il mondo esterno è contingente e dipende criticamente dal modo in cui il contesto si configura e dalle rappresentazioni disponibili. La fruizione di un‘opera d‘arte ad esempio dipende criticamente dalle caratteristiche dello spazio fisico che ospita l‘opera, dalla presenza o meno di altri osservatori che può facilitare (un esperto che descrive) o danneggiare (affollamento) l‘esperienza contemplativa; dalle qualità ambientali (luci, temperatura, posizionamento); dalle informazioni disponibili e dalla loro accessibilità. Per questo motivo per comprendere propriamente la natura dell‘azione umana e progettare un‘adeguata relazione con il mondo fisico, è necessario interpretarla nel contesto in cui occorre (Suchman, 1987). Elementi irrinunciabili di contesto non sono dunque soltanto gli oggetti fisici e le loro rappresentazioni ma anche lo spazio dell‘interazione, quello fisco, quello fenomenologico, quello emotivo e socio-culturale che caratterizzano e rendono distintiva un‘esperienza interattiva. 340 Patrizia Marti 1. Attività, Strumenti e Rappresentazioni Come anticipato nell‘introduzione, non è la fisicità la caratteristica precipua e distintiva dell‘interazione tangibile ma piuttosto l‘uso di rappresentazioni fisiche dell‘informazione e di controlli insiti nel mondo fisico. Per comprendere dunque la natura di tale interazione è necessario capire cosa sono e come funzionano le rappresentazioni e il loro impatto sull‘azione umana. La psicologia cognitiva ha tradizionalmente studiato i processi mentali che sottintendono alla capacità umana di elaborare informazioni spesso trascurando il ruolo che hanno artefatti e strumenti nel modificare il nostro modo di pensare e di prendere decisioni. Tuttavia l‘abilità umana di elaborare informazioni è limitata e fallace, e inoltre eseguire ragionamenti complessi senza l‘uso di strumenti può essere difficile e talvolta proibitivo. Gli strumenti possono rappresentare, immagazzinare, elaborare informazione e il modo in cui sono progettati modifica la nostra capacità di pensare; in sostanza possono renderci stupidi o intelligenti (Norman, 1991). L‘approccio teorico della Cognizione Distribuita (Hutchins, 1995) ha prodotto ampia evidenza empirica sull‘importanza di studiare l‘azione umana, sia in contesti reali di lavoro che in condizioni sperimentali (Zhang & Norman, 1994), analizzando le prestazioni cognitive così come occorrono naturalmente piuttosto che in isolamento dagli strumenti o da altre risorse di contesto. La cognizione umana infatti non è confinata nella testa degli individui ma piuttosto è distribuita tra gli individui e gli artefatti presenti nell‘ambiente esterno. Secondo questo approccio, un sistema ―cognitivo‖ è un sistema composto da un individuo che interagisce con un insieme di strumenti oppure da un gruppo di individui che interagiscono tra loro mediante artefatti esterni. Un sistema cognitivo così definito fornisce le risorse informative necessarie all‘esecuzione di un‘attività. Queste risorse possono essere rappresentate internamente, nella mente dell‘individuo, o nell‘ambiente esterno, in quest‘ultimo caso possono trovare varie forme di rappresentazione. Facciamo qualche esempio. A chiunque è capitato di trovarsi in un bar affollato per prendere un caffè. Il barista che prende le ordinazioni rappresenta le richieste utilizzando lo spazio del bancone e i Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 341 piattini da caffè per significare la corrispondenza dell‘ordine (il piattino si trova di fronte a chi ha ordinato il caffè), il numero dei caffè ordinati (tanti quanti sono i piattini), la tipologia (piatto grande per il cappuccino, più piccolo per il caffè). I più ingegnosi potrebbero posizionare i piattini sul banco rispetto alla sequenza d‘ordine, ad esempio una prima fila vicina ai clienti che hanno ordinato prima, e una seconda fila per quelli successivi. Su questa falsariga si potrebbero immaginare infinite varianti di rappresentazioni esterne dell‘informazione: la presenza del cucchiaino sul piattino (caffè corretto?), l‘uso di piattini colorati per i decaffeinati ecc. Il barista in sostanza rappresenta l‘informazione in modo spaziale e tangibile, ed esegue il compito meccanicamente e senza carico cognitivo perché sono le rappresentazioni esterne del compito ad elaborare l‘informazione in modo rapido ed efficace. L‘informazione dunque è disponibile là dove necessaria, lo spazio fisico accoglie e organizza l‘attività, la manipolazione dei piattini consente di modificare in modo semplice ed immediato una configurazione per significare lo stato del sistema (quanti ordini ci sono in corso, la tipologia del prodotto richiesto ecc.). Questo esempio illustra alcune proprietà fondamentali del sistema cognitivo distribuito: l‘informazione è distribuita nel tempo e sta a significare lo stato del sistema l‘informazione è distribuita nello spazio e sta a significare puntualmente il compito da eseguire l‘artefatto modifica l‘attività (cf. anche Zhang & Norman, 1994). Piuttosto che memorizzare sequenze di richieste e ricordare la tipologia dell‘ordine il barista esegue associazioni meccaniche tra lo specifico prodotto e la sua rappresentazione. La rappresentazione del compito è dunque distribuita in parte nella mente di chi dispone e usa gli oggetti e in parte nel mondo esterno. "The basic principle of distributed representations is that the representational system of a distributed cognitive task can be considered as a set, with some members internal and some external. Internal representations are in the mind, as propositions, productions, schemas, mental images, connectionist networks, or other forms. External rep- 342 Patrizia Marti resentations are in the world, as physical symbols or as external rules, constraints, or relations embedded in physical configurations. Generally, there are one or more internal and external representations involved in any distributed cognitive task." – (Zhang & Norman 1994, p. 89). A questo proposito Norman (1993) suggerisce alcune linee guida per la progettazione di rappresentazioni esterne efficaci: fare in modo che esse catturino le caratteristiche rilevanti e critiche del dominio rappresentato che siano appropriate per chi esegue l‘attività, quindi che siano in grado di migliorare il processo di interpretazione del compito che siano appropriate all‘attività, e cioè in grado di migliorare la capacità di prendere decisioni e fare giudizi, soprattutto dove l‘attività sia di tipo cooperativo. La natura delle rappresentazioni e la loro distribuzione tra risorse interne ed esterne è la base da cui partire per comprendere il funzionamento dell'interazione, in particolare dell‘interazione tangibile, e per imparare a progettarla. 2. Temi di Design per l’Interazione Tangibile L‘idea che l‘interfaccia tra mondo fisico e digitale possa essere spostata ―fuori dallo schermo‖ e attualizzata nel mondo reale ha delle forti implicazioni per il design. In questo modello infatti possiamo interagire con oggetti e spazi fisici che sono dotati di proprietà computazionali. Per il designer progettare secondo questo modello significa esplorare nuove metafore, far leva sulle nostre capacità fisiche (banalmente il fatto di poter utilizzare due mani contemporaneamente ed essere in grado di modificare lo spazio per raggiungere alcuni obiettivi), e sfruttare informazioni sul nostro essere entità fisiche (sapere chi siamo, dove siamo) e agire di conseguenza. In quello che segue presentiamo alcuni temi di design connessi con la ricerca nel settore dell‘interazione tangibile, che possono aiutarci a comporre un quadro concettuale sufficientemente ampio e Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 343 articolato dell‘interazione tangibile. Ognuno dei temi verrà poi illustrato con esempi e casi studio. Per ulteriori approfondimenti concettuali sui temi di design connessi con l‘interazione tangibile si veda anche Hornecker e Buur (2006); Holmquist et al (1999), Ullmer and Ishii (2000). La manipolazione Il tema più proprio e classico dell‘interazione tangibile è quello della Manipolazione. Per Manipolazione Tangibile intendiamo l‘uso di rappresentazioni materiali che abbiano delle qualità tattili e che possano essere manipolate in modo fisico. In questo tipo di modalità di interazione interagiamo direttamente con oggetti e facciamo esperienza della loro fisicità. Un‘esperienza che può essere molto variegata, dal piano funzionale, a quello sensoriale, emotivo ed estetico. L‘esperienza della manipolazione può far leva su un mapping anche molto complesso tra l‘azione e il suo effetto, e la sfida del design è quella di definire una semantica che possa sfruttare compiutamente le proprietà fisiche dell‘oggetto per offrire rappresentazioni efficaci dell‘informazione. Ad esemplificazione del tema della manipolazione presentiamo Active Surfaces, un sistema modulare di mattonelle (tiles) in grado di galleggiare e di comunicare a distanza, utilizzato per sostenere attività terapeutiche e di gioco in acqua con bambini con disabilità motorie o cognitive (Marti & Pollini 2008, Grönvall, et al., 2006a, 2006b). In Active Surfaces ogni tile è una ―mattonella‖ quadrata di 30*30*5 cm, assemblabile con le altre grazie a piccoli magneti posti sullo spessore. Ogni tile è in grado di riconoscere la propria posizione all‘interno di una sequenza e il proprio orientamento rispetto alle altre, e possiede una superficie intercambiabile che rappresenta un elemento del gioco. Esempi di gioco sono la composizione di parole a partire da lettere, il domino, il puzzle, lo scarabeo, la costruzione di sequenze, come mostrato nella Figura 1. L‘applicazione è ispirata dall‘idea di rendere attive e interattive le superfici che compongono l‘ambiente della piscina (il pavimento, le pareti e la superficie dell‘acqua) e di utilizzarle per la stimolazione di attività di gioco con bambini disabili. 344 Patrizia Marti Figura 1: Active Surfaces ed esempio di gioco in acqua Le proprietà psico-dinamiche dell‘acqua fanno della piscina un ambiente ideale per l‘intervento riabilitativo. Attraverso il movimento e la manipolazione fisica di oggetti, bambini con diversi gradi di abilità (disabilità multiple, deficit fisico-motori e ritardi cognitivi) possono raggiungere progressivamente una migliore conoscenza del proprio corpo e della propria capacità d‘azione. Il sistema è progettato per essere flessibile e configurabile dal terapista secondo i bisogni specifici di ciascun intervento terapeutico grazie a dinamiche di programming-by-example. In pratica il terapista sceglie la sequenza che vuole venga riprodotta dal bambino, posizionando le tile nella configurazione corretta. Successivamente invia, tramite infrarossi ad ogni unità della sequenza, l‘informazione sulla posizione e l‘orientamento del proprio vicino mediante una speciale tile chiamata ―assembler tile‖. Le tile a quel punto vengono messe in acqua e ogni volta che il bambino indovinerà la sequenza corretta, queste si illumineranno prima sui lati correttamente assemblati e poi sull‘intera sequenza quando il gioco è stato risolto. Con Active Surfaces vengono costruiti diversi tipi di giochi modificando la configurazione delle sequenze e la scelta delle superfici sulle quali è basata la costruzione. Ogni tile può essere configurata per produrre diversi tipi di feedback (principalmente visivo e tattile) in modo che durante il gioco di costruzione il bambino possa ricevere dal sistema informazioni sulla correttezza delle proprie azioni e la risoluzione finale del gioco. Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 345 Nel caso di Active Surfaces la manipolazione delle rappresentazioni fisiche del gioco di composizione è un fattore chiave per l‘interazione e il raggiungimento degli obiettivi terapeutici. Ruotando, spostando e muovendo le tiles il bambino compie una serie di azioni che non sempre lo avvicinano immediatamente alla soluzione del compito ma piuttosto lo mettono in una ―posizione cognitiva migliore‖ per calcolare, riconoscere, valutare le mosse per la soluzione del gioco. Kirsh e Maglio (1994) definiscono questo tipo di azioni con il nome di azioni epistemiche, cioè quelle azioni che vengono intraprese per modificare il mondo allo scopo di ricavare informazioni su di esso e migliorare lo stato computazionale-informativo del soggetto che le esegue. Queste azioni si distinguono dalle azioni pragmatiche, quelle cioè che vengono intraprese per modificare il mondo e raggiungere direttamente un obiettivo pratico desiderato. Anche se le azioni epistemiche non hanno lo scopo di raggiungere un obiettivo e risolvere un compito, tuttavia possono migliorare la performance cognitiva in vari modi: riducendo la memoria necessaria alla computazione mentale riducendo il numero di passi necessari alla computazione mentale riducendo la probabilità di errore della computazione mentale. Le proprietà delle azioni epistemiche sono state dimostrate in molti esperimenti di laboratorio. Per un approfondimento si veda l‘esperimento con il gioco del Tetris (Kirsh & Maglio,1994). Nel caso dell‘uso di Active Surfaces la manipolazione degli oggetti fisici stimola una continua produzione di azioni epistemiche fatte di rotazioni e traslazioni che consentono di ricavare informazioni sulle tiles (quelle ambigue vengono ruotate e spostate più spesso), risparmiare energie mentali (la rotazione fisica è mediamente più rapida e più affidabile di quella mentale), il processo di assemblaggio viene semplificato dalla presenza del feedback luminoso. Dal punto di vista della manipolazione delle rappresentazioni fisiche del gioco, in Active Surface queste sono distribuite nel tempo dal momento che le sequenze sono pre-computate dal terapista e in 346 Patrizia Marti ogni momento il bambino può sapere qual è lo stato del sistema (quante tile sono state correttamente assemblate tramite il feedback luminoso) e quanti elementi restano da comporre per arrivare alla soluzione (le tile ancora spente). Gli elementi concettuali del gioco sono distribuiti nello spazio: ogni gioco ha le sue geometrie e le affordance delle superfici aiutano il bambino a trovare la sequenza corretta. Ogni gioco è adattato alle abilità dei bambini e la complessità del gioco (numero di unità, rapidità del feedback, tipologia di gioco) è scalabile e configurabile in modo diverso a seconda del contesto d‘uso. Muovere le tile equivale a iniziare una computazione il cui risultato è rappresentato fisicamente sull‘oggetto stesso. Lo spazio Il ruolo dello spazio fisico nell‘interazione tangibile è tema estremamente ampio e si riferisce al fatto che l‘interazione tangibile avviene sempre nello spazio fisico. Questo significa che il corpo umano diventa il punto di riferimento rispetto al quale le proprietà dell‘oggetto o dello spazio stesso vengono percepite e interpretate, talvolta in modo implicito, e acquisiscono significato. L‘interazione spaziale ci permette di muoverci e di utilizzare tutto il nostro corpo e i nostri sensi per agire e rendere significativa la nostra azione. Ad esemplificazione di questo tema citiamo il caso di HIPS 1 una guida elettronica portatile che consente ai turisti in visita in una città d‘arte o in un museo di navigare allo stesso tempo lo spazio fisico e lo spazio delle informazioni ad esso relative. HIPS guida i turisti nell‘esplorazione dell‘ambiente, fornendo informazione personalizzata e contestualizzata grazie alla capacità di monitorare la posizione e l'orientamento dell‘utente (Marti et al. 2001). L‘interazione con il sistema infatti avviene principalmente mediante il movimento dell‘utente nello spazio museale. I visitatori ricevono l‘informazione in parte sul display di un palmare ed in parte attraverso speciali auricolari. L‘informazione viene generata in modo dinamico, integrata con mappe ed altre indicazioni spaziali che consentono di rintracciare oggetti e luoghi di interesse. La posizione dei visitatori nello spazio è determinata tramite infrarossi negli ambienti chiusi e tramite GPS all‘aperto. 1 http://www.media.unisi.it/ips Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 347 L‘utente interagisce col sistema semplicemente muovendosi nello spazio fisico e il sistema adatta i contenuti alle strategie di visita (contenuti più approfonditi per chi spende molto tempo davanti alle opere e si muove lentamente; commenti più concisi per chi percorre le sale rapidamente; nuove informazioni per chi torna a vedere qualcosa che ha già visto). Dal punto di vista del design del sistema, due sono le proprietà del contesto che vengono modellizzate: le strategie di visita e i contenuti artistici così come sono distribuiti nello spazio. Dal momento che il sistema è in grado di rilevare la posizione e il movimento dei visitatori nelle sale, e dunque anche il tempo speso di fronte ad ogni opera, è possibile evincere dalla geometria del percorso la strategia di visita adottata (lineare, lungo le pareti e accurata, oppure veloce e al centro della sala). Per quello che riguarda invece i contenuti descrittivi delle opere d‘arte, questi vengono associati a particolari posizioni nello spazio fisico, che corrispondono a ciò che può essere visto di un‘opera da uno specifico punto di osservazione (si veda la matrice 8*3 dei punti di osservazione definiti per la Sala del Mappamondo del Museo Civico di Siena in Figura 2). A questo punto, una volta definite le strategie di visita e dopo aver spazializzato l‘informazione non resta che sovrapporre i due modelli, quello dell‘informazione distribuita nello spazio e quello della specifica strategia di visita adottata. In questo modo è possibile ottenere una descrizione delle opere personalizzata per tempi, modi e contenuti, il cui accesso è mediato dal movimento nello spazio fisico (Marti, 2001). Con HIPS, siamo dunque in presenza di un particolare tipo di interazione tangibile in cui lo spazio fisico è l‘interfaccia del sistema e il movimento dei visitatori il trigger dell‘azione. L‘informazione è integrata nell‘ambiente fisico e le geometrie del movimento dei visitatori così come le loro soste di fronte alle opere d‘arte sono elementi che abilitano la risposta del sistema. Anche in questo caso di interazione tangibile il risultato dell‘azione viene rappresentato nel luogo in cui l‘azione è stata iniziata. 348 Patrizia Marti Figura 2: Il modello dei contenuti descrittivi delle opera d‘arte della Sala del Mappamondo del Museo Civico di Siena Embodiement Hornecker e Bur (2006) definiscono Embodied Facilitation quella proprietà dell‘interazione tangibile per la quale la particolare configurazione che gli oggetti materiali acquisiscono nello spazio influenza i comportamenti sociali e li facilita. Il modo in cui lo spazio logico e fisico è organizzato suggerisce modalità ed opportunità per l‘interazione e la particolare rappresentazione fisica di un oggetto invita a relazionarsi e ad interagire, stimolando modalità d‘uso di tipo emergente. Il tema dell‘embodiment ha acquisito in tempi recenti grande enfasi nell‘HCI. Paul Dourish (2001) sostiene che l‘embodiment è il denominatore comune di due aree dell‘HCI le cui ricerche sono tradizionalmente state condotte in maniera indipendentemente l‘una dall‘altra: l‘interazione tangibile, di cui ci occupiamo in questo ca- Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 349 pitolo e il social computing, e cioè il tentativo di incorporare componenti sociologiche nel design dell‘interfaccia. Nel progettare sistemi interattivi, entrambe le discipline fanno leva sulla familiarità e la facilità con la quale usiamo artefatti fisici e ci relazioniamo socialmente. ―Entrambi gli approcci condividono il fatto che facciamo esperienza del mondo interagendo direttamente con esso, esplorando le opportunità di azione che ci vengono offerte, sia attraverso particolari configurazioni fisiche, sia mediante significati costruiti socialmente. (Dourish 2001 liberamente tradotto pp16-17). Elaborare questo argomento in chiave progettuale significa considerare l‘embodiement come una caratteristica distintiva dell‘interazione tangibile di mediare la comunicazione, facilitare lo scambio sociale e sostenere processi di co-costruzione di significati. In quello che segue esemplifichiamo questa chiave di lettura attraverso il caso studio dei Rolling Pin (RP) (Marti & Giusti 2007). I RP sono un sistema modulare di tubi semi-trasparenti e autonomi, in grado di comunicare tra loro. Ogni RP è lungo 30cm, ha un diametro di 5cm e un peso di 350gr. Si tratta dunque di oggetti facili da afferrare e muovere con una sola o entrambe le mani. Le componenti elettroniche sono collocate all‘interno dei tubi e servono a misurare il loro orientamento nello spazio e la velocità con cui vengono ruotati. I RP sono in grado di emettere feedback di tipo sonoro, luminoso e tattile, e di comunicare tra loro, o con qualsiasi altro oggetto dotato di una tecnologia di comunicazione radio similare. Questa particolare caratteristica dei RP li rende un esempio illuminante di embodiment: il feedback locale che emettono non dipende soltanto dalla velocità di rotazione e dall‘orientamento che ognuno di loro può avere se usato singolarmente, ma anche dalla rotazione e dall‘orientamento di uno o più RP manipolati da altri utilizzatori. In quanto sistema quindi, i RP influenzano reciprocamente il loro comportamento abilitando scambi dialogici e interazioni anche molto complesse tra chi li usa. Ogni volta che gli utilizzatori riescono a sincronizzare il loro movimento, i RP emettono lo stesso tipo di feedback luminoso, sonoro e tattile. 350 Patrizia Marti Figura 3: l‘uso dei RP con un paziente anziano I RP sono stati progettati e sperimentati in contesti terapeutici (Marti, et al., 2007). Il loro particolare design fisico è stato ispirato dall‘osservazione di pattern senso-motori di pazienti anziani affetti da demenza che mostrano durante il giorno ripetuti comportamenti stereotipici di affaccendamento. In sostanza muovono le mani su superfici orizzontali come se volessero far rotolare avanti e indietro degli oggetti immaginari. I RP sfruttano questa tendenza naturale all‘azione e ne fanno uno strumento di comunicazione. I pazienti anziani affetti da demenza infatti hanno grandi difficoltà di comunicazione: la demenza porta alla perdita progressiva di abilità sociali e all‘isolamento. Durante le sperimentazioni i RP hanno mostrato di essere uno strumento di mediazione di scambi sociali non verbali tra il terapista e il paziente. Stimolati da pattern senso-motori familiari e da un design inconsueto, i pazienti entrano in un contatto empatico con il terapista, imitando gesti, inventando coreografie di luci e suoni, promuovendo un linguaggio gestuale. Le sperimentazioni con bambini autistici hanno fatto emergere attitudini simili allo scambio sociale. La particolare interazione tangibile offerta dai RP ha dunque una caratteristica estremamente peculiare. Lo scambio dialogico è progettato come proprietà fisica dell‘oggetto: ogni utente per usare il suo strumento e ricevere feedback ha bisogno dell‘altro come risorsa della sua azione. I RP facilitano e mediano uno scambio dialogico e la relazione empatica tra persone, in una parola realizzano l‘embodied interaction. Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 351 Espressività Ancora Hornecker e Bur (2006) definiscono Expressive Representation l‘insieme delle caratteristiche delle rappresentazioni digitali e materiali utilizzate nell‘interazione tangibile e legate alla loro espressività, leggibilità o interpretabilità. Si tratta di rappresentazioni ibride che combinano mondo fisico e digitale e che richiedono che l‘interazione sia progettata ad entrambi i livelli in modo da armonizzare le proprietà fisiche degli oggetti con quelle digitali delle tecnologie dell‘informazione. Il punto qui non è quello di ―aumentare‖ gli oggetti fisici con componenti digitali, ma progettare il mapping tra fisico e virtuale in modo da avere un‘interazione naturale ad entrambi i livelli, un‘esperienza sensoriale ricca che possa dar spazio all‘espressività e alla costruzione di significati, alla produzione creativa di contenuti, alla condivisione. Il caso studio di POGO esemplifica chiaramente il concetto2. POGO è un ambiente di apprendimento distribuito che permette a bambini in età scolare di costruire storie mescolando elementi fisici e virtuali. L‘ambiente è composto di strumenti e superfici interattive che i bambini utilizzano per creare e rappresentare dinamicamente delle storie. POGO è dunque un mondo di storie, il mezzo espressivo che i bambini utilizzano di preferenza per comunicare, fare esperienze, costruirsi un modello del mondo che imparano a conoscere (Rizzo, et al., 2003). La costruzione di storie è una tendenza pervasiva nello sviluppo del bambino e quanto più la storia è coinvolgente da un punto di vista emotivo ed esperienziale tanto più è veicolo di apprendimento. POGO è un ambiente fatto di oggetti reali e virtuali che i bambini possono manipolare per costruire storie, interagendo con uno spazio che consente l‘esperienza di tutte le modalità sensoriali, e sviluppando le proprie potenzialità creative, comunicative e sociali. Gli elementi fondamentali di questo ambiente si basano su alcuni motivi ispiratori principali: uno spazio in cui a partire da pochi semplici elementi (un‘attività di classe in cui i bambini producano disegni, storie, suoni con strumenti tradizionali) sia possibile inventare nuove attività (drammatizzare una storia in cui gli oggetti dise2 http://www.youtube.com/watch?v=4xjmNVgK4Vc 352 Patrizia Marti gnati dai bambini diventano oggetti virtuali a cui attribuire proprietà e comportamenti) editando e manipolando elementi che i bambini stessi hanno creato, per farli diventare elementi di nuove storie. Figura 4: le card L‘ambiente può enfatizzare le caratteristiche fisiche (ad esempio la voce) e comportamentali (le espressioni) dei bambini che raccontano una storia e modificare l‘immagine fisica dei personaggi associando caratteristiche virtuali. Elementi di transizione tra il mondo fisico e quello virtuale della storia infatti sono le card, oggetti fisici provvisti di tag (un identificatore) che possono memorizzare elementi della storia (un‘immagine, un suono, uno sfondo) ed essere letti/attivati da altri strumenti che ne riproducono il contenuto (schermi a parete, tappeti, display convenzionali, distorsori di suono ecc.). Più card possono essere sovrapposte allo stesso elemento di sfondo e quindi diversi elementi fisici possono essere arricchiti da componenti digitali sonore o visive. Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 353 Figura 5: La visualizzazione dei contenuti di una card (a sinistra) e la produzione dei suoni su un tappeto sonoro (a destra) I bambini possono creare elementi della storia disegnandoli su un piano di lavoro touch screen, oppure acquisendo la loro stessa immagine per diventare personaggio della storia, oppure acquisendo l‘immagine di un qualsiasi elemento del mondo fisico (un orsacchiotto), associando ad essa dei suoni in modo fisico (ad esempio mettendo al collo dell‘orsacchiotto una card) e valutando l‘effetto della combinazione nello spazio digitale. Figura 6: una bambina acquisisce la propria immagina e la modifica Ad ogni oggetto fisico può essere associato un qualsiasi elemento espressivo digitale contenuto nella card. In questo modo i bambini possono continuare ad editare all‘infinito una stessa storia, modificandone dinamicamente i personaggi e ogni altro. 354 Patrizia Marti La tecnologia dunque diventa in questo contesto un mezzo per stabilire connessioni nuove tra oggetti, utilizzando ambienti multisensoriali. Il progettista ha il ruolo di progettare insieme alle insegnanti quegli spazi di opportunità intellettuali ed esperienziali che i bambini potranno trasformare ed evolvere con la loro esperienza personale e la loro capacità creativa. Un sistema così costruito costituisce un ambiente ideale per il raggiungimento di alcuni obiettivi pedagogici fondamentali per lo sviluppo del bambino: espandere l‘esperienza sensoriale stimolando attività creative non solo individuali ma anche socialmente condivise sviluppare un linguaggio emotivo per esprimere sensazioni ed emozioni esternalizzare il prodotto della propria immaginazione e condividerlo con gli altri sviluppare l‘intersoggettività e cioè la capacità di leggere la mente degli altri e di sapersi relazionare sviluppando una storia condivisa stimolare la riflessione e il ragionamento metacognitivo, attraverso la progettazione del plot e la costruzione e l‘orchestrazione di tutti gli elementi della storia. 3. I Domini Applicativi La manipolazione tangibile nelle sue declinazioni tecnologiche in oggetti, spazi e ambienti per lo scambio sociale, trova espressione in domini applicativi molto diversi. In quello che segue offriamo una panoramica delle applicazioni emergenti. Educazione Un settore di grande fermento e sperimentazione di tecnologie tangibili è quello dell‘educazione. In molti hanno teorizzato l‘importanza nell‘apprendimento di fare esperienza diretta dell‘oggetto di studio coinvolgendo tutte le modalità sensoriali. Il Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 355 costruzionismo è forse l‘approccio che più profondamente ha segnato un capovolgimento di prospettiva nell‘interpretazione dei processi di apprendimento: la conoscenza viene costruita attivamente dalla mente di chi apprende (Piaget, 1972) all‘interno di un processo sociale di tipo dialogico che avviene mediante co-costruzione di conoscenza: ―Nell‘atto di comprendere, si opera per cogliere il posto occupato da un‘idea, un fatto, in una più generale struttura di conoscenza.‖ (Bruner, 1996). La chiave dell‘apprendimento è la costruzione di conoscenza attraverso il coinvolgimento nella costruzione di artefatti in contesti sociali i cui valori fondanti siano: la condivisione, l‘esternalizzazione attraverso la rappresentazione e la negoziazione di significati (Papert, 1993). Sulla base di questi assunti è facile intuire come le tecnologie tangibili possano fornire uno spazio di espressione e di esperienza nei processi di apprendimento. Paradigmatico è il caso dei Digital Manipulatives (Resnik, 1998), blocchi componibili dotati di sensori e attuatori e capaci di comunicare tra loro. I Digital Manipulatives vengono utilizzati in ambito didattico per costruire simulazioni, fare esperimenti e progettare artefatti interattivi. Mediante la programmazione, la manipolazione e la composizione dei blocchi, gli studenti non soltanto fanno esperienza di eventi che riguardano la fisica, la matematica, la biologia, ma hanno la possibilità di progettare i propri strumenti di conoscenza e di usarli collaborativamente con altri studenti nell‘esplorazione di concetti complessi. I blocchi sono unità abilitanti con un alto potenziale combinatorio: lo studente esposto ad un certo tipo di contenuto, attribuisce significato a quel contenuto progettando gli strumenti di cui ha bisogno per esplorarlo. Il significato così costruito è poi presentato agli altri studenti e al docente attraverso una dimostrazione del funzionamento dell‘artefatto progettato, avviando un processo di negoziazione e co-costruzione di significati. L‘apprendimento diventa in questo modo un‘attività coinvolgente ed efficace che fa leva sul fatto che idee nuove si saldano su intuizioni personali e conoscenze pregresse. Il ruolo del docente è 356 Patrizia Marti quindi quello di estrapolare le proprietà salienti del dominio, e mostrare il potenziale espressivo delle tecnologie abilitanti in relazione a quelle proprietà. Il ruolo dello studente è quello di interpretare i suggerimenti del docente e progettare l‘attività di apprendimento che meglio individua il legame tra i contenuti proposti, il potenziale delle tecnologie, i propri interessi e l‘uso di conoscenza pregressa sviluppata in altri domini. In questo modo ogni percorso di apprendimento diventa personale, autentico e originale nelle modalità e nei risultati. Il gioco Giocare implica l‘uso di una grande varietà di oggetti, stratagemmi, strategie e tecniche tutti volti ad ottenere piacere e divertimento durante l‘attività. Le tecnologie tangibili stimolano l‘esercizio di abilità fisiche ma anche di ragionamento e strategia. Si pensi al successo della console Nintendo Wii che utilizza controlli fisici di rappresentazioni digitali del gioco e richiede un certo sforzo di coordinamento motorio nell‘eseguire comandi e misurarsi in competizioni sportive. Figura 7. bambini che giocano con tangible tiles Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 357 Tutto calato nel mondo fisico invece, sia nei controlli che nelle rappresentazione, è un innovativo concetto di playground (Lund, et al., 2005) un progetto la cui motivazione principale è quella di dare una risposta al crescente problema della obesità infantile che sia complementare alla dieta alimentare e allo sport: il coinvolgimento in attività di gioco che richiedano un considerevole sforzo fisico. Il sistema è costituito da tangible tiles, mattoni di plastica che possono essere combinati in varie configurazioni e formare un tappeto sensibile. Il tappeto ospita diversi tipi di gioco: ad esempio competere in un gruppo a chi per primo salta sul mattone che emette una luce rossa per spegnerla; oppure coordinarsi con un compagno per premere contemporaneamente il maggior numero possibile di mattoni illuminati con lo stesso colore ecc.. Sistemi di programmazione Per quanto possa sembrare contro intuitivo, la programmazione di un sistema può avvenire secondo modalità completamente fisiche, e cioè eseguendo azioni che rappresentano script per il sistema. Esistono due principali paradigmi di programmazione fisica: il programming by example in cui l‘utente esegue un pattern di azioni con oggetti fisici e il sistema li riproduce (si veda anche il caso discusso nel paragrafo 3.1); e il programming by building, in cui l‘utente costruisce una struttura utilizzando blocchi fisici e il sistema la interpreta come un modello geometrico o matematico (si veda anche l‘esempio illustrato nel paragrafo 4.5). Riabilitazione Recentemente si è assistito allo sviluppo di tecnologie tangibili a sostegno di interventi terapeutici per la disabilità. Diversamente dalle tecnologie protesiche progettate per compensare gli effetti del deterioramento funzionale (cognitivo, fisico, socio-relazionale) e facilitare l‘esecuzione di task specifici, le tecnologie terapeutiche tangibili rappresentano uno strumento per sostenere il paziente disabile nel perseguimento di obiettivi terapeutici altrimenti difficili da raggiungere. Esempi di tecnologie di questo tipo variano dai pioneristici studi con robot configurabili e semoventi nella terapia con bambini affetti 358 Patrizia Marti da Sindrome Autistica (Dautenhahn, et al., 2001; Druin, et al., 2000), agli ambienti multi-sensoriali per l‘espressività individuale (Ellis & Van Leeuwen 2000; Brooks 2004, 2006), fino ai più recenti esempi di robotica modulare per il supporto all‘attivazione fisico motoria e agli scambi relazionali (Lund & Marti 2005; Marti, et al., 2005; Marti & Giusti 2007). Modellizzazione e costruzione Molti sistemi tangibili utilizzano cubi, blocchi e mattoni come primitive per la costruzione di modelli geometrici o per eseguire operazioni aritmetiche. Ad esempio gli I-Blocks (Lund, 2003°; Lund, 2003b) sono blocchi di costruzione in grado di eseguire calcoli matematici e mostrare il risultato della computazione sulla struttura stessa. Ogni I-Block contiene un microprocessore e delle connessioni seriali per comunicare con altri blocchi. Alcuni blocchi rappresentano operazioni numeriche (somma, sottrazione ecc..), altri contengono contatori per rappresentare numeri. La Figura 8 mostra l‘operazione aritmetica (x+y)*z eseguita con I-Blocks. L‘utente impila i blocchi e il risultato dell‘operazione può essere rappresentato come numero binario attraverso i LEDs accesi su un blocco oppure sul display di un altro blocco (a destra nella Figura 8). Tutte le operazioni vengono eseguite in modo fisico assemblando i blocchi e il risultato della computazione viene calcolato dinamicamente e rappresentato sulla struttura stessa. Figura 8. I-Blocks per eseguire operazioni aritmetiche. © H. H. Lund, 2002. Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 359 Conclusioni L‘interesse per l‘azione e l‘interazione con oggetti fisici ha segnato una trasformazione profonda nella disciplina dell‘HCI. In sostanza si è assistito ad un passaggio da una visione dell‘interazione centrata sull‘elaborazione dell‘informazione, ad una centrata sull‘azione. Di questa trasformazione ne sono fondamentali ispiratori la ricerca teorica nel campo della fenomenologia (Fällman, 2004), del pragmatismo (McCarthy & Wright, 2004) e dell‘etnometodologia (Dourish, 2001). Tuttavia non è soltanto la ricerca teorica ad avere profondamente influenzato lo sviluppo di questo settore. L‘attenzione all‘azione e al mondo fisico fanno dell‘interazione tangibile una disciplina di design in cui l‘estetica, il disegno del prodotto, la progettazione di ambienti e lo scambio sociale che in essi avviene diventano le leve per la creazione di soluzioni e relazioni più naturali e sostenibili con il mondo in cui viviamo e agiamo quotidianamente. Come abbiamo visto in questo capitolo il tangible computing ha una forte connotazione fisica. Tuttavia l‘interesse di questa modalità di interazione con il mondo digitale sta proprio nel fatto di portare con sé molte componenti non soltanto fisiche. Il tangible computing è la realizzazione fisica di una realtà simbolica, che per funzionare richiede una comprensione profonda delle affordance fisiche, ma anche sociali, culturali, valoriali che entrano in gioco nel momento in cui agiamo nel mondo e lo trasformiamo per dare significato alla nostra azione. Letture Consigliate Norman, D. A. [1995] Le cose che ci fanno intelligenti, Feltrinelli, Milano. Bibliografia Brooks, A. [2004] SoundScapes. In . D. N. Snowdon, E. F. Churchill, & E. Frécon (Eds.), Inhabited Information Spaces: Living with your Data (pp. 89-99). Springer. 360 Patrizia Marti Brooks, T. [2006] SoundScapes - Beyond Interaction... in search of the ultimate human-centred interface. 16th International Conference on Artificial Reality and Telexistence (ICAT2006) : Advanced program. Zhejiang, China, Zhejiang University of Technology, 2006. s. 17 Dautenhahn, K., Werry I., Ogden, B., Harwin W., [2001] ―Can Social Interaction Skills Be Taught by a Social Agent? The Role of a Robotic Mediator in Autism Therapy‖, Proceedings CT2001, The Fourth International Conference on Cognitive Technology: INSTRUMENTS OF MIND (CT2001), Monday 6th - Thursday 9th August, 2001 at University of Warwick, United Kingdom, Springer Verlag, Dourish P. [2001] Where the Action Is. The Foundations of Embodied Interaction. MIT Press 2001. Druin A., Plaisant C., Lathan C., Dachane K., Edwards K., Maxwell Vice J., Montemayor J., [2000] ―A storytelling robot for Pediatric Rehabilitation‖ in Proceeding ASSETS ‘00, Washington, New York Ellis, P., Van Leeuwen, L. [2000] Living Sound: human interaction and children with autism. Paper presented at ISME commission on Music in Special Education, Music Therapy and Music Medicine, Regina, Canada, July 2000. Fällman, D., [2004] In Romance with the Materials of Mobile Interaction: A Phenomenological Approach to the Design of Mobile Information Technology, in Informatics. 2004, Umeå. Fitzmaurice, G. W., Ishii H., Buxton W. [1995] Bricks: laying the foundations for graspable user interfaces. In Proceedings of CHI: Human Factors in Computing Systems. pp. 442–49, 1995. Grönvall, E., Marti, P., Pollini, A., Rullo, A. [2006a] Active surfaces: a novel concept for end user composition, NordiCHI 2006, Oslo, Norway, 14-18 October, 2006. Grönvall, E., Pollini A., Rullo A., Svensson, D., [2006b] Designing game logics in dynamic Active Surfaces, MUIA06 at MobileChi 2006, September 12 2006, Espoo, Finland. Holmquist L. E., Redström J. and Ljungstrand P. [1999]Token based access to digital information. Proc. of HUC'99,Springer (1999). 234-245. Hornecker E., Buur J. [2006] Getting a grip on tangible interaction: a framework on physical space and social interaction. Proceedings of CHI 2006 © ACM, April 22–28, 2006, Montréal, Québec, Canada. Hutchins, E., [1995] Cognition in the wild , MIT Press, Cambridge, MA, 1995. Ishii, H. Ullmer, B. [1997] Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms. In Proceedings of CHI: Human Factors in Computing Systems. pp. 234–41, 1997. Kirsh, D. Maglio, P. [1994] On Distinguishing Epistemic from Pragmatic Action. Cognitive Science 18, (1994), 513-549. Fuori dallo schermo: Teoria e Pratica dell‘Interazione Tangibile 361 Lund, H. H. [2003a], Intelligent Artefacts, in: Sugisaka & Tanaka (Eds.), Proceedings of 8th International Symposium on Artificial Life and Robotics, ISAROB, Oita. Lund, H. H. [2003b], Neural Building Blocks, in: 1st International IEEE EMB Conference on Neural Engineering, March 20-22, IEEE Press, Capri, Italy. Lund, H. H., Klitbo, T., and Jessen, C. [2005] Playware Technology for Physically Activating Play, Artificial Life and Robotics Journal, 9:4, 165-174, 2005 Lund, H.H. Marti, P. [2005] Designing Manipulative Technologies for Children with Different Abilities Artificial Life & Robotics, vol.9, n°4, pp 175-187, 2005, ISSN: 1433-5298 (Paper) 1614-7456 (Online) Marti, P., Gabrielli, L. Pucci, F. [2001] Situated Interaction in Art, Personal Technologies, 5:71-74, 2001, 0949-2054. Marti, P. [2001] Design for art and leisure, Proceedings of ICHIM 2001, in D. Bearman, and F. Garzotto, (eds.). Pittsburgh: Archives & Museum Informatics, 387-397, 2001. Marti, P, Lund, H.H. Bacigalupo, M. Giusti, L. Mennecozzi, C. [2007] ―Blending Senses: A Multi-sensory Environment for the treatment of Dementia Affected Subjects‖, Journal of Gerontechnology, 6(1), 33-41, January 2007. ISSN 15691101. Marti, P. Palma, V., Pollini, A. Rullo, A. Shibata, T. [2005] My Gym Robot, Proceedings of AISB05 International Symposium on robot companions: hard problems and open challenges in human-robot interaction, April 2005, ISBN 1 902956 44 1. Marti, P. Giusti, L. [2007] Coupling the digital and the physical: a way on in the design of tangible media, In Human-Computer Interaction. Interaction Platforms and Techniques. Volume 4551/2007 12th International Conference, HCI International 2007, Beijing, China, July 22-27, 2007, Proceedings, Part II. ISSN0302-9743 (Print) 1611-3349 (Online), pp 1173-1182. Springer Berlin / Heidelberg Marti, P. Pollini, A. [2008] Spazi di Gioco e Spazi di Cura: il Ruolo delle Tecnologie Interattive nel Trattamento delle Disabilità Motorie e Cognitive. In S. Besio [2008) (a cura di) Gioco e giocattoli per la disabilità motoria. Unicopli, Milano, In stampa McCarthy, J. and P. Wright, [2004] Technology as Experience. 2004: MIT Press. Norman, D. A., [1991] Cognitive artifact. In J. M. Carroll (Ed.), Designing interaction Cambridge University Press, Cambridge, MA, 1991. Norman, D. A., [1993] Things that make us smart, (Addison-Wesley, Reading, MA). Papert, S. [1993] The Children’s Machine. New York: Basic Books Piaget, J. [1972] The Principles of Genetic Epistemology. New York: Basic Books 362 Patrizia Marti Resnick, M. [1998] ―Technologies for lifelong learning‖ Educational Technology Research & Development, vol. 46, no.4 Rizzo, A. Marti, P. Decortis, F., Moderini, C., Rutgers, J. [2003] The design of POGO world, In Hollnagen E. (ed.) Handbook of Cognitive Task Design, New Jersey: Lawrence Erlbaum Associates Inc., 2003, pp577-602. Suchman L. [1987] Plans and Situated Actions. The problem of human machine communication Cambridge University Press Cambridge 1987. Ullmer B. Ishii H. [2000] Emerging frameworks for tangible user interfaces. IBM Systems Journal 39(3-4) (2000), 915-931. Weiser, M. [1991] The Computer for the 21st Century. Scientific American 265. pp. 94–104, 1991. Wellner, P. [1993] Interacting with Paper on the DigitalDesk, Communications of the ACM, vol. 36(7): pp. 87–96, July, 1993. Zhang, J., and Norman, D. A., [1994], Representations in Distributed Cognitive Tasks, Cognitive Science, 18, 87-122. Patrizia Marti, è docente di Design di tecnologie per l‘apprendimento e di Interazione Uomo-Macchina nel corso di laurea in Scienze della Comunicazione, Facoltà di Lettere e Filosofia dell‘Università degli studi Siena. Ha una lunga esperienza di ricerca nel campo dell‘Iteraction Design in vari domini come l‘e-learning e la pedagogia speciale, la robotica, l‘health care, il controllo del traffico aereo, applicazioni museali. È attualmente responsabile per l‘Università di Siena di progetti di ricerca nazionali e internazionali principalmente legati al Tangible e Ubiquitous Computing e alle tecnologie assistive . Ha pubblicato numerosi articoli su riviste internazionali, capitoli di libri e comunicazioni a convegni. È stata curatrice di numeri monografici per le riviste Travail Humain e Cognition, Technology and Work. Alessandro Soro (ed.), Human Computer Interaction, 11-15 © 2008 Polimetrica International Scientific Publisher Monza/Italy