Open Access Publications - Open Media-Center Lab

Transcript

Open Access Publications - Open Media-Center Lab
Open Access Publications
Alessandro Soro
editor
Human Computer Interaction
Fondamenti e Prospettive
Polimetrica
International Scientific Publisher
La pubblicazione di quest‘opera è cofinanziata da Sardegna Ricerche, nell‘ambito del P.O.R. Sardegna 2000-2006, Misura 3.13.
2008 Polimetrica ® S.a.s.
Corso Milano, 26
20052 Monza – Milano
Phone ++39. 039.2301829
Web site: www.polimetrica.com
Cover design by Elisabetta Falqui
ISBN 978-88-7699-XXX-X Printed Edition
ISBN 978-88-7699-XXX-X Electronic Edition
The electronic edition of this book is not sold and is made available in free
access.
Every contribution is published according to the terms of ―Polimetrica
License B‖. ―Polimetrica License B‖ gives anyone the possibility to
distribute the contents of the work, provided that the authors of the work
and the publisher are always recognised and mentioned. It does not allow
use of the contents of the work for commercial purposes or for profit.
Polimetrica Publisher has the exclusive right to publish and sell the
contents of the work in paper and electronic format and by any other
means of publication. Additional rights on the contents of the work are the
author‘s property.
Printed in Italy by XXXXXXXXXXX - XXXXXXX
DOS, Windows, Windows Xp e Windows NT sono marchi registrati della Microsoft Corporation.
Linux è un marchio registrato da Linus B. Torvalds. Altri nomi e
marchi citati in questo volume sono depositati o registrati dalle loro
case produttrici. I marchi e le immagini dei vari siti Internet citati
sono di proprietà dei rispettivi detentori dei diritti.
Benché ogni cura sia stata posta nella realizzazione di questo volume, né gli Autori né l‘Editore si assumono alcuna responsabilità per
l‘utilizzo dello stesso.
Sommario
Prefazione ................................................................................................ 11
Alessandro Soro
Fondamenti, Storia e Tendenze dell'HCI ............................................. 17
Sebastiano Bagnara , Simone Pozzi
Introduzione .......................................................................................... 17
1. L‘Ergonomia Cognitiva..................................................................... 18
2. L‘HCI e l‘Evoluzione del Computer ................................................. 20
3. Dinamiche Sociali e Tecnologiche di Lungo Periodo ....................... 23
4. Le Sfide Future dell‘HCI ................................................................... 35
Conclusioni ........................................................................................... 42
Inclusione nella Società dell’Informazione ........................................... 47
Pier Luigi Emiliani
Introduzione .......................................................................................... 47
1. Dall‘Accessibilità ai Calcolatori ed ai Terminali all‘Inclusione nella
Società dell‘Informazione ................................................................. 49
2. Accessibilità ai Calcolatori e Terminali – la Tecnologia Assistiva ... 56
3. Progettazione Universale (Design for All) ........................................ 64
4. La Società dell‘Informazione ............................................................ 94
Conclusioni ......................................................................................... 110
Introduzione all’Ingegneria dell’Usabilità ......................................... 115
Roberto Polillo
1. Progettazione Centrata sull‘Utente .................................................. 115
2. Modelli di Progettazione e Sviluppo ............................................... 129
3. I Requisiti ........................................................................................ 138
4. Prototipi ........................................................................................... 152
5. Valutazioni ...................................................................................... 163
Conclusioni ......................................................................................... 177
8
Sommario
Misure di Qualità: Dall’Usabilità all’Esperienza dell’Utente ........... 181
Antonella De Angeli
Introduzione ........................................................................................ 181
1. Usabilità .......................................................................................... 182
2. Esperienza dell‘Utente .................................................................... 186
3. Metodi di Valutazione ..................................................................... 189
4. Misure di Valutazione ..................................................................... 193
Conclusioni ......................................................................................... 196
Analisi Cognitiva delle Interfacce Utente ........................................... 201
Hélène Pigot
Introduzione ........................................................................................ 201
1. Abilità Cognitive ............................................................................. 203
2. Approcci Analitici ........................................................................... 206
3. Valutazione per mezzo di Approcci Analitici ................................. 209
Conclusioni ......................................................................................... 217
Interfacce Utenti Multi-Dispositivi ..................................................... 221
Fabio Paternò
Introduzione ........................................................................................ 221
1. Concetti di Base .............................................................................. 222
2. Gli Ambienti Multi-Dispositivi ....................................................... 224
3. Comprendere le Interfacce Utenti Multi-Dispositivi ....................... 228
4. La Progettazione di Interfacce Utenti Multi-Dispositivi ................. 233
5. Progettazione Interfacce Utenti basata su Modelli .......................... 236
6. Adattamento Automatico al Dispositivo a Run-Time ..................... 242
7. Interfacce Utenti nell‘Ubiquitous Computing ................................. 250
Conclusioni ......................................................................................... 253
Mobile Computing ................................................................................ 259
Stefano Sanna
Introduzione al Mobile Computing ..................................................... 259
1. Sistemi Operativi e Ambienti Applicativi ....................................... 264
2. HCI su Dispositivi Mobili ............................................................... 267
3. Mobile Sensor: l'Evoluzione della Mobile HCI .............................. 282
4. Ambient Interaction e Capillary Computing ................................... 288
Conclusioni ......................................................................................... 291
Sommario
9
Interfacce Uomo-Macchina nella Realtà Virtuale ............................. 295
José A. Iglesias Guitián, Marco Agus
Introduzione ........................................................................................ 295
1. Caratteristiche e Requisiti ............................................................... 304
2. Hardware per il Feedback Sensoriale .............................................. 309
3. Esempi di applicazioni di realtà virtuale ......................................... 315
Conclusioni ......................................................................................... 328
Fuori dallo schermo: Teoria e Pratica dell’Interazione Tangibile .... 337
Patrizia Marti
Introduzione ........................................................................................ 337
1. Attività, Strumenti e Rappresentazioni ............................................ 340
2. Temi di Design per l‘Interazione Tangibile .................................... 342
3. I Domini Applicativi ....................................................................... 354
Conclusioni ......................................................................................... 359
Prefazione
Quale curatore di quest‘opera, ho il privilegio di illustrarne la genesi, e di raccontare in che modo dall‘idea di ospitare in Sardegna un
ciclo di seminari sull‘Interazione Uomo- Macchina, si sia giunti, in
quasi un anno di lavoro, alla pubblicazione di questa raccolta, alla
quale hanno contribuito alcuni fra i più affermati docenti, ricercatori e professionisti.
Gli Incontri sul tema dell’Interazione Uomo-Macchina
(HCIM‘08), organizzati dal laboratorio Open Mediacenter, con il
quale ho il piacere di collaborare, e dal laboratorio Modelli 3D, entrambi creati e ospitati da Sardegna Ricerche presso il Parco Scientifico della Sardegna, si sono svolti tra il 15 e il 19 Settembre del
2008, catalizzando l‘interesse e la partecipazione di studenti, ricercatori e professionisti del settore ICT su un tema che, già oggi importantissimo, nel prossimo futuro indicherà la direzione nella ricerca scientifica e la strategia nello sviluppo industriale.
Primi fra coloro che hanno sposato e incoraggiato questo progetto, Gavino Paddeu e Sebastiano Bagnara, rispettivamente responsabile e membro del gruppo di coordinamento del Laboratorio Open
Mediacenter, ai quali va un ringraziamento speciale, hanno avuto
un ruolo determinante nel coinvolgimento dei relatori, che, a propria volta, hanno dato vita ai più affascinanti seminari a cui chi
scrive abbia mai avuto occasione di partecipare. È tuttavia merito
esclusivo dei relatori, che hanno poi accettato di dare forma scritta
ai propri contributi e riunirli in questo libro, se le lezioni apprese
non saranno affidate alla sola memoria dei presenti, ma potranno
invece andare a beneficio di tutti.
I nove capitoli che compongono quest‘opera tracciano la storia,
lo stato e alcune tra le più affascinanti prospettive future
dell‘interazione uomo-macchina, una disciplina che a fronte di numerose conquiste, ormai assodate e mature, è caratterizzata da un
continuo fermento e un sorprendente ritmo di evoluzione.
12
Alessandro Soro
Questa duplice natura corre parallela alle tensioni e contraddizioni che sono proprie della vita, del lavoro e dei rapporti sociali nel
nuovo millennio. Allo stesso tempo lo sviluppo tecnologico, la continua miniaturizzazione, la produzione di massa e relativo abbattimento dei costi, aprono nuove possibilità e creano nuovi bisogni, in
un continuo meccanismo di retroazione. Per questo lo studio
dell‘interazione uomo-macchina pone una sfida affascinante e inesauribile: lo studio dell‘interazione non può prescindere dall‘esame
dei suoi attori, l‘uomo e la macchina, che a propria volta sono coinvolti in una incessante trasformazione. Da qui la natura multidisciplinare di questa materia e la necessità di un esame ad ampio spettro di tutte le dinamiche in essa coinvolte, come sapientemente illustrato da Sebastiano Bagnara e Simone Pozzi nel primo capitolo.
Se da un lato la diffusione pervasiva delle tecnologie informatiche sta modificando la nostra vita, è pur vero che il computer inteso
come medium, ossia come amplificatore delle capacità umane, innesca il meccanismo opposto, amplifica il divario, tra coloro che
hanno accesso a tali tecnologie e colore che non ce l‘hanno. In tal
senso moltissimo lavoro e grandi progressi sono stati fatti per garantire a persone con limitazioni di attività la possibilità di fruire
delle informazioni e dei servizi offerti dalle nuove tecnologie. Se i
primi approcci basati su tecnologie assistive, come sintetizzatori
vocali, screen readers, terminali Braille, peraltro largamente impiegati, mostrano limitazioni legate ai costi, al ritardo con cui vengono
resi disponibili e, talvolta, a specifiche difficoltà di adattamento, è
importante notare come l‘approccio moderno della Progettazione
Universale, descritto da Pier Luigi Emiliani, sia imperniato sul diritto delle persone ad avere accesso in modo completo e pienamente
soddisfacente alla società dell‘informazione. Un cambiamento di
prospettiva tutt‘altro che sottile, che pone l‘accento sulla persona
piuttosto che sull‘utente e rappresenta dunque quasi una rivoluzione
copernicana per coloro i quali, come chi scrive, hanno alle spalle
una formazione tecnico-scientifica piuttosto che umanistica.
La progettazione dell‘interazione, appare quindi come la naturale evoluzione dell‘ingegneria del software, prima centrata sul sistema, in direzione della persona, caratterizzata da bisogni, preferenze
e aspettative. Roberto Polillo illustra i principi dell‘ingegneria
Prefazione
13
dell’usabilità, descrivendone le motivazioni e i concetti di base, per
poi spiegare i modelli di progettazione basati sulla produzione e il
raffinamento iterativo di prototipi, e introducendo le tecniche di definizione dei requisiti e di valutazione. Tali tecniche sono, al momento, le sole che permettano al progettista di gestire da un lato
l‘enorme complessità dei sistemi moderni, e dall‘altro (forse soprattutto) l‘inclusione nelle specifiche di requisiti difficilmente definibili, e ancor più difficilmente quantificabili.
La capacità di curare tali aspetti è tuttavia la soglia necessaria
per il balzo da giganti che siamo chiamati a compiere: dalla progettazione di software efficaci e corretti, la cui qualità si può misurare
in minuti e secondi necessari a completare un lavoro, verso la progettazione di un ambiente intelligente, in cui la tecnologia permea e
influenza molte delle attività umane. Antonella De Angeli descrive
come la reazione individuale che deriva dall‘interazione con strumenti informatici possa essere compresa e quali variabili la definiscono. Non sorprenderà scoprire che la user experience è caratterizzata da un insieme estremamente ampio di parametri personali, sociali, culturali e dalle caratteristiche specifiche del contesto e del
prodotto. Sarà forse più sorprendente vedere come la psicologia
sperimentale
possa
quantificare
realtà
che
all‘occhio
dell‘informatico appaiono quasi evanescenti, quali la soddisfazione,
l‘interesse, la piacevolezza estetica.
Parallelamente è possibile valutare in modo oggettivo se, e
quanto, l‘interazione con un sistema informatico sia calibrata sulle
capacità umane. Gli approcci analitici alla valutazione delle interfacce utente, illustrati da Hélène Pigot, permettono di stimarne le
proprietà cognitive, e capire quali abilità, e in che misura, saranno
richieste nell‘interazione. Infatti, se come individui amiamo descriverci ricorrendo a ciò che ci distingue, rendendoci unici, come esseri umani siamo sorprendentemente simili (e quindi prevedibili) rispetto alle capacità motorie, di memorizzazione, di attenzione.
Sebbene la trattazione fin qui non sia entrata nella definizione
del temine computer, è pur certo che la parola evoca nella mente di
chi legge un‘immagine ben precisa: uno schermo, una tastiera,
spesso un mouse, solitamente posati su una scrivania, talvolta sulle
ginocchia. I successivi quattro capitoli eroderanno questa concezio-
14
Alessandro Soro
ne. Infatti, se l‘interazione uomo-macchina studia i fenomeni che
avvengono al confine tra uomo e computer, come regolarsi quando
tale confine sfuma e il computer risulta ubiquo, disperso
nell‘ambiente, se non addirittura indossato o impiantato?
Fabio Paternò spiega le problematiche relative alla progettazione
di interfacce utente multi-dispositivi. Una volta appurata l‘enorme
varietà di terminali a cui abbiamo quotidianamente accesso sorge il
problema di come progettare l‘interazione uomo-macchina laddove
la macchina non è contenuta nei confini del proprio chassis, ma è
piuttosto un sistema complesso (e spesso dinamico e instabile) di
piccoli e grandi unità interconnesse. Spesso informazioni e servizi
concepiti per un tipo di terminale vengono fruiti per mezzo di un
altro. Altre volte l‘interazione ha inizio su un certo terminale per
concludersi su uno diverso.
In tale panorama, il mobile computing merita un discorso a parte. Un settore talvolta considerato di nicchia, salvo, statistiche alla
mano, notare che tale nicchia ha venduto un miliardo di terminali
nel solo anno 2007. Una diffusione tecnologica mai vista prima nella storia del genere umano, che non poteva non riservare sorprese e
opportunità. Stefano Sanna traccia una panoramica del settore più
frenetico esistente al giorno d‘oggi e ne delinea le prospettive future.
Il tema del capitolo successivo affascina anche chi non è appassionato di fantascienza: la realtà virtuale rievoca la capacità di creare e sperimentare mondi fantastici, con applicazioni pratiche (se
mai ce ne fosse bisogno) che vanno dall‘addestramento di piloti e
chirurghi al gioco immersivo. Nel contributo di José Guitián e Marco Agus si vedrà come gli ologrammi siano una realtà e non più una
finzione cinematografica e come l‘input e l‘output abbiano superato
le barriere di schermo e tastiera per coinvolgere tutti i cinque sensi.
Come conclusione, nell‘ultimo capitolo Patrizia Marti demolisce
definitivamente l‘idea di computer dotato di video e tastiera e ci
porta, per usare le sue stesse parole, fuori dallo schermo. Le Tangible User Interfaces riuniscono il mondo fisico e quello digitale in
oggetti e ambienti interattivi: se nella mente del designer, fino ad
oggi, i dati, l‘interfaccia, i dispositivi di input e quelli di output corrispondono a componenti precise e distinte del sistema, con i Tan-
Prefazione
15
gibles il controllo diventa un tutt‘uno con la fruizione e la manipolazione dell‘informazione.
Questo libro è rivolto a tutti coloro che desiderano avvicinarsi
alla disciplina dell‘interazione uomo-macchina. Abbiamo cercato di
unire ad una trattazione didattica il rigore scientifico, suggerendo
ove possibile letture di approfondimento al termine del capitolo, e
riportando i riferimenti bibliografici per i temi più avanzati che sono attualmente oggetto di ricerca.
Il mio personale auspicio è che questo lavoro possa essere un utile ausilio per lo studente e una lettura stimolante per il lettore appassionato di tecnologie.
La realizzazione di quest‘opera non sarebbe stata possibile senza
il contributo di tutti i relatori e del comitato organizzativo di
HCIM‘08 e senza i preziosi suggerimenti di tutti coloro che hanno
partecipato ai seminari. Desidero anche ringraziare qui il Presidente
di Sardegna Ricerche Giuliano Murgia, il Direttore Francesco Marcheschi, tutto lo staff di Sardegna Ricerche e in particolare Giorgio
Pisanu e Enrico Mulas, il direttore del programma ICT – Information Society del CRS4 Pietro Zanarini e il responsabile del Laboratorio Modelli 3D Enrico Gobbetti.
Novembre 2008
Alessandro Soro, Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna – [email protected]
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Fondamenti, Storia e Tendenze dell'HCI
Sebastiano Bagnara – Facoltà di Architettura dell'Università
di Sassari – Alghero
[email protected]
Simone Pozzi – Deep Blue (Roma) & Dipartimento di Psicologia dei Processi di Sviluppo e Socializzazione della Sapienza Università di Roma
[email protected]
Abstract. Questo contributo offre una definizione della disciplina
dell‘HCI attraverso la descrizione delle principali dinamiche sociali e tecnologiche che ne hanno plasmato la storia e che probabilmente ne indirizzeranno gli sviluppi futuri. Si evidenziano le continuità con discipline quali l‘ergonomia fisica e quella cognitiva, per poi discutere le contraddizioni
non risolte nelle dinamiche di lungo periodo. L‘analisi è condotta tessendo
insieme le questioni di metodo, con quelle di pura innovazione tecnologica, con i fattori più prettamente sociali e culturali. L‘obiettivo è inquadrare
l‘HCI come scienza sociale applicata, ovvero come disciplina il cui ruolo
nella società sia migliorare e progettare le attività umane, raccogliendo le
istanze sociali che riguardano l‘interazione tra uomo e calcolatori.
L‘ultima parte del contributo sviluppa una riflessione sulle più rilevanti
sfide future dell‘HCI, ragionando sui punti cruciali e sulle conseguenze
per la disciplina.
Keywords: HCI, CSCW, Interaction Design, user centred, human centred.
Introduzione
Definire una disciplina come l‘interazione uomo-macchina (Human-Computer Interaction – HCI) non è un compito facile. A causa
della sua natura applicativa la disciplina si sposta velocemente e ridefinisce piuttosto spesso il suo oggetto di indagine. Semplificando,
18
Sebastiano Bagnara, Simone Pozzi
potremmo dire che la disciplina si propone di analizzare la relazione tra uomo e computer, dove l‘elemento ―computer‖ ha mutato la
propria natura drasticamente nelle ultime decadi, seguendo una dinamica molto rapida di cambiamento. L‘HCI studia oggetti molto
eterogenei, quali il personal computer, i palmari e i cellulari, ma
anche strumenti digitali più semplici, quali orologi o semplici elettrodomestici, oppure le tecnologie legate ad internet, oppure ancora
applicazioni tecnologiche complesse quali la strumentazione di una
cabina di pilotaggio, il pannello di controllo di un‘industria chimica, etc.
Per tale motivo, la definizione che a noi appare più appropriata è
quella storica, ovvero una descrizione delle dinamiche sociali e tecnologiche con cui la disciplina si è trovata a confrontarsi nella sua
vita. Questo contributo si propone pertanto di tracciare una breve
storia della disciplina, prima descrivendo brevemente il campo di
studi da cui è derivata l‘HCI (l‘ergonomia) e le spinte che ne hanno
accompagnato (e plasmato) la crescita, per poi delineare le più interessanti sfide future.
1. L’Ergonomia Cognitiva
La storia dell‘HCI procede in parallelo alla presenza sempre più
pervasiva dei calcolatori nell‘attività umana. L‘Association for
Computing Machinery (ACM) propone la seguente definizione di
HCI (non senza aver premesso che non esiste una definizione comunemente riconosciuta):
La Human-computer interaction è una disciplina che si occupa della
progettazione, della valutazione e dell‘implementazione di calcolatori interattivi per l‘uso da parte dell‘uomo e dello studio dei principali
fenomeni che li circondano. (Association for Computing Machinery,
2008, nostra traduzione)
Nell‘HCI confluiscono numerose discipline, accomunate
dall‘interesse per un medesimo oggetto di studio, ovvero i sistemi
interattivi digitali, ponendo pertanto la disciplina all‘incrocio tra diversi confini disciplinari. Tra le discipline che partecipano a vario
titolo all‘HCI possiamo annoverare la computer graphics, la psico-
Fondamenti, Storia e Tendenze dell'HCI
19
logia cognitiva, l‘ingegneria del software, il design, gli studi economici e di gestione di processi economici. Questa natura multidisciplinare deriva in realtà dall‘ergonomia, sia indirizzata agli aspetti
fisici che a quelli cognitivi. L‘ergonomia è definita
dall‘International Ergonomics Association (IEA) come:
L‘Ergonomia (o Fattori umani) è la scienza volta alla comprensione
delle interazioni tra i soggetti umani e le altre componenti di un sistema, e la professione che applica teorie, principi, dati e metodi per
progettare con la finalità di accrescere il benessere dei soggetti umani e le prestazioni complessive del sistema.
Gli ergonomi contribuiscono alla progettazione e alla valutazione di
compiti, funzioni, prodotti, ambienti e sistemi in modo da renderli
compatibili alle esigenze, alle capacità e ai limiti delle persone (International Ergonomics Association, 2008, nostra traduzione)
L‘elemento più rilevante di questa definizione è la descrizione
dell‘unità di analisi dell‘ergonomia. La disciplina non ha
l‘obiettivo di studiare i singoli elementi presi separatamente, quanto
l‘interazione tra gli elementi di un sistema (esseri umani inclusi).
Tale studio si alimenta naturalmente di conoscenze specialistiche
sui vari elementi (ovvero sull‘ingegneria delle parti software e
hardware, e sulla psicologia degli esseri umani), ma tali risultati
vanno comunque collocati nella relazione tra i vari elementi.
Ciò che distingue l‘HCI dall‘ergonomia in generale è una diversa enfasi sui vari aspetti dell‘interazione uomo-sistema.
L‘ergonomia tradizionale si è infatti indirizzata principalmente agli
aspetti fisici, quali la compatibilità tra caratteristiche fisiche umane
(antropometria) e caratteristiche della macchina (ad esempio: misure spaziali, peso, calore emanato), mettendo in luce anche situazioni
assurde, di assoluta incompatibilità fisica: l‘uomo costretto a muoversi per lavorare in spazi impossibili e a compiere dei movimenti
innaturali per interagire con la macchina.
Con il fiorire del cognitivismo e la nascita dei primi calcolatori,
l‘enfasi degli studi ergonomici non è più sulle caratteristiche fisiche
della macchina, quanto sugli elementi di interfaccia, che consentono all‘uomo di operare un adeguato controllo del sistema. La parte
fisica dell‘interazione uomo-macchina passa in secondo piano,
mentre diventano più importanti gli aspetti di controllo e presa di
20
Sebastiano Bagnara, Simone Pozzi
decisioni, ovvero la ―compatibilità‖ tra la macchina, il sistema cognitivo umano e gli aspetti socio-culturali. L‘interfaccia diviene
sempre più complessa e di dimensioni sempre più predominanti rispetto al ―motore‖ della macchina, a volte anche per la necessità di
porre l‘operatore a debita distanza dal processo lavorativo (si pensi
all‘industria chimica e nucleare). Agli inizi del 1960, Bartlett già
individuava alcune delle tendenze tipiche degli anni a venire (Bartlett, 1962):
1.
crescente isolamento fisico degli individui
2.
richieste maggiori di comunicazione mediata da tecnologia
3.
riduzione del workload fisico
4.
incremento del workload mentale
5.
integrazione del lavoro di più persone nel lavoro di un‘unica
persona
6.
presentazione di stimoli multi-modali
7.
enfasi crescente sulle attività di decision making.
Sono quindi l‘evoluzione dei calcolatori e la loro presenza sempre
più pervasiva negli ambienti di lavoro a portare alla nascita vera e
propria dell‘HCI, che sempre di più diventa una disciplina indipendente più che una branca dell‘ergonomia cognitiva. Dal 1970 in poi
assistiamo inoltre al crescere della cosiddetta ―società della conoscenza‖, caratterizzata da una sempre più alta omogeneità tra ambiente di lavoro e di vita, da una continua e rapida trasformazione
del lavoro, da una diffusa informatizzazione e presenza di automazione in luogo del lavoro fisico.
2. L’HCI e l’Evoluzione del Computer
Trattandosi di una disciplina applicata all‘interazione tra l‘uomo ed
un determinato artefatto tecnologico, l‘HCI ha progressivamente
mutato il suo fuoco in parallelo al progredire del computer. In un
articolo del 1990 intitolato ―The computer reaches out‖ (Grudin,
1990), Grudin ha tracciato un parallelo tra HCI e sviluppo del computer, individuando 5 momenti, a ciascuno dei quali corrisponde
Fondamenti, Storia e Tendenze dell'HCI
21
una diversa definizione di interfaccia uomo-computer. Questi momenti vanno dagli albori del computer dove l‘interazione uomocomputer era limitata all‘intervento sui circuiti elettronici stessi, alla nascita dei primi software (ovvero possibilità di programmare la
macchina a compiere comportamenti differenti), alla comparsa di
terminali dedicati (le prime vere e proprie interfacce) dove interagire con linee di comando con il computer, fino allo sviluppo negli
anni 80 di interfacce grafiche che consentono all‘utente di svolgere
la propria attività in modo meno lineare e pre-strutturato.
Figura 1. Keyword frequency cloud per la conferenza CHI (50 termini visualizzati).
Di pari passo, la conoscenza dell‘effettivo funzionamento della
macchina diventa sempre meno indispensabile per interagirvi, dal
momento che l‘interfaccia si occupa di tradurre le azioni dell‘utente
in input per i circuiti del computer. Passiamo quindi da utenti iperspecializzati come gli ingegneri elettronici o i programmatori, ad
un‘utenza indistinta che utilizza il computer sul lavoro ma anche
nel tempo libero.
L‘ultimo passo descritto da Grudin è la transizione dallo studio
dell‘interazione tra il computer ed un solo individuo, allo studio del
computer come supporto a gruppi di lavoro (Computer Supported
Cooperative Work - CSCW). In altre parole negli anni ‗90 il com-
22
Sebastiano Bagnara, Simone Pozzi
puter diventa sempre di più uno strumento utilizzato primariamente
per comunicare e l‘HCI si trova a rendere conto di tutte le interazioni sociali che da esso vengono mediate. L‘HCI compie così in
pochi decenni una transizione che porta il suo campo di applicazione dall‘interno del calcolatore verso lo spazio sociale.
L’HCI oggi: una mappa di parole
Per visualizzare lo stato della ricerca HCI oggi, alcuni ricercatori
hanno analizzato l‘occorrenza di parole chiave in 4 importanti conferenze (CHI, UIST, InfoVis, AVI) (Henry et al., 2007). Limitandoci alla conferenza CHI (maggiormente rilevante per la discussione presente, analizzata dal 1983 al 2006), la rappresentazione che
Henry e colleghi hanno ottenuto è mostrata in Figura 1.
Per quanto riguarda invece la distribuzione temporale delle keyword, Henry e colleghi hanno ottenuto la rappresentazione in Figura 2, dove le tonalità di grigio più scuro rappresentano un‘alta
occorrenza del termine. La figura è stata da noi modificata per visualizzare solo i termini ritenuti più rilevanti.
Figura 2. Distribuzione cronologica (anni rappresentati in ascissa) e densità delle parole chiave per le 4 conferenze analizzate.
Queste rappresentazioni confermano i ragionamenti da noi svolti
nei paragrafi precedenti. Si vede l‘affermarsi del CSCW a partire
dagli anni ‘90, il proseguire dell‘enfasi per gli aspetti sociali nel
mobile e nell‘ubiquitous computing, l‘affermarsi di nuove tecnolo-
Fondamenti, Storia e Tendenze dell'HCI
23
gie quali il web e la realtà virtuale, l‘attenzione per l‘interazione e il
coinvolgimento dell‘utente (usabilità, participatory design,
interaction design). Va comunque sottolineato come queste mappe
rappresentino in modo privilegiato la realtà Statunitense, mentre le
altre realtà regionali hanno minore rilevanza.
3. Dinamiche Sociali e Tecnologiche di Lungo
Periodo
Dopo aver delineato in maniera sintetica l‘ergonomia fisica e
l‘ergonomia cognitiva, in questa sezione vorremmo riflettere in
modo più analitico sulle principali dinamiche che possiamo individuare nella storia dell‘HCI. Si tratta qui di riprendere alcune delle
questioni già brevemente trattate per legare insieme differenti aspetti e collocare questioni di innovazione tecnologica o di disciplina
nel contesto sociale. Cercheremo quindi di non concentrarci su aspetti di pura ergonomia fisica o cognitiva, ma di riflettere come alcune dinamiche sociali e tecnologiche pongano sfide ancora aperte
all‘HCI. Questo ragionamento potrebbe essere collocato sotto un
approccio terzo rispetto ai due tradizionali approcci dell‘HCI (il
primo è l‘ottimizzazione del rapporto macchina-uomo e il secondo
la svolta cognitiva), ovvero il tentativo di affrontare fenomeni quali
l‘embodiment (Ishii & Ullmer, 1997), la creazione del significato, le
questioni sociali. L‘interazione può essere considerata come una
forma di creazione del significato in cui l‘artefatto e il contesto socio-culturale si definiscono a vicenda (Veyrat et al., 2008).
Le dinamiche sociali e tecnologiche che discuteremo qui di seguito sono:

dal lavoro come travaglio all‘autorealizzazione

digitalizzazione e portabilità

dal calcolo alla comunicazione

dalla navigazione alla produzione collettiva.
Per ciascuna di esse presenteremo una breve descrizione, poi una
riflessione su quali tensioni l‘HCI deve ancora affrontare e quali
limiti si vedono negli approcci correnti.
24
Sebastiano Bagnara, Simone Pozzi
Figura 3. Le due dimensioni dell‘usabilità e della User Experience (immagine parzialmente adattata da lavoro non pubblicato di Jim Hollan).
Dal lavoro come travaglio all’autorealizzazione
L‘ergonomia aveva ed ha ancora una visione del lavoro come fatica. Questa visione è ben descritta dal vocabolo francese che indica
il lavoro e cioè ―travail‖, il lavoro come ―travaglio‖, dolore. E
l‘obiettivo dell‘ergonomia è stato, ed è ancora, appunto, la riduzione, fino ad arrivarne all‘eliminazione, del ―travaglio‖ del lavoro.
Siccome nella società industriale il lavoro si fa con le macchine, il
travaglio viene ―naturalmente‖ attribuito alla macchina, perché è
nell‘interazione con questa che insorge fatica e, alle volte, patologia. Nella visione tradizionale, infatti, l‘interazione uomo-macchina è
vista come luogo di origine della patologia da lavoro.
Questa visione diviene meno totalizzante nell‘ultimo periodo,
quando l‘HCI si trova a dover affrontare ambiti di applicazione non
solo lavorativi, ma anche di tempo libero e svago (Bødker, 2006).
La disciplina deve quindi progressivamente operare un salto dal
concetto di ―bisogni‖ a quello di ―desideri‖, progettando non più
per correggere difetti dell‘interazione, ma per soddisfare o creare
esperienze appaganti. Il grado di innovazione oggi presente nei dispositivi di riproduzione musicale digitale non sarebbe infatti spiegabile come mera correzione ai modi precedenti di fruire musica. È
Fondamenti, Storia e Tendenze dell'HCI
25
proprio invece questa mutazione di paradigma (dal bisogno al desiderio) a rendere pensabili e praticabili nuove forme di interazione
uomo-macchina, quali ad esempio il Podcast.
Figura 4. L‘interfaccia testuale di un MUD.
In modo analogo sarebbe limitante pensare all‘interazione uomomacchina come ad un sistema mirato a prestazioni più efficaci.
L‘HCI non può più limitarsi a valutare l‘interazione in termini funzionali (efficacia, efficienza, sicurezza, usabilità, etc.), ma deve integrare anche dimensioni soggettive relative all‘esperienza d‘uso
(piacevolezza estetica, carica motivazionale, coinvolgimento, etc.;
vedi Figura 3).
Le interfacce odierne sono finestre su attività complesse, che
coinvolgono anche interazioni sociali. Si pensi ad esempio ai giochi
di ruolo online (Multi User Dungeon/Domain - MUD), in cui una
scarna interfaccia testuale (Figura 4) consente agli utenti di svolgere
narrazioni complesse, in cui interagiscono anche decine di utenti.
Dall‘interfaccia ―si entra‖ in un mondo. È una porta.
Himanen ha descritto lo stesso salto dal travaglio
all‘autorealizzazione nel suo libro sull‘etica dell‘hacker (Himanen,
2001), che è a suo avviso contraddistinta da (i) entusiasmo e passione per un lavoro che viene svolto per piacere, (ii) creatività e desiderio di realizzare se stessi, spesso in gruppi spontanei aggregati
intorno a progetti specifici, (iii) volontà di condividere le proprie
abilità con una comunità che si ponga i nostri stessi obiettivi, in
modo che alla nostra dedizione corrisponda un aumento di autorevolezza sociale. L‘hacker lavora unicamente guidato da motivazioni interne, per soddisfare le proprie aspettative ed avendo il proprio
zelo come unità di misura.
26
Sebastiano Bagnara, Simone Pozzi
L‘HCI si è adattata con successo anche a questa dinamica di
lungo periodo (si vedano le numerose pubblicazioni sulla user experience e sulle esperienze di gioco), esistono tuttavia alcune tensioni ancora da affrontare.
Alfabetizzazione digitale e frustrazioni tecnologiche
Le tecnologie sono ancora in larga parte difficili da utilizzare e
spesso generano esperienze di frustrazione più che di appagamento.
Si veda ad esempio il tono ironico del seguente articolo tratto dal
British Medical Journal sul rapporto tra medico e computer:
Lo scopo principale di un computer è la dominazione. Un computer
fa in modo che voi non perdiate più il vostro tempo nel vedere i pazienti – o che lo perdiate in altre occupazioni non importanti quali
mangiare, bere, dormire, o riprodurvi. Uno scopo secondario del
computer è di fornire un mini test mentale della vostra capacità di ricordare le password. Le password di un computer sono differenti per
ogni programma, e cambiano con la stessa frequenza della vostra
biancheria. Le password sono il nome del vostro cane ormai deceduto, o il nome della vostra compagna scritto al contrario, seguito da un
numero che cresce esponenzialmente. […] I normali esseri umani
tengono le loro password ben nascoste su carta per gli appunti, che
non sarà mai più ritrovato (Isaacs et al., 2007, nostra traduzione)
A distanza di 20 anni dal libro di Norman sulla difficoltà di interagire con le tecnologie (Norman, 1990), potremmo ancora asserire
che, per una troppo larga parte delle tecnologie che ci circondano, è
ancora necessario possedere una laurea in ingegneria ed impiegare
almeno mezzora per capirne il funzionamento. La conseguenza di
questo problema è una bassa alfabetizzazione digitale in molti paesi
(Italia inclusa). L‘HCI deve contribuire in modo deciso per rendere
l‘alfabetizzazione digitale un compito più semplice.
Il problema è ancora più stringente se si pensa a come lavoro,
tempo libero e vita sociale condividano ormai una comune infrastruttura. Oramai, in molte case c‘è una postazione di lavoro.
Nell‘era industriale, la casa poteva essere anche vicina alla fabbrica
e condividere alcune, di solito pessime, condizioni ambientali, ma
certo non ne condivideva le tecnologie. L‘alfabetizzazione digitale
consiste nel saper dominare questa infrastruttura comune, pena
l‘esclusione dal lavoro, ma anche dalla vita sociale e civile.
Fondamenti, Storia e Tendenze dell'HCI
27
La società del rischio
Lo sviluppo tecnologico ha portato l‘uomo ad interagire con sistemi
incrementalmente più complessi e difficili da controllare. Spesso
questa complessità si accompagna anche ad alti quantitativi di energia potenzialmente dannosa. Nonostante sia impossibile negare come molti di questi sistemi abbiano delle prestazioni eccellenti in
termini di sicurezza, è d‘altra parte evidente che il problema del
controllo non possa ancora considerarsi risolto. Questi sistemi restano inerentemente pericolosi (Perrow, 1984; Reason, 1997). È
pertanto ancora valida la sfida che si poneva Doug Engelbart (uno
dei padri dell‘HCI):
La difficoltà dei problemi del genere umano stava crescendo più della nostra abilità nell‘affrontarli. (siamo nei guai) [così] … ho dedicato il mio lavoro ad ―aumentare l‘intelletto umano‖ (Engelbart, 1988,
nostra traduzione)
Il punto non sottolineato da Engelbart è che parte di questa difficoltà è a sua volta prodotta dall‘uomo, sotto forma di sistemi sociotecnici sempre più complessi. Per questo motivo piloti e medici sono
oggi in condizioni di portare avanti l‘attività in situazioni prima impossibili da affrontare, ma devono purtroppo affrontare problemi
ancora più difficili da gestire e potenzialmente più pericolosi.
L’alienazione cognitiva: dalla catena di montaggio a Starbucks
L‘ergonomia ha efficacemente affrontato il problema
dell‘alienazione (a sua volta esacerbato da studi di natura ergonomica, quali il Taylorismo), portando avanti ricerche per diminuire il
malessere fisico generato dal lavoro seriale. Non possiamo però dire che siano stati risolti i problemi di alienazione e intensità tipici
del lavoro cognitivo.
Il lavoro, come ha bene colto il rapporto del National Research
Council (1999), ha assunto dimensioni nuove e peculiari. È demograficamente eterogeneo. La globalizzazione, con la distribuzione
spaziale e temporale del lavoro, aumenta la diversità nelle risorse
umane. È fluido. I confini fra chi fa un dato lavoro e chi svolge
un‘occupazione differente sono diventati estremamente deboli e
permeabili (Davis & Meyer, 1998). I lavori sono spesso complementari e si influenzano a vicenda. Il lavoro è vario. I tradizionali
28
Sebastiano Bagnara, Simone Pozzi
complessi produttivi, organizzati sostanzialmente allo stesso modo,
basati sulla ripetitività delle operazioni, sono in via di sparizione. Il
lavoro è vario soprattutto perché i processi di scambio non sono più
regolati dall‘offerta, ma dalla domanda, che è per natura diversificata, connessa come è ai bisogni e ai desideri. Il lavoro è socialmente
intenso. Vi è una grande flessibilità orizzontale e verticale: una persona può essere impegnata, anche nel corso della stessa giornata,
addirittura in parallelo, su più progetti, in cui può ricoprire ruoli diversi. In un progetto può essere il capo, e in altri progetti avere un
ruolo marginale. Il lavoro è cognitivamente impegnativo e richiede
responsabilità. Il nuovo lavoro concede grande discrezionalità e autonomia decisionale: ci sono ben pochi compiti ripetitivi svolti in
ambienti stabili. Siccome è finalizzato alla produzione di novità,
prevede attività sempre nuove in ambienti incerti (Bauman, 1999).
E, siccome si svolgono anche più attività in parallelo, si è soggetti a
frequentissime e improvvise interruzioni, che rendono difficile se
non impossibile trovare tempo e modo per la riflessione e la ponderazione. Il lavoro è intenso. Si lavora più a lungo e più intensamente, perché esso è intrinsecamente motivante e sfidante. Ma non finisce mai. Entra nella vita, nel tempo di recupero. La tensione non si
allenta mai.
L‘HCI deve ancora dare una risposta soddisfacente ai lati negativi di questo cambiamento: il lavoro in un call-center è spesso atomizzato, ripetitivo pur nella diversità delle richieste da fronteggiare,
cognitivamente e socialmente intenso (gli operatori devono risolvere un problema, ma anche rappresentare l‘immagine aziendale con i
clienti). I baristi di Starbucks sono in grado di rispondere ad una
domanda che può richiedere loro circa un centinaio di bevande differenti, combinando ingredienti, contenitori e richieste speciali, ma
di nuovo lo devono fare in un ambiente sociale, con un ritmo intenso, coordinandosi in team fluidi. Il lavoro è cambiato qualitativamente e con esso sono cambiate le forme di alienazione e di carico
cognitivo, ma la tensione tra impegno, varietà e malessere è un punto ancora da affrontare.
Fondamenti, Storia e Tendenze dell'HCI
29
Digitalizzazione e portabilità
Una delle conseguenze più evidenti della presenza pervasiva del
computer è la trasformazione in codice digitale di ogni informazione. Ogni tipologia di informazione, sia essa video, audio, testo, immagini, può essere tradotta in un codice comune, che ne permette la
registrazione, trasmissione e riproduzione con strumenti comuni.
Vista la sua forza e pervasività, tale dinamica risulta in una serie di
tensioni interessanti.
Integrazione versus distribuzione
La digitalizzazione consente di integrare diverse informazioni in un
unico strumento (il computer appunto), accrescendone però la complessità e diminuendone la specializzazione. Al contrario, l‘idea
portante di molta ricerca contemporanea nell‘HCI e nelle scienze
cognitive è il ―distribuire l‘intelligenza‖ nell‘ambiente, tipicamente
attraverso apparecchi dedicati a compiti precisi (information appliances), da attivarsi solo in caso di bisogno (Hutchins, 1995;
Norman, 2000; Weiser, 1991). L‘HCI si trova oggi a fronteggiare
queste due tendenze contrapposte, tra un personal computer sempre
più complesso e una miriade di apparecchi personali digitali (ad esempio: iPod, smart phones, palmari e blackberry, etc.). Talvolta le
due polarità possono persino sovrapporsi, come ad esempio nel caso dei cellulari di ultima generazione: apparecchi personali con una
complessità paragonabile a quella di un computer.
L’accumulo inutile: informazione versus conoscenza
Il costo di produrre, trasmettere e immagazzinare informazione digitale è estremamente basso, così come aumenta costantemente la
capacità di trasmissione, o la capacità di storage (il servizio di posta
elettronica Gmail attualmente mette a disposizione degli utenti 7
gigabyte di spazio, che corrispondono a decine di migliaia di email). Questo basso costo rischia però di innescare meccanismi di
sovra-produzione e sovra-consumo di informazione. Le persone
immagazzinano più informazione di quanta riescano effettivamente
a consumarne (tensione tra storage e viewing), strumenti di ricerca
sempre più veloci ci spingono a non sfogliare più le nostre cartelle
o nemmeno a creare strutture di archiviazione ordinata (tensione tra
ricerca e browsing), togliendoci però in tal modo l‘opportunità di
30
Sebastiano Bagnara, Simone Pozzi
imbatterci casualmente in informazioni rilevanti (troviamo solo
quello che già sappiamo di dover cercare).
Un effetto particolarmente pernicioso della sovraproduzione/immagazzinamento/consumo è il veloce decadimento
del valore delle informazioni. Questo è dovuto alle caratteristiche
cognitive umane stesse. L‘attenzione è una risorsa limitata e le informazioni competono continuamente per essa, con nuovi stimoli
pronti a prendere il posto dei vecchi (Bagnara, 2008; Davenport &
Beck, 2001). In questo modo il turn-over tra le informazioni è altissimo, mentre scarso (o altamente rischioso) è il valore di investire
in termini di attenzione, ovvero apprendimento e memoria, su di esse. Infatti appena apprese molte informazioni devo essere dimenticate, o rimpiazzate da nuove. Si pensi all‘apprendimento di nuovi
applicativi software, con le continue nuove release a soppiantare le
vecchie versioni, ai programmi o agli strumenti che utilizzavamo
pochi anni fa, alle versioni dei nostri cellulari, oppure al tempo dedicato ad inserire nuove informazioni nella nostra pagina personale
su Orkut o Myspace, per poi scoprire che tutti i nostri amici erano
migrati in massa su Facebook, o che sarebbe stato utile dedicare più
tempo a Linkedin e lasciar perdere invece Hi5, Friendster e Yaari.
In ultimo, pensiamo alla cattiva impressione che generano pagine
web chiaramente aggiornate per l‘ultima volta anni fa, ovvero alla
sensazione di non poter sicuramente trovare alcuna informazione
utile in una pagina vecchia. Servizi di risposte come Yahoo Answer
o Virgilio Genio predispongono infatti una redazione che visualizzi
sempre nuove domande e risposte, anche in assenza di domande da
parte di utenti reali. I giornali online devono invece bilanciare la
spinta a produrre sempre nuovi contenuti con la qualità degli stessi:
se la notizia resterà visibile per poche ore non giustifica investimenti significativi, siano essi per determinarne l‘attendibilità o per approfondire determinati aspetti.
Dal calcolo alla comunicazione
Una delle dinamiche più rilevanti nella storia dell‘HCI è stata sicuramente lo spostarsi degli sforzi di progettazione dalla parti interne
del computer, all‘interfaccia, fino ad arrivare allo spazio sociale.
Abbiamo visto come in conseguenza di questo processo si sia spo-
Fondamenti, Storia e Tendenze dell'HCI
31
stata l‘enfasi dagli aspetti di mero calcolo alla comunicazione. Le
tecnologie servono sempre di più per veicolare interazioni sociali, e
non per gli scopi iniziali di potenza di calcolo.
Il dissolversi dell’interfaccia
Concetti come il mobile o l‘ubiquitous computing sono da questo
punto di vista ancora più ―estremi‖, dal momento che viene a dissolversi la nozione stessa di interfaccia. Se Grudin (1990) ha descritto il passaggio dell‘interfaccia dai circuiti elettronici alla linee
di programma, alle linee di comando, fino alle interfacce grafiche,
oggi ci troviamo davanti a interfacce gestuali, vocali (speech recognition), o multi-touch. Si dissolve progressivamente il luogo ben
definito dove inserire i comandi per il computer, l‘interfaccia appunto, per estendersi nello spazio, o addirittura farsi non materiale.
In modo analogo, le azioni dell‘utente che il calcolatore riconosce come input assumono svariata forma. Le RFID (Radio Frequency IDentification, identificazione a radio frequenza) consentono di monitorare spostamenti nello spazio di oggetti e persone e
possono essere utilizzare per attivare comportamenti del calcolatore. Il Bluetooth e il wireless pongono in comunicazione i dispositivi
in base ad una prossimità spaziale, tessuti intelligenti (smart fabrics) trasmettono informazioni sui parametri vitali di chi l‘indossa,
sulle situazioni in cui si trova (temperatura, luminosità, posizione
nello spazio). Al di là delle diverse soluzioni tecnologiche, ciò che
ci appare importante è il dissolversi dei concetti di interfaccia e di
input utente, il loro estendersi nello spazio e farsi meno facilmente
circoscrivibili. L‘utente non deve più sedersi di fronte allo schermo
del computer per poter interagire con esso.
Always connected: il problema del controllo
Un‘interfaccia distribuita comporta la possibilità di essere sempre
connessi (always on), ovvero sempre in grado di comunicare attraverso le tecnologie. Ma l‘esigenza di connessione si trasforma spesso nella volontaria cessione di dati relativi alla propria sfera privata.
Le stesse tecnologie che abilitano la connessione perenne consentono anche di acquisire dati su ogni comportamento dell‘utente. Ogni
utente lascia una scia dettagliata di tracce digitali, che potrebbero
descrivere i suoi gusti, abitudini e pensieri in maniera più dettagliata di quanto gli piacerebbe pensare. Ed è anche per la tranquilliz-
32
Sebastiano Bagnara, Simone Pozzi
zante sensazione di anonimato (sensazione purtroppo illusoria) trasmessaci dalle transazioni digitali, che spesso siamo poco sensibili
a questo tipo di cessione di dati personali. La questione delle tracce
digitali ha cominciato a far sentire la sua urgenza anche sul piano
legale, dove le varie legislazioni nazionali si stanno attrezzando per
far sì che le persone mantengano il controllo sui propri dati personali. Connesso a questa tematica vi è il tema dell‘identificazione,
dato che l‘always on richiede nuove forme di identificazione della
persona, di nuovo implicando lo scambio di informazioni personali.
Ma vi è una seconda forma di controllo, dovuta alle modifiche di
consolidati schemi di interazione sociale a seguito delle aspettative
suscitate dalle tecnologie per la comunicazione. Il galateo digitale
dell‘always on prescrive che si segnali sempre la propria assenza,
utilizzando l‘auto-responder per la mail, o impostando il proprio
stato su Skype. Si sono sviluppati così nuovi contratti sociali impliciti, con i relativi impegni e forme di controllo, dove la possibilità
di comunicare si trasforma nell‘obbligo di farlo, e soprattutto di farlo immediatamente. I dispositivi di comunicazione personale facilitano la funzione fàtica (di contatto) della comunicazione, ma rischiano di trasformarla in obbligo di interazione.
Un effetto particolarmente deleterio dell‘always on è il moltiplicarsi delle interruzioni. Diventa sempre più difficile interrompere la
propria connessione dalla rete (a causa degli obblighi sociali di cui
sopra), esponendosi così ad un continuo flusso di sollecitazioni dirette (email, messaggi sms o via chat, etc.) o indirette (aggiornamenti di pagine web, curiosità e spinte ad approfondire, etc.). Il risultato è la frammentazione estrema dell‘attività, che si interrompe
di continuo per il controllo della mail, per caricare l‘ultima versione
del nostro blog preferito, per rispondere ai messaggi via chat di amici e colleghi. L‘interruzione continua (o perlomeno l‘aspettativa
di essere presto interrotti) costringe il lavoratore cognitivo a intensi
quanto brevi periodi di concentrazione, impedendo di dedicare un
tempo più lungo alla riflessione vera e propria, se non confondendo
ulteriormente il tempo del lavoro con il tempo del riposo, ovvero
con momenti socialmente dedicati al riposo (dove ci si aspetta che
anche gli altri diminuiscano le proprie interazioni).
Fondamenti, Storia e Tendenze dell'HCI
33
Il dissolversi dell’intelligenza artificiale come sistema esperto
Nonostante un ambizioso paradigma di ricerca, l‘intelligenza artificiale non si è ancora realizzata nelle forme attese dai suoi sostenitori. Le aspettative negli anni ‗50 e ‗70 erano di riuscire a costruire
macchine che implementassero le forme più alte del ragionamento
umano, grazie alla superiore potenza di calcolo. Tale aspettativa si è
rivelata per il momento troppo ambiziosa, e il ruolo
dell‘intelligenza umana rimane cruciale anche in quei sistemi dove
la formalizzazione e la strutturazione dei processi è alta, ovvero dove più esistono possibilità di sfruttare la potenza di calcolo per risolvere problemi formalizzabili in algoritmi matematici.
Le macchine che ci circondano non possono ancora dirsi intelligenti, e di sicuro non condividono molti degli aspetti fondamentali
dell‘intelligenza umana. Come già accennato, il paradigma attuale
tende a mirare a comportamenti adattivi, più che all‘intelligenza
pienamente formata, con macchine che apprendono ad anticipare i
nostri desideri sulla base di comportamenti ricorrenti. Ed è proprio
in queste forme di supporto limitato che si potrebbe trovare la potenziale convergenza tra HCI e intelligenza artificiale. Se gli obiettivi sono definiti in modo appropriato, ovvero focalizzandosi su
precisi comportamenti dell‘utente, le learning machines possono
essere una risorsa per l‘interaction design. Uno dei problemi cruciali che si pone al momento la ricerca sulle macchine intelligenti è
come fare in modo che tali macchine utilizzino il contesto in cui si
muovono come risorsa per definire i comportamenti appropriati.
L‘intelligenza non è più astratta, non è più mera potenza di calcolo,
quanto è invece finezza dei sensori e adeguatezza dei comportamenti alla situazione. Se l‘intelligenza deve essere distribuita, allora
una delle sue capacità fondamentali dovrebbe essere la percezione
del contesto.
Dalla navigazione alla produzione collettiva
Nel 1996 si contavano circa 250.000 siti web, quasi tutti ―readonly‖, ovvero i cui contenuti erano pubblicati da autori ben determinati. Dall‘altro lato avevamo circa 45.000.000 di utenti, le cui attività tipiche erano la ricerca e la navigazione. Nel 2006 i siti erano
diventati 80.000.000, ma la differenza più grossa risiede nel fatto
34
Sebastiano Bagnara, Simone Pozzi
che questi siti sono in gran parte ―read-write‖. Si stima che ormai
un terzo dei contenuti siano generati dagli utenti (circa un miliardo),
che costruiscono nuovi siti, oppure arricchiscono materiali già esistenti. Accanto alla navigazione e ricerca, molti utenti ora generano
e scambiano contenuti. La digitalizzazione permette ad un gran
numero di persone di partecipare al momento della pubblicazione,
in casi estremi facendo perdere di validità analitica a categorie quali
pubblicazione, distribuzione, consumo. Le tre attività tendono a
confondersi l‘una nell‘altra, e di sicuro possono essere svolte da
uno stesso utente, laddove prima la separazione dei ruoli era netta.
L’usabilità come plasmabilità dei contenuti
Questo spostamento dei ruoli è stato accompagnato nell‘HCI da una
ri-focalizzazione di cosa significhi progettare siti (o tecnologie) usabili, centrate sull‘utente. Se prima l‘usabilità di un sito web si
giudicava dalla facilità di navigazione, adesso un sito web centrato
sull‘utente supporta anche la creazione dei contenuti da parte
dell‘utente stesso. I contenuti digitali sono rimodellabili e non si
configurano mai per loro natura come definitivi, conservano la plasmabilità che consente ad altri utenti di appropriarsene, apportarvi
modifiche e rimetterli in circolo (si pensi ai campionamenti nella
musica, o al copia ed incolla da internet). Un sito ―usabile‖ è allora
un sito che crea valore non perché l‘utente riesca a trovare
l‘informazione giusta, quanto perché spinge una moltitudine di utenti a contribuire alla creazione di un contenuto comune. I social
networks acquisiscono valore in base al numero degli iscritti e alla
tipologia dei contenuti che essi sono disposti a pubblicare nei loro
profili, i giochi online fioriscono di pari passo con le comunità di
videogiocatori, wikipedia o il social bookmarking (ad esempio Delicious) sopperiscono alla mancanza di autorevolezza con la massa
dei contributi che sono in grado di catalizzare.
La tensione più forte in questa dinamica è appunto quella tra autorevolezza e plasmabilità. Più i contenuti sono plasmabili (e più lo
sono da parte di un numero non ristretto di persone), più è facile
che essi possano essere utilizzati senza rigore, per mentire, per creare rumore, per cercare di affermare la propria individualità. I meccanismi più efficaci per controllare questo tipo di degenerazioni sono nuovamente quelli comunitari. Una comunità coesa è in grado di
Fondamenti, Storia e Tendenze dell'HCI
35
sviluppare meccanismi interni di controllo dell‘autorevolezza, attribuendo ad una ristretta cerchia di anziani il compito di garanti della
qualità di ciò che viene veicolato attraverso la comunità stessa.
Il copyright nell’era della riproducibilità tecnica
Una delle questioni più affascinanti dal punto di vista teorico è la
tensione tra la protezione della proprietà intellettuale e l‘uso creativo di semilavorati prodotti da altri. Il digitale rende difficile riconoscere l‘originale dalla copia, rende identico il prodotto pubblicato a
quello consumato, rende facili ed immediati i montaggi tra materiali
di provenienza eterogenea. Diversi artisti hanno approfittato delle
possibilità di manipolazione aggiuntive offerte dal digitale, scatenando ogni volta una discussione su quanto il digitale sia arte, su
quanto sia ―originale‖ l‘uso del calcolatore in campo artistico. Proprio per questa facilità di riproduzione e appropriazione sembra ancor più necessario predisporre una legislazione intransigente a protezione della proprietà intellettuale. Fatto salvo che l‘opera intellettuale non nasce in isolamento, ma anzi si nutre proprio dei semilavorati di altri autori, proponendo assemblaggi nuovi e arricchendoli
di altri significati. Il calcolatore sembra così dare corpo a pratiche
che sono sempre esistite, che anzi costituiscono il corpo di quello
che noi chiamiamo creatività, e che ci contraddistinguono in quanto
umani (si veda la descrizione del ratchet effect come meccanismo
evolutivo in Tomasello, 1999).
4. Le Sfide Future dell’HCI
In questa sezione conclusiva del nostro contributo, vorremmo sinteticamente proporre quelle che a nostro avviso sono le sfide del futuro prossimo dell‘HCI. Alcune di esse sono in continuità con quanto
discusso ai paragrafi precedenti, altre rappresentano invece un cambiamento piuttosto drastico e qualitativamente nuovo. Anche in
questo caso cercheremo di collocare la riflessione nel contesto sociale, pertanto ragioneremo più in termini di processi e tensioni per
renderne la natura dinamica e le contraddizioni interne. Non si tratta
qui di descrivere dove andrà l‘HCI domani, quanto di delineare gli
aspetti sociale che ad oggi appaiono più interessanti, più complessi
e più urgenti.
36
Sebastiano Bagnara, Simone Pozzi
I processi che descriveremo in questa sezione sono i seguenti:

l‘HCI come scienza dell‘uomo

gli ecosistemi digitali

l‘ubiquitous computing come spazio sociale

la lunga coda.
L’HCI come scienza dell’uomo
La prima sfida è probabilmente la più cruciale di tutte e impatta sul
futuro della disciplina in modo così profondo che le sue implicazioni si ritroveranno anche nella discussione delle altre tre. In estrema
sintesi, l‘HCI deve sviluppare un approccio alla progettazione in cui
i valori dell‘uomo giochino un ruolo fondamentale. Le tecnologie
non sono neutre e il loro impatto su valori sociali, culturali e politici
deve essere valutato sin da principio.
Dalla sua nascita l‘HCI ha cercato di rendere più usabili le tecnologie, migliorando il cattivo design o contribuendo al progetto sin
dall‘inizio. Ora la disciplina deve riuscire a cambiare in modo radicale il suo approccio se vogliamo influenzare l‘innovazione tecnologica. La sfida è non lasciare che sia il mero dato tecnico a stabilire cosa significhi essere umani nell‘era dell‘ubiquitous computing,
ma farsi proattivi autori della relazione tra la società e le tecnologie.
L‘HCI deve cominciare ad analizzare e comprendere le molteplici
questioni complesse che si pongono, di qualunque natura esse siano
(culturali, etiche, politiche, ecc.).
Abbiamo analizzato nelle parti precedenti di questo contributo
come l‘innovazione tecnologica abbia conseguenze radicali sulla
vita quotidiana delle persone, trasformando relazioni sociali, ambienti di lavoro e di vita. Alcuni prominenti ricercatori HCI hanno
suggerito due sfide immediate sul piano metodologico (Harper et
al., 2008). Innanzitutto, estendere lo user centred design includendo
un passo ulteriore nel processo, ovvero un momento dedicato allo
studio delle questioni sociali (human centred). Inoltre, sviluppare lo
scambio interdisciplinare, individuando strumenti e metodi per parlare anche con quelle discipline umanistiche che, al contrario della
psicologia, della sociologia e dell‘antropologia, ancora non hanno
dato alcun contributo alla ricerca HCI. Ad esempio la filosofia,
Fondamenti, Storia e Tendenze dell'HCI
37
l‘arte, gli studi letterari e culturali potrebbe fornire ottimi strumenti
di analisi per affrontare questioni sociali, etiche e politiche.
L‘HCI dovrebbe costruirsi un bagaglio di metodi e tecniche per
studiare come le tecnologie supportino, vincolino, o modifichino i
valori umani. Si tratta di condurre ad un livello qualitativamente diverso lo studio user centred, includendo i desideri, gli interessi e le
aspirazioni che possono essere realizzati attraverso le tecnologie,
inoltre spostando l‘attenzione dal dato individuale a quello sociale,
ovvero interrogandosi su cosa sia desiderabile a livello di società e
non solo di singoli. I trade-off nel design riguarderanno sempre di
più la dimensione socio-culturale, dimensione che varia sensibilmente di contesto in contesto (si pensi ad esempio alla dimensione
della privacy in una famiglia o nel gruppo di lavoro). In un mondo
multi-culturale, i sistemi valoriale potrebbe essere spesso in contrasto gli uni con gli altri, rendendo sempre più difficoltoso fare HCI
senza considerare queste dimensioni.
Gli ecosistemi digitali
La presenza del computer diventerà sempre più pervasiva in futuro,
ma probabilmente assisteremo anche ad un salto qualitativo. I computer inizieranno ad interagire tra di loro in modo sempre più consistente, spesso in maniera indipendente dall‘operato umano. Questo
ecosistema formato da calcolatori interconnessi potrebbe essere
molto opaco per l‘utente, rendendoci difficoltoso il comprendere i
suoi modi di funzionamento. Inoltre potremmo aspettarci che la sua
crescente complessità finirà con il generare delle proprietà emergenti, difficili da prevedere, e probabilmente anche da individuare
una volta emerse. È su questo grado crescente di complessità che
ancora una volta si innesterà l‘agire umano, rendendo il tutto ancora
più intricato e multiforme (volutamente non parliamo più di ―utenti‖ in questo caso, perché questo concetto difficilmente si applica ad
una situazione come quella appena descritta, dove l‘uomo è parte
del sistema più che esserne un utente esterno).
L‘HCI dovrà affrontare il problema di collocare nell‘ambiente
gli artefatti intelligenti che oggi stiamo progettando, di specificarne
le interazione reciproche e con gli esseri umani, le reazioni al contesto e ai cambiamenti in esso, ma soprattutto di definire il grado di
38
Sebastiano Bagnara, Simone Pozzi
controllo che ciascun umano avrà su di essi e la visibilità del loro
funzionamento. Gli esseri umani si affidano in maniera sempre più
crescente a questi sistemi per spostarsi e per condurre le proprie attività, l‘HCI dovrà quindi cercare di capire come mitigare la probabile perdita del senso di controllo (come tradizionalmente lo intendiamo) da parte dell‘utente sul calcolatore. Ci sentiremo in balia
delle macchine da noi create? Cercheremo di sfuggirvi non appena
possibile per ritornare nel più tranquillizzante mondo newtoniano
dei legami di causa-effetto, da noi ben conosciuti dopo millenni di
evoluzione? Si tratta probabilmente di una tensione irrisolvibile, ma
di sicuro l‘HCI dovrà dedicare parecchi sforzi per identificare rappresentazioni del funzionamento di questo ecosistema digitale che
siano adeguate per gli esseri umani, che siano comprensibili e che
permettano di agire se necessario. Se l‘ambiente è interamente interattivo, cosa ci dirà, cosa possiamo fare, e quali effetti possiamo attenderci? Pensiamo ad esempio ai casi di malfunzionamento. È già
impegnativo oggigiorno affrontare il malfunzionamento di una
stampante o di un router wireless, lo sarà in misura nuova capire il
perché l‘ecosistema digitale che ci circonda abbia reagito (oppure
no) in modo inatteso ad un nostro movimento.
L’ubiquitous computing come spazio sociale
Come abbiamo già avuto modo di rimarcare, il concetto di interfaccia si sta progressivamente dissolvendo. Da un lato il punto di interazione si avvicina maggiormente al nostro corpo, con dispositivi
digitali personali o con sensori di parametri vitali, dall‘altro si dissolve in ambienti interattivi. Entrambi i movimenti ci interessano in
quanto forieri di cambiamenti radicali per quanto riguarda le interazioni sociali.
Lo spostamento del luogo dell‘interazione nello spazio infatti
impatta sulle convenzioni sociali tradizionali, che ancora governano
il nostro modo di agire e comunicare, così come definiscono i destinatari delle nostre comunicazioni. L‘ubiquitous computing sfuma
la differenza tra luoghi e tempi diversi (del lavoro, del viaggio, della vacanza, della famiglia, ecc.), rendendo inappropriate le strategie
di gestione del tempo e dello spazio che attualmente usiamo per dividere il lavoro dalla vita privata, gli amici dai parenti, i colleghi
Fondamenti, Storia e Tendenze dell'HCI
39
dai conoscenti. L‘HCI dovrebbe dotarci di nuovi strumenti per gestire interazioni multiple di natura profondamente diversa, che per
di più possono avvenire in ogni momento e in ogni dove, intrecciando tra di loro comunità eterogenee. Si pensi ad esempio
all‘identificativo chiamante sul cellulare e come esso venga utilizzato dalle persone in maniera diversa a seconda delle situazioni
(decido di non rispondere e faccio squillare, riattacco, rispondo perché non conosco il numero, spengo il cellulare, ecc.). Di nuovo
l‘HCI non sembra sinora in grado di dettare la direzione
dell‘evoluzione dei comportamenti, ma si limita a registrare (e magari supportare) la proliferazione spontanea di pratiche e stratagemmi individuali. Dovrebbe invece studiare come permetterci di
conservare dei momenti di indipendenza pur all‘interno di connessioni always on, fornendoci modi di decidere momento per momento le forme della nostra disponibilità per gli altri, in modo meno
grezzo che non sia un cellulare spento o un messaggio ―non al
computer‖ su Skype.
In modo analogo, l‘utilizzo di dispositivi personalizzati mette in
questione il grado di visibilità di tali dispositivi alle altre persone.
Che tipo di visibilità sociale dovrebbe avere il dialogo tra il nostro
palmare e l‘ecosistema digitale? Come limitare la visibilità sociale
di feedback visivi o sonori (si pensi alle suonerie dei cellulari)? Vi
sono casi in cui chi ci sta vicino spazialmente (chiunque esso sia)
dovrebbe poter accedere ad informazioni sensibili, ad esempio sul
nostro stato corrente di salute? Come utilizzare in situazioni sociali
informazioni dettagliate sui nostri gusti e sulle nostre preferenze?
Ad una estrema personalizzazione dei dispositivi digitali corrisponde pertanto il problema di come essi dialoghino con l‘ecosistema
digitale, ovvero come le nostre interazioni con essi si collochino
nello spazio sociale. Una HCI come scienza dell‘uomo dovrebbe
permetterci di rigenerare nuove convenzioni sociali e un nuovo galateo, laddove oggi ubiquitous e personal computing sono spesso
sinonimo di elisione di qualunque convenzione o galateo.
La lunga coda
L‘ultima tendenza su cui vorremmo riflettere in questo contributo è
quella che viene denominata ―la lunga coda‖, nome derivato da un
40
Sebastiano Bagnara, Simone Pozzi
articolo comparso nel 2004 sulla rivista Wired ad opera di Chris
Anderson. In estrema sintesi, Anderson nota come nei modelli economici tradizionali l‘80% del fatturato sia generato dal 20% dei
prodotti in magazzino. Questa regola del 80-20 (conosciuta come il
principio di Pareto) è ritenuta valida per molti segmenti commerciali, dalle grandi librerie al mercato musicale, alla vendita e noleggio
di film. Solo il 20% dei film diventa un successo, così come per gli
spettacoli televisivi, i giochi o i libri di largo consumo. La situazione è persino peggiore nel mercato musicale, dove meno del 10% dei
prodotti genera un profitto. La metà dei prodotti in questi mercati di
solito non vende nemmeno una copia a trimestre. Questa percentuale non è invece più valida per il mercato digitale, dove dalle rilevazioni di Anderson emerge come circa il 98% dei prodotti in magazzino riesca a vendere almeno una copia in tre mesi. Anderson riporta ad esempio il caso di Rhapsody, un servizio di streaming musicale a sottoscrizione. Quando Anderson ha scritto l‘articolo, il magazzino di Rhapsody era intorno alle 735.000 tracce musicali, contro le
40.000 tracce che potremmo aspettarci in un magazzino ―reale‖. Oltre questa soglia delle 40.000 non vi è l‘incentivo economico di tenere in magazzino il cd, visto che le probabilità di venderlo sono
bassissime. Se invece scorriamo il magazzino di Rhapsody (ordinando le tracce per numero di passaggi richiesti dagli ascoltatori)
scopriamo che addirittura le prime 400.000 tracce hanno avuto almeno un passaggio al mese. Questa è la lunga coda, ovvero la parte
a destra del grafico in Figura 5, che tende asintoticamente allo zero,
ma continua fino alla 400.000esima traccia.
In modo analogo un punto vendita di Barnes & Noble ha circa
130.000 titoli, mentre Amazon deve più del 50% dei suoi ricavi a
titoli che sono oltre i suoi 130.000 titoli più venduti. E questo è
proprio il punto: se combiniamo tutti i ―non successi‖ (ovvero le
canzoni o i libri che vendono pochissimo) del magazzino di Rhapsody o di Amazon otteniamo un mercato che muove più denaro di
quanto ne facciano i soli successi. Il mercato della scarsità (ovvero
dei prodotti che vendono poco o pochissimo) è oltre la portata dei
negozi fisici, ma aggregato raggiunge dimensioni pari a quelle del
mercato dei successi.
Fondamenti, Storia e Tendenze dell'HCI
41
Figura 5. La lunga coda (immagine adattata dall‘articolo di Anderson).
Questa opportunità è offerta dai bassi costi di immagazzinamento dei prodotti digitali, a patto di supportare l‘utente nell‘affrontare
la tensione tra ricerca e browsing (descritta nel paragrafo 4.2), ovvero di offrirgli strumenti per trovare i prodotti della ―sua nicchia‖
in un catalogo così vasto. Si pensi ad esempio allo sviluppo di sistemi di consigli come quello di Amazon ―altri utenti hanno acquistato‖, oppure ―se ti piace questo autore, forse ti interesserà anche
quest‘altro‖.
Il ragionamento ci sembra rilevante anche per gli altri mercati
tecnologici: la combinazione tra la lunga coda e la personalizzazione dei dispositivi è la chiave per accedere a nicchie sinora inesplorate, come testimoniato dall‘espansione delle tecnologie per la terza
età, o del digitale per i bambini, o per persone con disabilità fisiche
o cognitive, oppure ancora a professionisti in diversi settori con esigenze particolari (praticanti di sport estremi, ricercatori e scienziati,
ecc.). Ma mentre alcune nicchie sono omogenee per fattori demografici facilmente osservabili (quali l‘età, la residenza, il sesso,
etc.), le nicchie omogenee per preferenze e comportamenti (come
ad esempio gli acquirenti di un certo tipo di musica) possono essere
supportate solo a patto di avere accesso a dati sensibili sugli appartenenti. Di nuovo incontriamo la tensione tra privacy e personalizzazione: servizi personalizzatici chiedono di rivelare molti particolari su di noi. In questo senso acquistare un best seller è un atto ―più
42
Sebastiano Bagnara, Simone Pozzi
anonimo e privato‖, di quanto ad esempio non lo sia essere gli unici
acquirenti italiani di un autore straniero. Questo secondo atto ci colloca immediatamente in una nicchia ben particolare. Siamo disposti
a dire ad Amazon tutto sui nostri gusti, pur di lasciarci guidare negli
acquisti?
L‘HCI non dovrebbe solamente fronteggiare queste tensioni tra
privacy e personalizzazione, tra ricerca e browsing, ma anche attrezzarsi con metodi di ricerca sulle caratteristiche altamente idiosincratiche di determinate nicchie e categorie professionali. Un conto è la progettazione user centred per il pubblico generalizzato, un
conto è sviluppare strumenti per scienziati o per professionisti. In
questo secondo caso le persone sono definite dai loro bisogni, dai
loro desideri, dai loro sistemi di valori, ma anche dalle loro conoscenze. Alle metodologie HCI va aggiunto non solo un momento di
studio delle questioni sociali, ma anche un momento di comprensione profonda della natura dell‘expertise di queste persone, ad un
livello di complessità e collaborazione sino ad oggi poco praticato.
La coda è molto più lunga di quanto pensiamo (ed equivale ad un
mercato significativo), ma per raggiungerla è necessario rispondere
a sfide nuove.
Conclusioni
In questo contributo abbiamo cercato di proporre una definizione
della disciplina dell‘HCI attraverso la sua storia. Ne abbiamo evidenziato le continuità con l‘ergonomia fisica e con quella cognitiva,
delineando le dinamiche sociali e tecnologiche principali che ne
hanno plasmato lo sviluppo.
Il campo della disciplina è ad oggi sempre più dinamico e in forte evoluzione, nel tentativo non facile di reggere il passo
dell‘innovazione tecnologica. La sfida cruciale è a nostro avviso il
riuscire a mutare l‘approccio user centred in un approccio human
centred, ovvero in una scienza dell‘uomo, migliorando la nostra
comprensione delle conseguenze e del ruolo sociale della progettazione. Significherà mutare in maniera radicale i nostri strumenti e la
nostra terminologia, trasformando ad esempio concetti quali interfaccia o utente, ma soprattutto aprirsi in modo più radicale ad altre
Fondamenti, Storia e Tendenze dell'HCI
43
discipline, ―appropriandosi‖ in un certo senso delle loro terminologie e dei loro strumenti.
Le scelte sociali che l‘HCI potrebbe trovarsi ad affrontare rappresentano sfide radicalmente nuove. Nell‘era dell‘accumulo infinito e a basso costo ci troviamo a valutare esplicitamente il valore
della memoria e dell‘oblio, decidendo quali eventi, atti, o immagini
debbano lasciare una traccia digitale, e quali tracce invece svaniranno. Lo stesso dicasi per le competenze che ci distinguono in
quanto umani. Se gli antichi greci si interrogavano sui pericoli della
scrittura per la memoria, allo stesso modo noi dobbiamo riflettere
su quali vorremmo fossero le competenze e gli strumenti cognitivi
dei bambini del 2020. Se la capacità di calcolo mentale sarà resa
obsoleta da calcolatori ubiquitous, quali altre competenze seguiranno lo stesso destino? Dovremo riflettere sulla desiderabilità sociale
di tali dinamiche e nel caso agire di conseguenza. Ogni nuova generazione aggiungerà nuove tecnologie a quelle già esistenti, con un
grado di dipendenza prevedibilmente sempre più alto. La sfida
dell‘HCI sarà quella di domandarsi esplicitamente quale sia
―l‘impasto desiderabile‖ di competenze vecchie e nuove, quali modalità di interazione conservare, quali traslare e quali abbandonare.
Letture Consigliate
Bagnara, S. [2008] "L‗economia dell‗attenzione," in R. Nicoletti, E. Ladavas & P.
Tabossi (a cura di) Attenzione e cognizione, Il Mulino, Bologna, Italia.
Davenport, T. H., & Beck, J. C. [2001] The Attention Economy: Understanding
the New Currency of Business, Harvard Business School Press, Cambridge,
MA.
National Research Council. [1999]. The changing nature of work: Implications
occupational analysis. Washington, DC: National Academy of Sciences.
Norman, D. A. [1990] La caffettiera del masochista, Giunti, Firenze, Italia.
Bibliografia
Association for Computing Machinery. [2008] Definition of HCI, Retrieved
August, 2008, from http://sigchi.org/cdg/cdg2.html
Bagnara, S. [2008] "L‘economia dell‘attenzione," in R. Nicoletti, E. Ladavas & P.
Tabossi (a cura di) Attenzione e cognizione, Il Mulino, Bologna, Italia.
44
Sebastiano Bagnara, Simone Pozzi
Bartlett, F. C. [1962] "The future of ergonomics," Ergonomics, 5, 505–511.
Bauman, Z. [1999] La società dell‘incertezza, Il Mulino, Bologna, Italy.
Bødker, S. [2006] "When second wave HCI meets third wave challenges,"
Proceedings of the 4th Nordic conference on Human-computer interaction:
changing roles, 1-8.
Davenport, T. H., & Beck, J. C. [2001] The Attention Economy: Understanding
the New Currency of Business, Harvard Business School Press, Cambridge,
MA.
Davis, S., & Meyer, C. [1998] Blur: The Speed of Change in the Connected
Economy, Warner Books, New York, NY.
Engelbart, D. [1988] "The augmented knowledge workshop," in A. Goldberg (a
cura di) A history of personal workstations, Addison-Wesley Publishing
Company, New York, NY.
Grudin, J. [1990] The computer reaches out: the historical continuity of interface
design, paper presented at the SIGCHI conference on Human factors in
computing systems: Empowering people, Seattle, WA.
Harper, R., Rodden, T., Rogers, Y., & Sellen, A. (a cura di) [2008] Being Human:
Human-Computer Interaction in the year 2020, Microsoft Research Ltd,
Cambridge, UK.
Henry, N., Goodell, H., Elmqvist, N., & Fekete, J. D. [2007] "20 Years of Four
HCI Conferences: A Visual Exploration," International Journal of HumanComputer Interaction, 23(3), 239-285.
Himanen, P. [2001] The Hacker Ethic and the Spirit of the Information Age,
Random House, New York, NY.
Hutchins, E. [1995] "How a Cockpit Remembers Its Speeds," Cognitive Science,
19, 265-288.
International Ergonomics Association. [2008] What is Ergonomics, Retrieved
August, 2008, from http://www.iea.cc/
Isaacs, D., Isaacs, S., & Fitzgerald, D. [2007] "A Day in the Life of a Doctor: The
computer," BMJ: British Medical Journal, 335(7633), 1304.
Ishii, H., & Ullmer, B. [1997] Tangible Bits: Towards Seamless Interfaces between
People, Bits and Atoms, paper presented at the CHI.
National Research Council. [1999]. The changing nature of work: Implications for
occupational analysis. Washington, DC: National Academy of Sciences.
Perrow, C. [1984] Normal Accidents: Living with High-Risk Technologies (1999,
2nd ed.), Basic Books (2nd ed. Princeton, NJ: Princeton University Press),
New York, NY.
Reason, J. T. [1997] Managing the risks of organizational accidents, Ashgate
Publishing Limited, Hampshire, UK.
Fondamenti, Storia e Tendenze dell'HCI
45
Tomasello, M. [1999] The cultural origins of human cognition, Harvard University
Press, Cambridge, MA.
Veyrat, N., Blanco, E., & Trompette, P. [2008] "Social Embodiment of Technical
Devices: Eyeglasses Over the Centuries and According to their Uses," Mind,
Culture and Activity, 15(3), 185-207.
Weiser, M. [1991] "The Computer for the 21st Century," Scientific American,
265(3), 94-104.
Sebastiano Bagnara è docente di psicologia cognitiva alla Facoltà di Architettura dell‘Università di Sassari ad Alghero, dove presiede il Corso di
Laurea in Design. In precedenza, ha insegnato al Politecnico di Milano,
Facoltà del Design, ha fondato e diretto il Corso di Laurea e il Dipartimento in Scienze della Comunicazione dell‘Università di Siena, è stato ricercatore e direttore dell‘Istituto di Psicologia del CNR. È stato General Secretary dell‘International Ergonomics Association, Chairman dell‘European
Association of Cognitive Ergonomics e Presidente della Società Italiana di
Ergonomia. Ha pubblicato oltre duecento articoli scientifici e una decina
di libri, fra cui (con Gillian Crampton Smith) ―Theories and practice in
interaction design‖.
Simone Pozzi è esperto di Human Factors e Safety presso Deep Blue
(Roma), dove svolge attività di ricerca nell‘applicazione di metodi e tecniche dell‘Interaction Design ai sistemi safety critical, quali l‘aviazione civile e il campo sanitario. È inoltre contrattista di ricerca presso il Dipartimento di Psicologia dei Processi di Sviluppo e Socializzazione della Sapienza Università di Roma. Le sue attività di docenza includono corsi
presso l‘Università di Siena e presso la sede Eurocontrol di Lussemburgo.
Nel 2005-2006 è stato Consulente Tecnico per la Procura della Repubblica
di Bologna per l‘incidente ferroviario di Crevalcore. I suoi interessi di ricerca riguardano gli aspetti sociali dell‘ergonomia cognitiva, la progettazione e valutazione dell‘usabilità, i processi di innovazione tecnologica nei
sistemi socio-tecnici, la gestione del fattore umano nei sistemi safety critical (resilience, errore umano e flessibilità della prestazione).
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Inclusione nella Società dell’Informazione
Pier Luigi Emiliani – Consiglio Nazionale delle Ricerche
[email protected]
Abstract. La diffusione dei calcolatori e dei terminali è molto promettente
per garantire la fruizione dell‘informazione e dei servizi di telecomunicazione da parte di persone con limitazioni di attività, se ne è garantita
l‘accessibilità. Tradizionalmente, il problema dell‘accessibilità è stato affrontato adattando le interfacce con prodotti appositi, classificati come
―Tecnologia Assistiva‖. Questo approccio ha mostrato problemi legati ai
costi, al ritardo e alle intrinseche limitazioni degli adattamenti. Inoltre,
l‘interesse si è allargato all‘accessibilità di tutte le componenti della società dell‘informazione (Accessibilità Universale). Si è cominciato a pensare
che fosse necessario considerare l‘accessibilità nello sviluppo della tecnologia e delle apparecchiature e applicazioni, usando l‘approccio della Progettazione Universale, del quale vengono presentati due esempi: lo sviluppo di un‘architettura software per la realizzazione di interfacce adattabili
ed adattive e le linee guida WAI-W3C per l‘accessibilità al Web. Viene
anche mostrato come la disponibilità di un‘apposita legislazione sia fondamentale, analizzando la legislazione italiana. É infine considerata
l‘attuale transizione verso la Società dell‘Informazione, concepita come un
ambiente intelligente. Ne vengono descritte brevemente le caratteristiche
generali e viene infine discusso come l‘ambiente intelligente ha possibilità
di supporto agli individui e può portare anche alla ridefinizione di alcuni
aspetti del concetto di accessibilità.
Keywords: Limitazioni di attività, Accessibilità universale, Progettazione
universale, Società dell‘informazione, Tecnologia assistiva, Disabilità.
Introduzione
La società è in una fase di rapido cambiamento a causa di molti fattori concorrenti, uno dei quali è lo sviluppo tecnologico.
L‘integrazione fra le tecnologie delle telecomunicazioni,
dell‘informatica e dei media, dovuto alla rappresentazione in forma
numerica di tutte le componenti informative (testo, grafica, imma-
48
Pier Luigi Emiliani
gini e video), e il basso costo dei calcolatori e delle apparecchiature
basate su calcolatori, sta riducendo il confine fra le attività di accesso all‘informazione, comunicazione interpersonale e controllo ambientale in tutti gli ambienti e sta causando una riorganizzazione
della società come Società dell‘Informazione, con un impatto importante anche sulla situazione delle persone con limitazioni di attività e sulla loro possibilità d‘inclusione.
I ruoli dei cittadini nella Società dell‘Informazione emergente
sono in corso di definizione e si suppone che molte attività (educazione, lavoro, studio, divertimento) saranno mediate dalla tecnologia. Per questo è necessario discutere il possibile impatto degli sviluppi tecnologici, in corso e previsti, sulle persone con limitazioni
di attività, considerando i possibili cambiamenti nel breve termine e
i possibili scenari d‘evoluzione nel medio lungo termine, come una
transizione verso una Società dell‘Informazione basata sul paradigma dell‘intelligenza ambientale.
I cambiamenti verso la Società dell‘Informazione sono così profondi che stanno anche causando una revisione del modo classico di
uso della tecnologia per favorire l‘inclusione sociale di persone con
limitazioni di attività. Fino ad ora, l‘approccio della Tecnologia Assistiva (AT) si è basato sull‘adattamento ―a posteriori‖ della nuova
tecnologia (per esempio cambiando le interfacce) allo scopo di
permettere l‘accessibilità ai sistemi e servizi, e sull‘uso della nuova
tecnologia per garantire abilità non ancora disponibili (per esempio
la possibilità a chi non è in grado di vedere di controllare cosa ha
scritto). Adesso si sostiene, anche a livello politico, la necessità di
un nuovo approccio, quello della Progettazione Universale (Design
for All in Europa), in base al quale tutti i sistemi, servizi e applicazioni nella società devono essere progettati tenendo conto delle necessità, richieste e preferenze del maggior numero possibile di utenti. É quindi necessario discutere delle possibili definizioni di tale
approccio e delle possibilità di un suo utilizzo pratico.
Infine, vi è un importante cambiamento della percezione sociale
dei problemi d‘inclusione, che non viene vista solo come necessità
di dare accesso ai sistemi e servizi, ma di rendere fruibile a tutti
l‘informazione e le possibilità di comunicazione (Accessibilità Universale). Anche in Italia esiste una legge, dalle caratteristiche particolarmente avanzate, che si occupa di tale problematica.
Inclusione nella Società dell‘Informazione
49
1. Dall’Accessibilità ai Calcolatori ed ai
Terminali all’Inclusione nella Società
dell’Informazione
Persone con limitazioni di attività
In questo capitolo la locuzione ―persone con limitazioni di attività‖
è utilizzata al posto di ―persone disabili‖ o ―persone con disabilità‖.
Questo approccio è in linea con quello usato dall‘Organizzazione
Mondiale della Sanità (WHO) nella preparazione della ―Classificazione Internazionale delle Funzioni, Disabilità e salute (ICF)‖, nella
quale si cerca un bilanciamento fra un approccio puramente medico
ed uno puramente sociale nell‘identificazione dei problemi e delle
opportunità d‘inclusione sociale. Trattando dei problemi di persone
che hanno limitazioni di attività o restrizioni nella partecipazione,
―ICF usa il termine disabilità per indicare un fenomeno multidimensionale che risulta dall‘interazione fra le persone ed il loro ambiente fisico e sociale‖. Questo approccio è molto importante, perché permette di raggruppare ed analizzare limitazioni che non sono
solo dovute a menomazioni fisiche. Per esempio, le persone non
sono capaci di vedere perché sono cieche, o hanno problemi di fissazione a causa di spasticità dovuta a paralisi cerebrale, o perché si
trovano in un luogo con illuminazione insufficiente, o stanno guidando e quindi non possono usare gli occhi per interagire con un
sistema informativo. Le persone possono avere menomazioni, limitazioni di attività o restrizioni alla partecipazione che caratterizzano
la loro abilità (capacità) di eseguire un compito od un‘azione (attività), ma le loro prestazioni sono influenzate dall‘ambiente. Questo
può aumentare il loro livello di prestazioni al di sopra del livello di
capacità (e quindi è considerato un facilitatore) o può ridurre le prestazioni al di sotto del livello di capacità (essendo quindi considerato come una barriera).
L‘enfasi è sul fatto che tutte le persone, indipendentemente dalla
loro capacità di eseguire determinate attività, possono avere prestazioni differenti a seconda dei differenti contesti e che l‘ambiente
deve essere strutturato in modo da facilitare le loro prestazioni.
50
Pier Luigi Emiliani
Accessibilità Universale, Tecnologie Assistive e Progettazione Universale
In questo capitolo si sostiene che nel settore dell‘informatica e delle
telecomunicazioni, in evoluzione molto dinamica, l‘accessibilità e
l‘usabilità di sistemi complessi da parte di persone con caratteristiche e richieste diverse non può essere affrontato con soluzioni di
Tecnologia Assistiva (AT) introdotte dopo che le componenti costruttive principali del nuovo ambiente sono state progettate e rese
disponibili per l‘utilizzazione. Invece, vi è la necessità di approcci
maggiormente proattivi, basati sui principi della Progettazione Universale (Design for All - DfA) (Emiliani & Stephanidis, 2005) parallelamente alla ridefinizione del ruolo e della portata della Tecnologia Assistiva nei nuovi ambienti. In tale contesto, i concetti di
Accesso Universale e Progettazione Universale acquisiscono
un‘importanza critica nel facilitare l‘accessibilità del nuovo ambiente tecnologico attraverso l‘uso di soluzioni generiche, cioè valide per tutti i possibili utenti.
É quindi importante introdurre alcune definizioni di termini e discutere brevemente i concetti che saranno utilizzati nel seguito
dell‘esposizione. Accesso Universale e Accessibilità Universale sono usate per indicare il diritto dei cittadini ad una disponibilità
completa delle risorse di accesso all‘informazione e alla comunicazione nella Società dell‘Informazione. Questo può essere ottenuto
in parte rendendo i sistemi, i servizi e le applicazioni accessibili a
tutti i cittadini. Perciò l‘accessibilità è utilizzata come uno degli approcci verso l‘inclusione nella Società dell‘Informazione. Comunque, l‘accessibilità non è sufficiente. Per esempio, quando le persone ricevono supporto da funzionalità ICT per la vita indipendente a
casa, particolarmente se hanno problemi cognitivi, si richiede più
dell‘accessibilità ai sistemi e servizi. L‘ambiente deve essere capace
di supportare le persone con funzionalità specifiche.
Con il nome di Tecnologia Assistiva (Assistive Technology –
AT) normalmente si fa riferimento alle tecnologie (dispositivi o
servizi) usati per compensare le limitazioni funzionali, per facilitare
la vita indipendente, per permettere alle persone anziane e/o con limitazioni di attività di sfruttare completamente le loro abilità. Alcune di queste tecnologie, anche se non progettate espressamente
Inclusione nella Società dell‘Informazione
51
per persone con limitazioni di attività, possono essere integrate in
modo tale da diventare assistive quando necessario.
Figura 1. Approccio basato sulla tecnologia assistiva
Il termine Tecnologie Assistive comprende ogni apparecchiatura
capace di soddisfare la definizione precedente, come, ad esempio,
le sedie a rotelle, le prostesi e i comunicatori. Il documento presente
copre solo una parte dell‘intera AT, quella che è direttamente correlata con le tecnologie dell‘informazione e della comunicazione
(ICT).
Tradizionalmente i problemi di accessibilità sono stati risolti con
adattamenti e l‘uso di Tecnologia Assistiva è stato l‘approccio tecnico per ottenere gli adattamenti. Attualmente vi è uno spostamento
dell‘interesse verso approcci basati sulla Progettazione Universale.
In letteratura, la locuzione Progettazione Universale è usata, creando talvolta confusione, per identificare il principio concettuale che
tutti gli utenti devono essere considerati nella progettazione di nuovi prodotti e l‘insieme di approcci tecnici che possono generare
prodotti progettati per tutti. Apparentemente, esiste anche una confusione fra i concetti di Accesso Universale, cioè un diritto di tutti i
cittadini, e la Progettazione Universale, cioè uno degli approcci per
garantirlo. Ciò che è considerato importante, particolarmente nel
settore delle persone con limitazioni di attività, è di garantite alle
persone un Accesso Universale (inclusione nella Società
dell‘Informazione). Questo è giusto, ma il dichiarare che, perciò,
52
Pier Luigi Emiliani
ogni mezzo di garantire accessibilità è Progettazione Universale è
concettualmente ingannevole. La Progettazione Universale è solo
un approccio ben definito verso l‘inclusione sociale, particolarmente promettente a causa degli sviluppi della Società
dell‘Informazione, che, comunque, deve coesistere almeno nel corto medio periodo con la Tecnologia Assistiva per soddisfare le necessità di tutti i potenziali utenti dei sistemi, servizi ed applicazioni
ICT.
L‘Accesso Universale implica l‘accessibilità e l‘usabilità delle
tecnologie dell‘informazione e della telecomunicazione da parte di
tutti in qualsiasi luogo ed in qualsiasi momento, per la loro inclusione in qualunque ambiente di vita. Ha lo scopo di garantire a tutti
un accesso equo e la partecipazione alle attività umane mediate da
calcolatore esistenti ed emergenti, attraverso lo sviluppo di prodotti
e servizi universalmente accessibili ed usabili e la disponibilità di
convenienti funzionalità di supporto nell‘ambiente. Questi prodotti
e servizi devono essere in grado di soddisfare le richieste di ogni
utente in contesti d‘uso differenti, indipendentemente dalla sua posizione, sistema utilizzato, o ambiente applicativo. Quindi
l‘approccio teso a garantire l‘uso di apparecchiature o servizi è generalizzato, nel senso di rendere utilizzabile ed utile l‘informazione
come tale. Come sarà descritto nella sezione finale del capitolo, si
suppone che i cittadini vivano in ambienti popolati di oggetti intelligenti, dove i compiti da compiere e i modi di compierli possono
essere ridefiniti e coinvolgono una combinazione di attività di accesso all‘informazione, comunicazione interpersonale e controllo
ambientale. É necessario offrire alle persone la possibilità di compierle facilmente e piacevolmente.
Questa ultima osservazione è molto importante allo scopo di capire che l‘accessibilità non è sufficiente, ma deve essere introdotto
il concetto di Accesso Universale come diritto alla fruizione
dell‘informazione e della comunicazione, e che gli adattamenti non
sono più un‘opzione reale per soddisfare le richieste d‘inclusione.
La Progettazione Universale è stata introdotta nella strutturazione
dell‘interazione fra essere umano e calcolatore principalmente per
la necessità di servire una varietà di utenti. La linea di ragionamento è che poiché gli utenti sono differenti ed hanno richieste di accessibilità ed usabilità differenti, è necessario considerali tutti nelle
Inclusione nella Società dell‘Informazione
53
procedure di progetto centrate sull‘utente. L‘ulteriore problema è
che l‘ambiente emergente è molto complesso e la diversità deve essere considerata da diverse prospettive. Per la prima cosa
l‘interazione non è più solo con calcolatori o terminali, ma con
l‘ambiente e gli oggetti in esso contenuti. Perciò sarà necessario
considerare una varietà di paradigmi d‘interazione, metafore, media
e modalità. Inoltre, i cittadini-utenti non dovranno più confrontarsi
con i compiti richiesti dall‘applicazione in uso, ma con gli scopi da
raggiungere nella vita di ogni giorno, che saranno diversi nei diversi
ambienti e per utenti differenti. In aggiunta, gli scopi da raggiungere possono essere complessi non solo per la prevista fusione di funzioni di accesso all‘informazione, comunicazione interpersonale e
controllo ambientale, ma anche perché possono coinvolgere comunità d‘utenti. Infine lo stesso scopo può riproporsi in diversi contesti
d‘uso. Questo dà un‘idea della complessità dei problemi coinvolti,
la limitazione dei concetti classici di accessibilità, e la necessità di
approcci innovativi.
La nuova situazione ha anche un impatto sull‘approccio progettuale ai problemi di accessibilità. L‘Accesso Universale richiede
uno sforzo continuo e cosciente all‘applicazione dei principi, metodologie e strumenti della Progettazione Universale, per sviluppare
tecnologie e ambienti della Società dell‘Informazione, che siano disponibili per tutti i cittadini, includendo i molto giovani, gli anziani
e persone con diverse limitazioni d‘attività, in modo da eliminare la
necessità di adattamenti a posteriori o una progettazione specializzata. La richiesta di un Accesso Universale nasce dall‘impatto crescente della fusione delle tecnologie emergenti e dalle diverse dimensioni
della
diversità,
intrinseche
nella
Società
dell‘Informazione. Queste dimensioni diventano evidenti quando si
considera la larga variabilità delle caratteristiche degli utenti, la natura in rapido cambiamento delle attività umane, la varietà dei contesti d‘uso, la disponibilità crescente e la diversificazione
dell‘informazione e delle sorgenti di conoscenza, la proliferazione
delle piattaforme tecnologiche.
54
Pier Luigi Emiliani
Inclusione nella Società dell’Informazione
In Europa l‘inclusione nella Società dell‘Informazione sta ricevendo una attenzione crescente a livello politico. I successivi piani
d‘azione europei (2002 e 2005) hanno incluse misure specifiche
collegate all‘inclusione nella Società dell‘Informazione. Nel piano
e-Europe 2002, la linea di azione ―Partecipazione di tutti i cittadini
nell‘economia della conoscenza‖ definiva obbiettivi indirizzati
all‘area della Progettazione Universale e all‘accessibilità dei punti
di accesso pubblico ad Internet. Nel piano e-Europe 2005,
l‘inclusione nella Società dell‘Informazione è alla base delle priorità assegnate alla modernizzazione dei servizi pubblici (egovernment, e-health and e-learning). Infine, nel piano di azione
i2010 l‘inclusione nella Società dell‘Informazione è una delle priorità politiche chiave in tutte le attività specifiche proposte, come lo
sviluppo di linee guida sull‘accessibilità e la copertura a larga banda (2005), l‘adozione di un piano di azione su e-government
(2006), il lancio di dimostratori per sperimentare soluzioni tecniche,
legali e organizzative per portare in linea i servizi pubblici (2007) e
la pianificazione di tre iniziative sulla qualità della vita nell‘ICT
(2007), includendo anche una iniziativa sull‘inclusione nella Società dell‘Informazione (2008).
Partendo dall‘inclusione nella Società dell‘Informazione (eInclusion), la sua definizione ufficiale, quale appare nella Dichiarazione Ministeriale di Riga nel 2006, è la seguente1:
―eInclusion indica sia una ICT inclusiva che l‘uso della ICT per
raggiungere obbiettivi d‘inclusione più vasti. I suo fuoco è sulla partecipazione di tutti gli individui e comunità in ogni aspetto della Società dell‘Informazione: le politiche sulla eInclusion, perciò, hanno
l‘obbiettivo di ridurre il divario nell‘uso della ICT e di promuovere
l‘uso della ICT per superare l‘esclusione, di migliorare le prestazioni
economiche, le opportunità di lavoro, la qualità della vita, la partecipazione e la coesione sociale.
Da questa definizione risulta che l‘obbiettivo fondamentale
dell‘inclusione nella Società dell‘Informazione è di garantire
1 Pt. 4 DICHIARAZIONE MINISTERIALE APPROVATA ALL‘UNANIMITA‘
l‘11 giugno 2006, Riga
Inclusione nella Società dell‘Informazione
55
l‘Accesso Universale alla Società dell‘Informazione. Questo obbiettivo può essere ottenuto con approcci differenti. Questo capitolo si
propone di analizzare in dettaglio uno dei possibili approcci, cioè la
Progettazione Universale (DfA), e di mostrare le interconnessioni
con l‘approccio classico basato sulla Tecnologia Assistiva (AT).
Componenti della inclusione nella Società
dell’Informazione (eInclusion)
Come mostrato in Figura 2 l‘inclusione nella Società
dell‘Informazione può essere ottenuta con il contributo di approcci
differenti. Prima di tutto è possibile aumentare le abilità degli utenti, usando tecnologia di uso comune, per esempio gli occhiali nel
caso di limitazioni della vista, o tecnologia speciale (AT), per esempio sistemi di ingrandimento per limitazioni visive gravi. Alternativamente, le persone possono essere supportate con apparecchiature speciali, basate, per esempio, sulla trasduzione di media per
persone con limitazioni di tipo sensoriale. Un esempio tipico sono i
lettori di schermo per i ciechi.
Figura 2. Approcci all'inclusione
Se si vuol favorire un approccio basato sull‘uso di tecnologia di tipo
generale, può essere possibile ridefinire il modo di svolgere attività
in diversi contesti d‘uso, in modo tale che possono essere utilizzate
le abilità disponibili degli individui. Se questo non è sufficiente, si
56
Pier Luigi Emiliani
possono integrare nell‘ambiente di vita funzionalità di supporto basate su tecnologia di uso generale.
Questo capitolo è in particolare sull‘approccio basato sulla tecnologia di uso generale (Progettazione Universale). Comunque saranno discusse anche le connessioni con la Tecnologia Assistiva.
Nell‘ambito dell‘uso di tecnologia di uso generale saranno considerati due approcci verso l‘inclusione nella Società dell‘Informazione:

prevenzione dell‘esclusione, cioè della possibilità che persone
o gruppi svantaggiati siano esclusi nello sviluppo della Società
dell‘Informazione

sfruttamento delle nuove opportunità per una migliore inclusione di persone o gruppi socialmente svantaggiati, o aree meno favorite. Tali opportunità si riferiscono alla circolazione di
conoscenza, allo sfruttamento del potenziale dei nuovi servizi
informativi e di comunicazione, alle nuove opportunità di lavoro e miglior accesso all‘impiego, e, in modo più tradizionale
per quanto riguarda la ICT, al superamento di barriere dovute
alla distanza e alle difficoltà di mobilità.
2. Accessibilità ai Calcolatori e Terminali – la
Tecnologia Assistiva
Quando è nato l‘interesse all‘uso della tecnologia informatica e delle telecomunicazioni da parte o a favore delle persone con limitazioni di attività, la situazione era relativamente semplice: il servizio
fondamentale per la comunicazione interpersonale era il telefono e
l‘informazione veniva distribuita per mezzo della radio e della televisione. I calcolatori erano principalmente unità non interconnesse
ed erano disponibili in comunità chiuse e specializzate (scienza ed
affari).
Il telefono era un problema solo per persone con sordità profonda. Per tutti gli altri gruppi di persone con limitazioni di attività, la
sua utilizzazione era ottenibile con adattamenti relativamente semplici. La stessa tecnologia di realizzazione dell‘apparecchio telefonico permetteva di catturare il segnale (induzione elettromagnetica)
e di amplificarlo per persone con sordità non profonda. Persone i-
Inclusione nella Società dell‘Informazione
57
povedenti potevano utilizzare apparecchi con tastiere ingrandite.
Persone con disabilità cognitive potevano usare tastiere con la riproduzione delle foto delle persone da chiamare. Anche le persone
con sordità profonda potevano comunicare, trasmettendo caratteri
attraverso la linea telefonica con l‘uso di modems (telefoni per sordi). La radio era un mezzo importante per la diffusione
dell‘informazione. In linea di principio, la radio è un problema per
le persone sorde. Ma l‘amplificazione è una delle caratteristiche intrinseche del ricevitore e di nuovo l‘utilizzo del servizio era un problema importante solo per le persone con sordità profonda. La televisione è il primo esempio di servizio che usa la combinazione di
due modalità di comunicazione, quella visiva e quella acustica, non
in maniera ridondante ma per trasferire diversi tipi d‘informazione.
Essendo più complesso, il servizio televisivo può creare problemi
ad un maggior numero di utenti, in particolari a persone che hanno
problemi di vista e di udito. D‘altro canto la televisione è un servizio a larga banda ed il fatto che informazioni addizionali possono
essere trasmesse utilizzando completamente la banda disponibile,
permette d‘integrare nel servizio elementi di supporto agli utenti.
Quindi i programmi possono essere sottotitolati per persone sorde e
le scene possono essere descritte a voce per persone cieche. Inoltre,
possono essere realizzati servizi come il televideo ed il teletext, che
permettono di risolvere alcuni problemi di trasferimento
dell‘informazione alle persone con sordità profonda.
La televisione è un semplice esempio di una situazione generale.
Un aumento della complessità di un sistema o di un servizio può
aumentare il numero e la portata dei problemi che questo può provocare alle persone con abilità ridotte in confronto alla maggioranza
della popolazione. Nello steso tempo, la complessità tecnica spesso
implica caratteristiche addizionali che permettono di recuperare
questa situazione di svantaggio, offrendo la possibilità di utilizzare
la stessa tecnologia in modo innovativo per affrontare problemi non
considerati ancora risolvibili.
La situazione ha cominciato a cambiare grazie allo sviluppo dei
calcolatori e delle tecnologie in grado di aumentare la banda dei canali di comunicazione, che hanno contribuito alla creazione di un
ambiente completamente nuovo per l‘accesso all‘informazione e la
comunicazione interpersonale. Dalla prospettiva degli utenti
58
Pier Luigi Emiliani
l‘innovazione più importante è stata l‘introduzione del calcolatore
personale (Personal Computer). Tali calcolatori sono stati immediatamente percepiti come una possibilità nuova e molto importante
per supportare persone con limitazioni di attività. Venivano infatti
messe a disposizione nello stesso tempo: informazioni in forma codificata e quindi facilmente trasferibili in un formato alternativo (ad
esempio il Braille), un‘intelligenza locale utilizzabile per le eventuali trasduzioni e un sistema ―paziente‖, cioè in grado di adattarsi
alla velocità d‘interazione dei singoli utenti. Nello stesso tempo la
ricerca sulle tecniche di elaborazione numerica dei segnali faceva
intravedere la possibilità di nuove forme di presentazione ed interazione d‘indubbio interesse per alcuni gruppi di utenti (ad esempio la
voce sintetica o il riconoscimento della voce). Sfortunatamente, però, i calcolatori personali non erano direttamente accessibili da parte di alcuni gruppi di utenti, quali i ciechi e le persone con problemi
di mobilità degli arti superiori o di manipolazione. Sono stati quindi
esplorati adattamenti delle interfacce e, attraverso l‘uso combinato
di nuove tecnologie di trasduzione (principalmente la voce sintetica) e di software specializzato (lettori di schermo), capace di ―rubare‖ l‘informazione sullo schermo e di renderla disponibile alla periferica d‘interazione, l‘informazione codificata è stata resa disponibile alle persone cieche (Mynatt & Weber, 1994), offrendo loro la
possibilità di leggere informazioni recuperate da banche dati, scrivere e comunicare attraverso la posta elettronica. Sono stati inoltre
resi disponibili adattamenti per persone con problemi motori (tastiere speciali, emulatori di mouse) e per altri gruppi di persone con limitazioni di attività. Quindi, il calcolatore personale è stato reso utilizzabile usando l‘approccio rappresentato in Fig. 1 (Tecnologia
Assistiva).
Si può quindi concludere che quando si diffuse l‘interesse
sull‘accessibilità delle persone con limitazioni d‘attività alle tecnologie informatiche e di telecomunicazione, la scena tecnologica
mondiale era dominata da un insieme di sistemi e servizi largamente diffusi. La situazione richiedeva l‘adattamento dei sistemi esistenti, che lentamente e con grossi ritardi sono stati resi disponibili.
Inclusione nella Società dell‘Informazione
59
Esempi di Tecnologia Assistiva
Esistono vari modi di classificare le Tecnologie Assistive, in dipendenza del loro scopo. La classificazione più diffusa, la ISO
9999:2007 ―Prodotti assistivi per le persone con disabilità – Classificazione e terminologia (TC 173/SC2 - ISO 9999, 2007), è orientata al prodotto. Raggruppa i dispositivi in classi, identificate dal numero che precede la definizione corrispondente (ciascuna divisa in
sottoclassi e queste a loro volta in divisioni) in base al loro obbiettivo principale (mobilità, governo della casa etc.). Le Classi ISO sono:
04 > ausili per terapia;
05 > ausili per l'addestramento di abilità;
06 > protesi e ortesi;
09 > ausili per la cura e la protezione personale;
12 > ausili per la mobilità personale;
15 > ausili per la cura della casa;
18 > mobilia e adattamenti per la casa o per altri edifici;
22 > ausili per comunicazione e informazione;
24 > ausili per maneggiare oggetti o dispositivi;
27 > adattamenti dell‘ambiente, utensili e macchine;
30 > ausili per le attività di tempo libero.
Per gli scopi di questo documento, sono considerati solo i sistemi
AT correlati direttamente con la ICT. Quindi sono considerate solo
le classi 22 e 27.
Principali prodotti di Tecnologia Assistiva collegati alla ICT
I prodotti assistivi per la comunicazione e il recupero
dell‘informazione sono utilizzati per aiutare le persone a ricevere,
inviare e/o elaborare l‘informazione in forme differenti. Tali prodotti includono, per esempio, dispositivi per vedere, udire, leggere,
scrivere, telefonare, fare segnalazioni di allarme.
Prodotti assistivi per vedere: questo gruppo si rivolge alle necessità
di persone che hanno difficoltà di vista, e comprende essenzialmente sistemi video come i dispositivi per presentare
un‘immagine ingrandita di quanto catturato da una videocamera.
60
Pier Luigi Emiliani
Prodotti assistivi per udire: sono inclusi dispositivi per amplificare
e/o modulare i suoni per persone con menomazioni dell‘udito,
ad esempio protesi uditive con mascheramento del tinnito e dispositivi ad induzione magnetica.
Prodotti assistivi per disegnare e scrivere: questa sottoclasse comprende dispositivi che permettono ad una persona di trasferire
informazione producendo figure, simboli o testo, in forma adatta da essere usata da chi ha difficoltà in questi compiti (esempi:
agende elettroniche Braille, software di elaborazione).
Prodotti assistivi per maneggiare informazione audio, visiva o video
(esempi: dispositivi per la registrazione e riproduzione di suoni; decodificatori per il videotext e la televisione testuale – dispositivi per trasdurre il videotext in parlato artificiale e/o per
decodificare uscite sonore per ottenere una sottotitolazione delle trasmissioni video; dispositivi ad induzione magnetica).
Prodotti assistivi per comunicazione faccia a faccia.
Prodotti assistivi per telefonare (e trasmettere messaggi) (esempi:
dispositivi di comunicazione per persone sorde (TDD) - telefono per la trasmissione di testo).
Prodotti assistivi per la comunicazione di segnali di allarme, di indicazione e di segnalazione.
Prodotti assistivi per la lettura (per esempio libri parlanti).
Dispositivi d‘ingresso per calcolatori (esempi: tastiere; simulatori di
mouse; dispositivi d‘ingresso alternativi – sistemi di tracciamento dei movimenti dell‘occhio, sistemi per il riconoscimento
della voce, schermi e tavolette tattili, guanti per l‘acquisizione
dati; software d‘ingresso – software che modifica le caratteristiche della tastiera, tastiere virtuali sullo schermo con e senza
predizione; riconoscimento dei testi; interfacce cervellocalcolatore).
Dispositivi d‘uscita per i calcolatori (esempi: display Braille; stampanti/plotter Braille; dispositivi d‘uscita alternativi – sistemi di
sostituzione tattile - visione, software per la sintesi della voce,
lettori di schermo, ingranditori dello schermo).
Inclusione nella Società dell‘Informazione
61
Prodotti assistivi per la manipolazione di oggetti e dispositivi (esempio: interruttori).
Prodotti assistivi per il controllo a distanza.
Altre tecnologie ed applicazioni assistive
Le tecnologie dell‘informazione e della telecomunicazione sono usate anche in sistemi presenti in altre aree della classificazione ISO,
ad esempio nei controlli delle carrozzine e negli oggetti di arredamento interconnessi che supportano la vita indipendente. Questa
migrazione delle tecnologie ICT negli oggetti della vita quotidiana
è in linea con gli scenari di sviluppo verso l‘intelligenza ambientale
(AmI), nei quali si suppone che la tecnologia sparisca negli oggetti
e nell‘ambiente circostante, permettendo a tutti di usufruire delle
loro funzionalità.
Esistono molte persone con menomazioni motorie severe che
hanno la necessità di una varietà di dispositivi assistivi (ad esempio
sedie a rotelle elettriche, dispositivi di controllo ambientale, ausili
alla comunicazione e manipolatori robotici), per ottenere un livello
minimo di indipendenza. La Tecnologia Assistiva ha reso disponibili tali dispositivi. Il problema principale è la loro varietà che rende
difficile, lenta e costosa la loro integrazione, ad esempio, nella piattaforma tecnologica di base di una sedia a rotelle.
La Tecnologia Assistiva per le difficoltà cognitive (ATC) è un
altro gruppo di particolare interesse, a causa dell‘invecchiamento
della popolazione. Esempi tipici sono le tecnologie di supporto alla
memoria, le tecnologie di compensazione delle abilità di pianificazione e soluzione dei problemi, le tecnologie di compensazione per
le elaborazioni sensoriali, le tecnologie di supporto per problematiche di tipo sociale e comportamentale, gli avatar e interfacce grafiche per malati di Alzheimer.
Servizi e applicazioni di comunicazione
Vengono infine elencati alcuni servizi basati sulla rete di comunicazione già disponibili:

servizi di interconnessione (relay services): sono servizi con
operatore, che permettono a persone sorde, sordastre, incapaci
di parlare o sordo-cieche di comunicare con utenti di un telefo-
62
Pier Luigi Emiliani
no standard utilizzando un telefono testo, un calcolatore o altri
dispositivi di comunicazione su linea telefonica

servizi di allarme

servizi di controllo ambientale

servizi di navigazione.
Molti servizi ed applicazioni di comunicazione a larga banda sono
attualmente in fase di sperimentazione.
Limitazioni dell’approccio basato sulla Tecnologia Assistiva
Quindi l‘approccio tradizionale utilizzato per rendere i sistemi, i
servizi e le applicazioni accessibili a persone con limitazioni di attività è stato quello di adattare tali prodotti alle abilità e richieste dei
diversi gruppi di utenti. Tipicamente, gli adattamenti coinvolgono
la riconfigurazione dell‘interfaccia fisica e, talvolta, la trasduzione
dell‘interfaccia, ad esempio quella visiva, in una rappresentazione
alternativa (ad esempio uditiva o tattile).
Anche se in alcuni casi questa può essere ancora la sola soluzione possibile, tale approccio reattivo per garantire l‘accessibilità
(Vanderheiden, 1998) ha alcuni difetti fondamentali. Uno dei più
importanti è che quando un problema di accesso è stato risolto, la
tecnologia è avanzata in modo da provocare nuovamente lo stesso
problema od uno simile. L‘esempio tipico è quello dell‘accesso delle persone cieche al calcolatore. Ogni generazione della tecnologia
(ad esempio, il DOS, i sistemi basati sulle finestre, i sistemi multimediali) hanno causato nuovamente problemi alle persone cieche,
affrontati con tecniche dedicate, come la trasduzione del testo in
parlato nell‘ambiente DOS, integrata, nei sistemi basati su finestre,
dalla generazione di modelli dello schermo ed il filtraggio
dell‘informazione testuale per permetterne la trasduzione. In alcuni
casi, inoltre, gli adattamenti possono non essere possibili senza perdite di funzionalità. Per esempio, nelle prime versioni dei sistemi
basati sulle finestre era impossibile accedere ad alcune funzioni,
quali la gestione delle finestre stesse (come lo spostamento sullo
schermo ed il ridimensionamento). Solo in versioni successive, tali
limitazioni sono state considerate dai produttori, permettendo alcuni
Inclusione nella Società dell‘Informazione
63
adattamenti (ad esempio la scansione) di oggetti d‘interazioni presenti sullo schermo. Infine, gli adattamenti sono onerosi dal punto
di vista della programmazione sia nella realizzazione che nella manutenzione. Anche piccole modifiche nella configurazione del prodotto o dell‘interfaccia utente possono richiedere l‘investimento di
risorse considerevoli per ricostruire alcune funzionalità in modo da
essere accessibili. Inoltre, tali soluzioni offrono spesso un accesso
limitato e di bassa qualità. Questo è evidente nelle interazioni non
visive, dove è stata identificata la necessità di fornire interfacce che
vadano al di là di adattamenti automatici di dialoghi visivi.
Tradizionalmente, sono stati seguiti due approcci tecnici principali per gli adattamenti: adattamenti a livello del prodotto e adattamenti a livello dell‘ambiente. Il primo comporta la considerazione
separata di ogni prodotto e la realizzazione di tutti i passi necessari
per ottenere una versione alternativa accessibile. In termini pratici,
ciò implica spesso lo sviluppo di un nuovo prodotto. A causa dei
suoi alti costi questa è considerata la strategia meno favorevole per
fornire un accesso alternativo. Il secondo approccio richiede
d‘intervenire al livello del particolare ambiente applicativo
d‘interazione (ad esempio Microsoft WindowsTM o il sistema a finestre X), allo scopo di fornire opportune tecnologie hardware e software che trasformino l‘ambiente stesso in uno accessibile in modo
alternativo. L‘adattamento dell‘ambiente estende l‘accessibilità a
tutte le applicazioni che sono eseguite in esso, invece che a una singola applicazione, ed è quindi considerato una strategia superiore.
Nel passato, la grande maggioranza degli approcci di adattamento a
livello d‘ambiente sono stati focalizzati sull‘accesso delle persone
incapaci di vedere agli ambienti d‘interazione grafica. Attraverso
tali sforzi, è diventato chiaro che qualunque adattamento a livello
d‘ambiente deve essere basato su infrastrutture software ben documentate e affidabili, che rendano possibile un‘estrazione efficiente
ed efficace delle primitive di dialogo durante l‘interazione utentecalcolatore. Tali primitive estratte in modo dinamico devono essere
riprodotte, in tempo reale, in forme di ingresso e uscita alternative,
che supportano in modo diretto l‘accesso dell‘utente. Esempi di infrastrutture software che soddisfano tali richieste sono la tecnologia
64
Pier Luigi Emiliani
Active AccessibilityTM di Microsoft Corporation2, e la tecnologia
JavaTM Accessibility, di Sun Microsystems3.
3. Progettazione Universale (Design for All)
Nel passato i problemi d‘inclusione nella Società dell‘Informazione
delle persone con limitazioni di attività sono state principalmente
modellati come problemi di accessibilità a servizi ed applicazioni
basate su calcolatori e sono stati affrontati adattando i prodotti progettati per un ―utente medio‖ con prodotti di Tecnologia Assistiva.
Con lo sviluppo della Società dell‘Informazione, questo approccio,
ha mostrato, nel contesto di attività di ricerca in corso da più di dieci anni, molte limitazioni. Perciò, è necessario utilizzare approcci
più generici e sistematici per le problematiche corrispondenti, che
sono identificati con il nome Progettazione Universale (Design for
All - DfA in Europa). Concettualmente, la Progettazione Universale
è un corpo di conoscenze ben definito, che in architettura e nel disegno industriale ha prodotto risultati molto importanti. Nella Società dell‘Informazione, l‘adozione delle pratiche della Progettazione Universale, anche se auspicata da molti esperti nel settore, presenta ancora sfide significative, a causa sia della pratica consolidata
dell‘industria ICT di progettare prodotti di massa per il cosiddetto
utente ―tipico‖, che di effettive difficoltà tecnologiche. Partendo
dalla considerazione generale che la Progettazione Universale comporta la considerazione delle necessità, richieste e preferenze di tutti
i potenziali utenti di sistemi e servizi nella Società
dell‘Informazione, esaminiamo quindi alcune sue caratteristiche discutendo dapprima le sue possibili definizioni e poi cosa è necessario per il suo uso, cioè una strategia generale ed un approccio tecnico alla realizzazione dei prodotti corrispondenti (Fig. 3).
Definizione
Al momento è in corso una discussione su cosa si deve comprendere sotto il nome: Progettazione Universale. Per alcuni esperti, la
2 Vedi http://msdn2.microsoft.com/en-us/library/ms697707.aspx
3 Vedi http://java.sun.com/javase/technologies/accessibility/index.jsp
Inclusione nella Società dell‘Informazione
65
Progettazione Universale è solo un nuovo nome per riproporre la
Tecnologia Assistiva in modo più attraente e politicamente corretto.
Per altri, il fatto di sviluppare un prodotto considerando che anche
solo un gruppo di persone con limitazioni di attività (normalmente
persone non vedenti) devono poter aver accesso, qualifica il prodotto come progettato per tutti. Alcuni esperti affermano che la Progettazione Universale nella ICT sarebbe meravigliosa, ma è chiaramente impossibile dal punto di vista tecnico. Infine per altri esperti
ciò che è veramente importante è che tutte le persone abbiano accesso ai sistemi e servizi ICT. Quindi allo scopo di servire tutti gli
utenti, è conveniente chiamare Progettazione Universale qualunque
contributo all‘Accesso Universale. Questo ultimo punto di vista,
compatibile con la spinta politica verso la Progettazione Universale
e con il compito di aiutare le persone nel contesto tecnologico corrente, è accettabile come approccio pragmatico per svolgere attività
a breve termine, ma non nella prospettiva di pianificare uno sviluppo corretto della tecnologia.
Figura 3. Progettazione Universale
In realtà, sono disponibili definizioni ufficiali di Progettazione Universale sia a livello accademico che industriale. Due di queste sono
riportate nel seguito:
Progetto di prodotti o ambienti usabili da tutti gli utenti, fino al massimo limite possibile, senza la necessità di adattamenti o progettazioni speciali
66
Pier Luigi Emiliani
Ron Mace (adottata dal by the Trace Center)4.
Progetto di prodotti, servizi e ambienti tali che il maggior numero di
persone possano utilizzarli indipendentemente dalla loro età e caratteristiche fisiche – ad esempio altezza, abilità visive e uditive, mobilità degli arti superiori.
Fujitsu (2005)5.
Figura 4. Strategie di realizzazione
Progetto Universale - strategie di realizzazione
L‘approccio basato sulla Progettazione Universale, confrontato con
quello della Tecnologia Assistiva basato sull‘adattamento di sistemi
e servizi prodotti per il mercato generale, è spesso criticato sulla base di vari argomenti. In particolare, esiste una linea di argomentazione che solleva la preoccupazione che ―molte idee che si suppone
siano buone per tutti non sono buone per nessuno‖ (Lewis & Rie4 http://trace.wisc.edu/world/gen_ud.html.
5 http://www.fujitsu.com/downloads/MAG/vol41-1/paper01.pdf
Inclusione nella Società dell‘Informazione
67
mann, 1993). In realtà, però, la Progettazione Universale nel contesto della Società dell‘Informazione non deve essere concepita come
lo sforzo di proporre una singola soluzione per tutti, ma come un
approccio basato sull‘utente per produrre prodotti che siano in grado di soddisfare automaticamente le differenti abilità, capacità, richieste e preferenze umane. Di conseguenza, non si prevede che il
risultato del processo di progettazione sia un progetto singolo, ma
uno spazio progettuale popolato di alternative appropriate (adattamento e personalizzazione intelligente) (Emiliani & Stephanidis,
2005), come mostrato in Fig. 4. Le diverse alternative devono essere in grado di manifestarsi automaticamente in funzione delle abilità
dell‘utente, del modo di utilizzo e del contesto d‘uso.
Figura 5. Approccio tecnico
Progetto Universale - approccio tecnico
Infine è necessario individuare un approccio tecnico, utilizzando il
quale questa strategia di realizzazione possa diventare una realtà.
Come dimostrato in alcuni progetti parzialmente finanziati dalla
Commissione Europea, un possibile approccio tecnico è basato sui
68
Pier Luigi Emiliani
concetti di adattabilità ed adattività (Stephanidis & Savidis, 2001).
Questo approccio è basato sul rendere ogni sistema e servizio abbastanza intelligente da essere in grado di adattare le sue funzionalità
e la sua interfaccia ad ogni singolo utente, in accordo delle sue caratteristiche conosciute o ad uno stereotipo (differenti livelli di
privacy) quando inizia l‘interazione (adattabilità) e di modificarle in
tempo reale (adattività) in funzione dell‘uso e del contesto (se gli è
permesso di osservare il comportamento dell‘utente), come rappresentato in Fig.5.
Complementarietà e convergenza fra DfA e AT
Il cambio di paradigma dall‘uso di Tecnologia Assistiva alla Progettazione Universale è considerato da molte persone che lavorano
nel settore non solo troppo ambizioso ma anche pericoloso, perché
pensano che possa mettere in discussione, almeno nel breve termine, gli avanzamenti verso l‘inclusione ottenuti da gruppi di persone
con limitazioni di attività. Un approccio più equilibrato considera
invece i due approcci non in concorrenza ma complementari: essi
devono convergere verso la creazione di una società sempre più accessibile attraverso la ridefinizione continua dei problemi connessi
con la produzione di una tecnologia priva di barriere, come rappresentato in Fig. 6.
La complementarietà e la convergenza devono essere intese a
due livelli. Ad un livello specifico, le caratteristiche individuali degli utenti sono così variate che sarà molto difficile, se non impossibile, integrare tutte le richieste di tutti gli individui nelle specifiche
di nuovi prodotti e servizi. Perciò la Tecnologia Assistiva rimane
indispensabile in casi particolarmente ―difficili‖. Ad un livello più
generale, le lezioni imparate nello sviluppo della Tecnologia Assistiva saranno fondamentali nel dare forma al nuovo ambiente di vita. La situazione emergente può quindi essere affrontata con un approccio evolutivo. Nel breve termine, lo sviluppo della Società
dell‘Informazione può essere sostenuto da una tecnologia che migliora le possibilità offerte dalla Tecnologia Assistiva, fondendosi
nel medio termine in sistemi e servizi accessibili e, nel lungo termine, in un ambiente intelligente, che ha la potenzialità di essere usabile dal maggior numero di utenti possibile se le loro necessità sono
Inclusione nella Società dell‘Informazione
69
considerate nella fase di progetto. In questo senso, la Progettazione
Universale emerge non come una metodologia astratta, ma come un
approccio necessario ed efficiente per massimizzare i potenziali
vantaggi dell‘introduzione delle nuove tecnologie e per minimizzare i rischi di aumentare l‘esclusione e la segregazione di gruppi specifici.
Figura 6. Convergenza fra AT e DFA
La procedura che integra la Progettazione Universale e la Tecnologia Assistiva nello sviluppo di funzionalità accessibili e utili negli
ambienti emergenti è rappresentata in Fig.7.
Funzionalità in principio disponibili per tutti (mainstream) sono
progettate con il contributo di specifiche che considerano tutti i potenziali utenti, un approccio tecnico adatto e la tecnologia disponibile. Se risulta invece che queste non sono accessibili e utili per tutti, allora possono essere prese in considerazione soluzioni di tecnologia assistiva. Infine, se anche le soluzioni basate sulla Tecnologia
70
Pier Luigi Emiliani
Assistiva non sono soddisfacenti, è probabilmente necessario riprogettare completamente la funzionalità.
Figura 7. Integrazione fra AT e DFA
Dalla Tecnologia Assistiva alla Progettazione Universale –
Adattabilità e adattività
Consideriamo ora un esempio di migrazione dalla Tecnologia Assistiva alla Progettazione Universale basato su progetti parzialmente
finanziati da Programmi della Commissione Europea. Questi si sono sviluppati in un intervallo di tempo di circa 15 anni e hanno seguito un percorso evolutivo, adottando all‘inizio strategie reattive e
sostenendo quindi la necessità di strategie proattive verso
l‘accessibilità.
Produzione e valutazione di specifiche
In relazione a questi progetti è importante notare lo spostamento
graduale verso soluzioni più generiche all‘accessibilità. Infatti, con
la sola eccezione delle prime attività esplorative (per esempio IPSNI), che non avevano una dimensione di ricerca e sviluppo, tutti
gli altri progetti contenevano sia una componente di ricerca e sviluppo reattiva che un interesse a strategie e metodi proattivi. Questi
Inclusione nella Società dell‘Informazione
71
erano inizialmente orientati alla formulazione di principi, mentre
più tardi l‘enfasi è stata posta sulla dimostrazione della fattibilità
tecnica.
Come attività esplorativa, il progetto IPSNI (Integration of
People with Special Needs in the Broadband Communication
Network) ha investigato le possibilità offerte dalla rete di comunicazione a larga banda B-ISDN (Broadband Integrated Services Digital Network), a beneficio delle persone con limitazioni di attività.
Allo scopo di rendere possibile il loro accesso alla tecnologia di
comunicazione emergente, il progetto IPSNI ha considerato essenziale che i progettisti e/o i fornitori di servizi e di terminali considerassero esplicitamente, all‘inizio del progetto, le loro richieste, identificando molte barriere che impediscono alle persone con limitazioni di attività di avere accesso alle informazioni disponibili attraverso la rete. Le barriere identificate sono collegate all‘accessibilità
del terminale e dei servizi previsti e alla percettibilità
dell‘informazione.
Allo scopo di superare queste difficoltà, sono state proposte soluzioni a tre livelli:

adattamenti delle interfacce utente terminale e utente servizio,
attraverso l‘integrazione di dispositivi di ingresso/uscita e di
appropriate tecniche d‘interazione, che tengono conto delle abilità e richieste dei diversi gruppi di utenti

adattamenti di servizi con componenti addizionali in grado di
fornire informazione ridondante o trasdotta

Introduzione di servizi speciali, solo in quei casi in cui
l‘applicazione dei due tipi di adattamento menzionati precedentemente non sono possibili o effettive.
Gli sforzi di sviluppo seguiti a questa fase esplorativa hanno mirato
a fornire strumenti per un facile adattamento gerarchico delle interfacce all‘uso di modalità alternative. Lo strumento INTERACT per
il progetto e la realizzazione d‘interfacce utente, sviluppato nel progetto IPSNI-II (Access to B-ISDN Services and Application by
People with Special Needs), è rappresentativo di questo approccio.
Uno dei suoi difetti era il suo fuoco sulla traduzione di
un‘interfaccia grafica in una manifestazione alternativa non grafica.
72
Pier Luigi Emiliani
In realtà, per utenti non vedenti non abituati all‘ambiente grafico è
difficile comprendere concetti inerentemente grafici (ad esempio i
menu ―pop-up‖). Tale osservazione, che era supportata da sviluppi
contemporanei nel progetto GUIB (Textual and Graphical User Interfaces for Blind People), fecero capire che gli adattamenti non
possono fornire un approccio completamente soddisfacente per una
soluzione generale dei problemi di accessibilità delle persone non
vedenti.
Il progetto IPSNI-II, partendo dai risultati del progetto IPSNI, ha
comunque dimostrato la fattibilità tecnica degli interventi di adattamento tesi a garantire l‘accesso di persone con limitazioni di attività a servizi multimediali sulla rete a larga banda. Furono realizzati
e valutati adattamenti di terminali e servizi. In particolare furono
adattati due terminali (uno basato su UNIX/X-Windows e l‘altro su
PC/MS-Windows) in funzione delle necessità dei gruppi di utenti
considerati, con particolare enfasi sull‘adattamento dell‘interfaccia
utente. A questo scopo fu sviluppato lo strumento per il progetto e
la realizzazione d‘interfacce, chiamato INTERACT (Stephanidis &
Mitsopoulos, 1995), che tiene conto delle richieste d‘interazione di
persone con limitazioni d‘attività. INTERACT è basato sul concetto
di separare un sistema interattivo in due componenti funzionali, il
nucleo funzionale dell‘applicazione e l‘interfaccia utente, rendendo
così possibile fornire interfacce multiple per la stessa funzionalità di
un‘applicazione.
Il progetto IPSNI-II ha permesso un‘analisi approfondita dei
servizi ed applicazioni per la rete di telecomunicazione a larga banda dal punto vista dell‘usabilità da parte di persone con limitazioni
di attività, portando all‘identificazione e la sperimentazione degli
adattamenti necessari e/o di soluzioni speciali. Questa attività ha
portato alla conclusione che se i servizi, applicazioni e terminali sono progettati considerando le richieste di usabilità di utenti con limitazioni di attività, molti dei loro problemi di accesso possono essere ridotti ad un costo trascurabile. Una delle conclusioni è stata
che, al minimo, una sufficiente modularità e flessibilità dovrebbe
essere la base nella realizzazione dei prodotti, allo scopo di permettere almeno una facile adattabilità alle necessità, capacità e richieste
di un numero crescente di utenti.
Inclusione nella Società dell‘Informazione
73
I progetti TIDE-GUIB e TIDE-GUIB-II avevano lo scopo di identificare e fornire i mezzi tecnologici per assicurare l‘accesso di
persone non vedenti alle stesse applicazioni interattive, basate su
calcolatore, utilizzate da utenti vedenti. L‘obbiettivo a breve termine di GUIB era di migliorare le metodologie di adattamento delle
interfacce grafiche (GUIs). Furono quindi effettuati sviluppi specifici attraverso la realizzazione di dimostratori appropriati che permettevano l‘accesso ad applicazioni interattive sotto MSWINDOWSTM (PCs) e X WINDOW (Workstations basate su UNIXTM). L‘approccio di GUIB all‘adattamento delle interfacce era
basato sulla trasformazione della metafora del piano della scrivania
in una versione non visiva combinando Braille, voce e audio.
L‘accesso agli oggetti d‘interazione grafici (per esempio, finestre,
menu, tasti), l‘utilizzazione dei metodi d‘interazione più importanti
e le possibilità d‘estrazione dell‘informazione interna all‘ambiente
grafico furono investigati in modo esaustivo.
Le operazioni d‘ingresso (per esempio esplorazione/selezione
delle opzioni dei menu, etc.) possono essere compiute o per mezzo
di un dispositivo standard (tastiera o mouse) o attraverso un dispositivo speciale (cioè un sostituto del mouse, una tavoletta tattile o i
tasti di display Braille). Una caratteristica importante del metodo è
che l‘intero schermo grafico è riprodotto in forma testuale ed è presentato su uno schermo monocromatico che può essere esplorato
dalla persona cieca per mezzo di un‘uscita Braille o vocale. Inoltre,
i suoni aiutano nella navigazione e forniscono le relazioni spaziali
fra gli oggetti grafici. È importante notare che la riproduzione testuale facilita la cooperazione con i colleghi vedenti.
Il progetto GUIB ha anche investigato una varietà di problematiche collegata all‘interazione in un ambiente grafico, specialmente
per persone che non sono in grado di vedere. Per esempio, il progetto ha esaminato differenti metodi d‘ingresso che possono essere usati al posto del mouse. Ha anche studiato il problema della localizzazione efficiente del cursore sullo schermo ed esaminato le problematiche relative alla combinazione di suoni localizzati spazialmente (sia vocali che non vocali) e d‘informazione tattile per presentare l‘informazione disponibile. Infine, ha considerato il progetto
e la realizzazione di metafore del mondo reale in una forma non visiva.
74
Pier Luigi Emiliani
Approcci proattivi preliminari
Un primo passo verso lo sviluppo di strumenti per la realizzazione
di interfacce per tutti (Progettazione Universale) è stato compiuto
nei progetti GUIB e GUIB-II già menzionati. L‘obbiettivo di queste
attività era lo sviluppo di tecnologie software innovative per la realizzazione d‘interfacce capaci di garantire l‘accesso alle applicazioni interattive su calcolatore da parte delle persone non vedenti. In
particolare, in questi progetti è stato concepito, progettato e realizzato un sistema di amministrazione di interfacce utente (UIMS User Interface Management System) come strumento per lo sviluppo efficiente e modulare di interfacce concorrentemente accessibili
da persone non vedenti e vedenti.
Il concetto di Interfacce Utenti Duali (Savidis & Stephanidis,
1995a) è stato proposto come una base appropriata per ―integrare‖
utenti capaci o non capaci di vedere nello stesso ambiente di lavoro.
Un‘Interfaccia Utente Duale è caratterizzata dalle seguenti proprietà:

è accessibile concorrentemente da persone non vedenti e vedenti

le metafore d‘interazione visiva e non visiva soddisfano le necessità specifiche delle persone vedenti e non vedenti (possono
essere differenti, se necessario)

le strutture sintattiche e lessicali visiva e non visiva soddisfano
le necessità specifiche degli utenti vedenti e non vedenti (possono essere differenti, se necessario)

in ogni istante, la stessa funzionalità (semantica) interna è resa
accessibile ad entrambi i gruppi di utenti attraverso le corrispondenti ―facce‖ visiva e non visiva dell‘interfaccia

in ogni istante, la stessa informazione semantica è resa accessibile attraverso le corrispondenti ―facce‖ visiva e non visiva
dell‘interfaccia.
Per facilitare il progetto e la realizzazione di interface duali è stata
realizzata la UIMS HOMER (Savidis & Stephanidis, 1995a; Savidis
& Stephanidis, 1998a) . HOMER è basata su un linguaggio di spe-
Inclusione nella Società dell‘Informazione
75
cificazione delle interfacce di quarta generazione, che rende possibile:

l‘astrazione degli oggetti d‘interazione, cioè la rappresentazione degli oggetti in base ai loro ruoli d‘interazione astratti e le
loro caratteristiche sintattiche/costruttive, disaccoppiate dal loro aspetto fisico di presentazione

la gestione concorrente di almeno due gruppi di oggetti, in modo tale che ogni modifica effettuata dall‘utente sull‘interfaccia
mediante gli oggetti di un gruppo sia concorrentemente realizzata con un corrispondente oggetto del secondo gruppo

capacità meta-poliformi per gli oggetti astratti, cioè gli oggetti
astratti possono essere realizzati con più di un gruppo di oggetti
fisici, o con più di una classe di oggetti all‘interno di uno specifico gruppo

gerarchie di oggetti unificate che supportano differenti gerarchie fisiche, in modo tale che sia possibile la realizzazione alternativa di (porzioni) della gerarchia unificata con (porzioni
del) le gerarchie fisiche

l‘integrazione di differenti gruppi di oggetti

il supporto di modelli basati sugli oggetti o basati sugli eventi
per la realizzazione del dialogo, cioè il modello del dialogo può
essere definito sia sulla base degli oggetti individuali che ne
fanno parte, sia sulla base di eventi d‘interazione che hanno origine da questi oggetti

l‘utilizzazione di diversi modelli di controllo (ad esempio asincroni).
In questo ambito è stato sviluppato un gruppo di oggetti non visivi,
chiamato COMONKIT (Savidis & Stephanidis, 1995b; Savidis &
Stephanidis, 1998b) ed integrato nella HOMER UIMS. La libreria
COMONKIT è stata sviluppata sulla base di a una versione della
metafora ―stanza‖, una metafora d‘interazione basata sull‘ambiente
fisico di una stanza e i cui oggetti d‘interazione sono il pavimento,
il soffitto, la parete di fronte, la parete posteriore e così via. La libreria COMMONKIT fornisce facilità di navigazione efficiente con
76
Pier Luigi Emiliani
un‘uscita in Braille o voce ed un ingresso attraverso la tastiera. Sono state realizzate due versioni differenti della metafora stanza:

una versione non spaziale, che supporta il Braille, la voce e i
suoni come uscite e la tastiera come ingresso

una versione basata sulla manipolazione spaziale, che combina
l‘audio 3D (vocale e non vocale), il puntamento 3D attraverso
un guanto, il movimento della mano, il riconoscimento di parole chiave (Savidis et al., 1996). In entrambe le realizzazioni, effetti sonori speciali accompagnano le azioni dell‘utente quali la
selezione di una porta (ad esempio il suono di una porta che si
apre), la selezione dell‘ascensore (ad esempio il suono
dell‘ascensore), la pressione di un tasto o di un interruttore etc.
L‘insieme di oggetti Athena (per interazioni visive basate su finestre) e l‘insieme di oggetti COMONKIT (per dialoghi non visivi
basati sulla metafora della stanza) sono stati importati nella UIMS
HOMER, mantenendo l‘aspetto originale (cioè nativo) dei rispettivi
gruppi di oggetti, dimostrando le funzionalità del meccanismo
d‘integrazione dei gruppi di oggetti del linguaggio HOMER.
Un approccio completo allo sviluppo d’interfacce per tutti
Il concetto di Interfacce Utente per Tutti (Stephanidis, 1995a) è stato proposto sulla base del concetto di Progettazione Universale,
come il mezzo per affrontare in modo efficiente ed efficace le numerose e differenziate problematiche relative all‘accessibilità. Il
principio sottostante è quello di assicurare l‘accessibilità al momento del progetto, in modo soddisfacente per le necessità, abilità e preferenze individuali di tutta la popolazione, includendo anche le persone con limitazioni di attività ed anziane.
Il progetto ACCESS (Development Platform for Unified
ACCESS to Enabling Platforms) si proponeva di sviluppare nuove
soluzioni tecnologiche per supportare il concetto di Interface Utente
per Tutti, cioè l‘Accessibilità Universale di applicazioni basate su
calcolatore, facilitando lo sviluppo di interfacce utente adattabili automaticamente alle abilità, richieste e preferenze individuali. Il progetto ha affrontato il problema a due livelli:
Inclusione nella Società dell‘Informazione
77

lo sviluppo di metodologie e strumenti appropriati per il progetto e la realizzazione d‘interfacce utente accessibili ed usabili

La validazione dell‘approccio attraverso il progetto e la realizzazione di dimostratori di applicazioni in due domini, quello
degli ausili per la comunicazione interpersonale di persone con
riduzioni di abilità motorie, della voce, del linguaggio e cognitive e quello dei sistemi ipermediali per persone non vedenti.
Il progetto ACCESS ha proposto il concetto dello sviluppo unificato d‘interfacce (Unified User Interface Development - U2ID), con
l‘obbiettivo di garantire l‘indipendenza dalla piattaforma di supporto e dal profilo dell‘utente (Stephanidis, et al., 1997; Savidis, et al.,
1997; Akoumianakis, et al., 1999). Con l‘obbiettivo di soddisfare
potenzialmente tutti gruppi di utenti, un‘interfaccia utente unificata
è basata su una specifica unica. In pratica, un‘interfaccia unificata è
definita come una costruzione gerarchica nella quale i nodi intermedi rappresentano configurazioni astratte disaccoppiate dalle caratteristiche specifiche del gruppo di utenti indirizzato e il sottostante gruppo di oggetti disponibile per la realizzazione, mentre le foglie rappresentano le realizzazioni fisiche degli schemi di progetto
astratti. Il metodo include tecniche orientate alla progettazione e alla realizzazione di obbiettivi specifici.
Per realizzare le specifiche precedenti, il progetto d‘interfacce
utente unificate tende a:

identificare inizialmente ed elencare possibili alternative di
progetto, adatte per i diversi utenti e i contesti d‘uso, usando
tecniche per il progetto analitico (come gli scenari di progetto
ed i metodi etnografici)

identificare le astrazioni e fondere le alternative in configurazioni di progetto astratte (cioè componenti astratte
dell‘interfaccia disaccoppiate dagli attributi specifici della piattaforma, modalità o metafora)

razionalizzare lo spazio di progetto assegnando criteri per le
possibili alternative e sviluppando le giustificazioni corrispondenti, in modo da consentire la corrispondenza sensibile al contesto di una configurazione di progetto astratta con una specifica realizzazione concreta.
78
Pier Luigi Emiliani
Il risultato del progetto è una specifica unificata dell‘interfaccia.
Questa specifica può essere descritta usando un linguaggio ad alto
livello dedicato e ha come risultato un singolo prodotto che può
giustificazioni in diverse configurazioni di comportamento, a un livello d‘interazione fisico, sintattico o anche semantico. Il sistema di
realizzazione unificata, ottenuto elaborando la specifica
dell‘interfaccia, effettua la trasposizione della configurazione e degli elementi dell‘interazione nei loro equivalenti concreti/fisici.
Il processo di realizzazione dell‘interfaccia utente unificata implica due passi distinti, l‘integrazione della piattaforma e la specifica dell‘interfaccia (Akoumianakis, et al., 1999). L‘integrazione della piattaforma si riferisce alla costruzione di un livello di programmazione unificante al di sopra del gruppo di oggetti dell‘interfaccia
che comprende le risorse per l‘interazione fisica (cioè mette a disposizione i mezzi concreti – nella forma di pulsanti, menu etc. attraverso i quali si realizza realmente l‘interazione fisica). Questo
livello unificante è necessario per trasformare l‘interfaccia unificata
in una reale interfaccia fisica, una volta dato l‘utente da servire, la
piattaforma ed il contesto d‘uso. La specifica dell‘interfaccia, a sua
volta, richiede l‘uso di strumenti appropriati per:

la costruzione di un‘interfaccia unificata come composizione di
astrazioni ai differenti livelli d‘interazione

la manipolazione e controllo delle risorse fisiche

la costituzione delle relazioni fra le astrazioni coinvolte e le risorse fisiche disponibili (Savidis, et al., 1997).
Le astrazioni architetturali dettagliate per un ambiente di supporto
che realizza questi passi è stato descritto in (Stephanidis, et al.,
1997; Akoumianakis, et al., 1999).
Allo scopo di supportare in modo efficiente la realizzazione delle interfacce unificate è stato costruito un ambiente di sviluppo, che
include un linguaggio ad alto livello per la specifica d‘interfacce,
chiamato G-DISPEC (Savidis & Stephanidis, 1997), e uno strumento chiamato IGET (Savidis & Stephanidis, 1997b; Stephanidis, et
al., 1997) che genera direttamente la realizzazione dalle specifiche
ad alto livello. Il linguaggio G-DISPEC e lo strumento I-GET costituiscono un nuovo UIMS per lo sviluppo d‘interfacce unificate. I-
Inclusione nella Società dell‘Informazione
79
noltre è stato realizzato un altro strumento, chiamato PIM (Savidis,
et al., 1997), che permette la generazione di collezioni di oggetti indipendenti dalla piattaforma (cioè librerie di programmazione) per
la realizzazione di interfacce unificate. Sono state anche generate
due collezioni di oggetti come esempio delle possibilità di utilizzo
dell‘approccio: una versione aumentata della libreria di oggetti
d‘interazione di Windows, che includono la scansione automatica
(Savidis, et al., 1997b); ed una collezioni di oggetti per le interazioni non visive (Savidis, et al, 1997a).
L‘adattabilità dell‘interfaccia utente alle necessità, abilità e preferenze specifiche del gruppo di utenti di riferimento è ottenuta per
mezzo di uno strumento di modellamento dell‘utente chiamato USE-IT (Akoumianakis & Stephanidis, 1997a; Akoumianakis & Stephanidis, 1997b). Questo strumento prende le decisioni appropriate
con riferimento alle caratteristiche lessicali del dialogo, basandosi
su: (a) la conoscenza delle caratteristiche, abilità e preferenze
dell‘utente e (b) la conoscenza della struttura delle caratteristiche
del livello lessicale d‘interazione con riferimento ai diversi gruppi
di utenti (cioè gli oggetti d‘interazione, le tecniche d‘interazione, i
dispositivi etc.). Le interfacce unificate, che sono realizzate utilizzando gli strumenti dello schema U2ID, richiedono automaticamente le decisioni di adattività generate da USE-IT e le applicano durante l‘interazione.
Esempi di sistemi adattabili ed adattivi
Il metodo di sviluppo delle interfacce unificate è stato verificato
nell‘ambito del progetto ACCESS in due domini applicativi, precisamente nello sviluppo di applicazioni ipermediali accessibili a persone non vedenti (Petrie, et al., 1997) e nella realizzazione di due
ausili di comunicazione per persone con problemi di emissione della voce e di linguaggio dovute a problemi cognitivi (Kouroupetroglou, et al., 1996).
Uno dei concetti principali che nascono dalle investigazioni
compiute è che la nuova tecnologia deve contenere abbastanza intelligenza da adattarsi automaticamente alle necessità dei differenti
utenti e dei diversi contesti d‘uso. Questa è la ragione per cui è stato
detto precedentemente che i problemi della Progettazione Universale nella Società dell‘Informazione sono anche di natura tecnologica.
80
Pier Luigi Emiliani
La domanda fondamentale è se lo studio di soluzioni dei problemi
tecnici
della
Progettazione
Universale
nella
Società
dell‘Informazione può davvero portare a approcci e soluzioni realmente funzionanti.
La fattibilità tecnica della‘approccio di Progettazione Universale
è stata dimostrata nell‘ambito di due progetti parzialmente finanziati dalla Commissione Europea. In questi progetti l‘inclusione di tutti
gli utenti è stata ottenuta realizzando sistemi e servizi adattabili
(cioè automaticamente riconfigurabili all‘inizio dell‘interazione, in
base alle conoscenze disponibili sull‘utente o il gruppo di utenti) e
adattive (cioè in grado di cambiare il comportamento in tempo reale
in base all‘uso effettivo).
Il sistema AVANTI
Il progetto AVANTI (Adaptive and Adaptable Interactions for Multimedia Telecommunications Applications) ha sviluppato un nuovo
approccio alla realizzazione di sistemi informativi basati sul Web,
producendo uno schema concettuale per la costruzione di sistemi
che supportano l‘adattabilità e l‘adattività sia a livello di contenuti
che d‘interfaccia utente (Emiliani, 2001). Lo schema AVANTI
comprende cinque componenti fondamentali (Fig. 8):

una collezione di banche dati multimediali, che contengono
l‘informazione e cui si accede attraverso una interfaccia di comunicazione comune (Multimedia Database Interface - MDI)

un server di modellazione dell‘utente (UMS) (Kobsa & Pohl,
1995), che contiene ed aggiorna i profili d‘utente, insieme agli
stereotipi degli utenti

il modello di contenuto (CM), che contiene una metadescrizione dell‘informazione disponibile nel sistema

l‘adattatore di iperstrutture (HSA) (Fink, et al., 1997), che adatta il contenuto informativo delle pagine Web, in funzione della
caratteristiche, preferenze ed interessi dell‘utente

l‘interfaccia utente (Stephanidis, et al., 1998; Stephanidis, et
al., 2001), che è capace di adattarsi sia alle abilità e preferenze
dell‘utente che al contesto d‘uso corrente.
Inclusione nella Società dell‘Informazione
81
Figura 8. Il sistema AVANTI
Nell‘ambito del progetto AVANTI lo schema concettuale precedente è stato applicato allo sviluppo di tre sistemi informativi: un sistema che offriva informazioni turistiche e sulla mobilità a residenti
e visitatori della città di Siena (Italia), un sistema che forniva informazione sul viaggio e le possibilità alberghiere in Kuusamo e i
suoi dintorni (Finlandia), un sistema per la fornitura d‘informazioni
culturali ed amministrative nella città di Roma durante il Giubileo.
Nel sistema AVANTI l‘adattamento del contenuto informativo
delle pagine Web è ottenuto attraverso l‘adattatore di iperstrutture
(HSA), che costruisce dinamicamente documenti ipermediali personalizzati per ciascun utente, basati sulle caratteristiche dell‘utente
e le situazioni d‘interazione rese disponibili dal sistema di modellamento dell‘utente. Le caratteristiche dell‘utente che provocano la
scelta di adattamenti appropriati sono collegate principalmente alle
limitazioni di attività eventuali, all‘esperienza e agli interessi. Gli
adattamenti risultanti riguardano principalmente (Stephanidis, et al.,
2001):
82
Pier Luigi Emiliani

presentazioni alternative che usano media differenti (ad esempio testo invece di grafica, schemi di colore alternativi)

funzionalità aggiuntive (ad esempio scorciatoie adattive a porzioni del sistema visitate frequentemente e presentazioni condizionali di dettagli tecnici)

differenti strutture e livelli
nell‘informazione fornita.
di
dettaglio
differente
La conoscenza dell‘utente e del suo modo d‘interagire sono basate
sull‘informazione acquisita dinamicamente durante l‘uso (per esempio il monitoraggio della navigazione, delle selezioni
dell‘utente, delle richieste esplicite dell‘utente), ad eccezione del
profilo iniziale dell‘utente, che è costruito attraverso l‘uso di un
corto questionario all‘inizio dell‘interazione o ricuperato da una
carta intelligente quando disponibile.
Il progetto e la realizzazione del browser AVANTI (che agisce
come interfaccia al sistema informativo) sono state effettuate con la
metodologia (U2ID) (Savidis, et al., 2001), descritta precedentemente. L‘interfaccia unificata risultante è un singolo prodotto nel
quale sono utilizzate le tecniche di adattabilità ed adattività allo
scopo di soddisfare le richieste di tre gruppi di utenti: utenti senza
limitazioni di attività, persone non in grado di vedere e persone con
problemi di mobilità e manipolazione. Gli adattamenti
dell‘interfaccia utente sono ottenuti attraverso la cooperazione
dell‘interfaccia e del sistema di modellazione dell‘utente.
Le categorie di adattamenti dell‘interfaccia supportate
dall‘interfaccia AVANTI includono (Stephanidis, et al., 2001b):

il supporto di modalità
d‘ingresso/uscita differenti

l‘adattamento automatico della presentazione degli elementi
d‘interazione

l‘assistenza adattiva basata sul compito da svolgere

un supporto limitato alla prevenzione degli errori

un supporto limitato agli adattamenti della metafora.
d‘interazione
di
dispositivi
Inclusione nella Società dell‘Informazione
83
Caratteristiche aggiuntive incluse nel browser AVANTI, allo scopo
di soddisfare le richieste dei gruppi di utenti considerati, includono
il supporto adattivo di metafore d‘interazione multiple (ad esempio
la metafora del piano della scrivania e quella del chiosco) e funzionalità di navigazione estese per diversi contesti d‘uso del sistema.
Il sistema PALIO
Il progetto PALIO (Personalised Access to Local Information and
Services for Tourists), parzialmente finanziato dal Programma IST
della Commissione Europea, aveva come obbiettivo fondamentale
la creazione di un sistema aperto per l‘accesso e il ricupero
d‘informazione senza vincoli o limitazioni, imposte, ad esempio,
dalle caratteristiche personali, dal luogo, dal tempo, dalla tecnologia
di accesso. Perciò il sistema prodotto è modulare e capace di interoperare con sistemi informativi esistenti. Un ruolo importante è
giocato dai sistemi e servizi di comunicazione mobili, perché questi
permettono l‘accesso da un luogo qualunque e in qualsiasi momento, integrati in modo trasparente con sistemi e servizi su rete fissa.
Il sistema PALIO permette l‘adattamento sia del contenuto informativo che del modo in cui è presentato all‘utente, in funzione
delle sue caratteristiche (ad esempio abilità, necessità, richieste, interessi); il luogo in cui si trova (con l‘uso di modalità e granularità
differenti del contenuto informativo); il contesto d‘uso; lo stato corrente dell‘interazione (e la storia precedente) e, infine, la tecnologia
utilizzata (cioè la tecnologia di comunicazione, le caratteristiche del
terminale, i periferici speciali).
Gli elementi principali di PALIO elementi sono i seguenti (Fig.
9):

una piattaforma di comunicazione che include tutte le interfacce di rete, per la interoperabilità di reti fisse o mobili

il centro AVC, composto delle componenti principali di adattamento, un centro di controllo dei servizi e gli strati di comunicazione da e verso i terminali e i servizi informativi

centri informativi distribuiti sul territorio, che forniscono un
insieme di servizi informativi primari.
84
Pier Luigi Emiliani
Figura 9. Il sistema PALIO
Il centro AVC è l‘unità architetturale che si prende cura della diversità degli utenti e realizza i meccanismi per l‘Accesso Universale. È
percepito dagli utenti come un sistema che raggruppa tutti i servizi
informativi disponibili nella città. Serve come un punto di facilitazione virtuale dal quale si può avere accesso a diversi tipi
d‘informazione e servizi. La sua consapevolezza del contesto e della localizzazione dell‘utente insieme alle sue capacità di adattamento permettono all‘utente di sperimentare la loro interazione con i
servizi come un dialogo contestualizzato: cioè il sistema conosce
sempre dove l‘utente si trova e può inferire correttamente cosa gli è
vicino, senza che questi debba fornire esplicitamente tale informazione.
Il World Wide Web
Il World Wide Web è un sistema di documenti, accessibili attraverso Internet, che contengono testo, immagini, video e altri materiali
multimediali che sono connessi attraverso iper-collegamenti (hyperlinks).
Inclusione nella Società dell‘Informazione
85
L‘accessibilità ai siti Web è stata affrontata tradizionalmente con
l‘uso di linee guida o leggi nazionali che costituiscono un modo di
realizzazione del concetto di Progettazione Universale, in quanto
forniscono all‘utente un insieme di suggerimenti per produrre pagine Web accessibili ed usabili da tutti i potenziali utenti.
Una delle organizzazioni più conosciute coinvolte nella produzione di linee guida per l‘accessibilità ai siti Web è la ―Web Accessibility Initiative‖ (WAI), parte del Consorzio ―World Wide Web‖
(W3C). WAI ha pubblicato nel 1999 le linee guida WCAG 1.0
(Web Content Accessibility Guidelines) 6,che spiegano come rendere accessibile il Web a persone con limitazioni d‘attività. Tali linee
guida sono in corso di sostituzione con una versione aggiornata che
tiene conto dei cambiamenti dal 1999, le linee guida WCAG 2.07,
che sono quasi complete, ma, al tempo della scrittura di questo documento, non sono ancora state ancora pubblicate ufficialmente.
Le linee guida WAI sono alla base di molte leggi nazionali per
garantire l‘accesso al Web.
Caratteristiche fondamentali delle WCAG 2.0
Le linee guida WCAG 2.0 sono raggruppate in quattro principi di
accessibilità. Questi stabiliscono che il contenuto del Web dovrebbe
essere percepibile, operabile, comprensibile e robusto.
Linee guida 1 – Percepibile
1.1 Fornisci alternative testuali di qualunque contenuto non testuale in modo tale che possa essere trasdotto in altre forme di cui
le persone possano aver bisogno, come stampe ingrandite,
Braille, voce, simboli o un linguaggio più semplice.
1.2 Fornisci alternative sincronizzate per media basati sulla sincronizzazione temporale.
1.3 Crea contenuti che possano essere presentati in modi diversi
(per esempio con un‘organizzazione spaziale più semplice)
senza perdere informazione e struttura.
1.4 Rendi semplice per l‘utente la visione o l‘ascolto del contenuto
separando l‘informazione dallo sfondo.
6 http://www.w3.org/TR/WAI-WEBCONTENT/
7 http://www.w3.org/TR/WCAG20/
86
Pier Luigi Emiliani
Linee guida 2 – Operabile
2.1 Rendi disponibili tutte le funzionalità con l‘uso della tastiera.
2.2 Lascia all‘utente il tempo necessario per leggere ed usare il
contenuto delle pagine.
2.3 Non produrre il contenuto in modo che si sappia possa provocare attacchi (ad esempio epilettici).
2.4 Fornisci modi per aiutare gli utenti a navigare, trovare i contenuti e individuare dove sono.
Linee guida 3 – Comprensibile
3.1 Produci contenuti testuali leggibili e comprensibili.
3.2 Fai in modo che le pagine appaiano e operino in modo prevedibile.
3.3 Aiuta gli utenti ad evitare e correggere gli errori.
Linee guida 4 – Robusto
4.1 Massimizza la compatibilità con le interfacce utente esistenti e
future, includendo anche le tecnologie assistive.
Ogni linea guida specifica una serie di criteri di successo, con diversi livelli d‘importanza (livello A, doppio A e triplo A). I criteri
di successo differiscono dai punti di controllo WCAG 1.0 per il fatto di essere facilmente verificabili. La struttura è progettata in modo
da sopravvivere ai cambiamenti tecnologici e, perciò, non fa riferimento a nessuna tecnologia specifica. Le problematiche collegate
alla tecnologia sono discusse nella sezione Tecniche (Techniques),
che dà alcune indicazioni su come soddisfare le WCAG 2.0. Al
momento esistono tecniche generali, tecniche HTML, tecniche
CSS, tecniche di scripting, e si prevede che ne vengano rese disponibili altre. L‘idea è che le tecniche siano solo informative e non vi
è nessuna prescrizione a seguirle in modo stretto. Perciò è data la
possibilità a ciascun produttore di pagine Web di sviluppare tecniche diverse per soddisfare lo stesso criterio di successo.
Sistemi di produzione di contenuti Web
Un sistema di produzione di contenuti Web (Content Management
System - CMS) è un programma che facilita la creazione, controllo
Inclusione nella Società dell‘Informazione
87
e correzione di contenuti multimediali e l‘esecuzione di molte funzioni essenziali su documenti elettronici. Nel caso del Web, questi
sono spesso realizzati come applicazioni Web ed utilizzati per gestire il contenuto di un sito. Sono concepiti in modo da permettere ad
un sito Web di crescere ed essere aggiornato in base al contributo di
una comunità di utenti potenzialmente larga.
Questa classe di prodotti contiene programmi con differenti caratteristiche, ciascuno tendente ad uno scopo differente e specializzato a soddisfare un tipo differente di utilizzo. Alcuni esempi sono
le piattaforme wiki (come quella su cui è costruita la enciclopedia
Wikipedia 8), le piattaforme ―weblog‖ (come WordPress9) o strumenti generali per costruire o gestire siti Web (da soluzioni ―open
source‖ come Joomla10, Lenya11 o Plone12, a prodotti ad alto costo
come Vignette13 o Documentum14).
Questi prodotti costituiscono il fondamento delle applicazioni
Web e permettono il loro uso interattivo da larghi gruppi di utenti.
Quindi per sfruttare al massimo la potenza del Web (ad esempio il
Web 2.0), tutte le piattaforme per la pubblicazione di contenuti dovrebbero curarsi delle problematiche di accessibilità nella procedura
di sviluppo. Idealmente i sistemi di produzione di siti Web dovrebbero essere progettati e strutturati in modo da prevenire
l‘introduzione di barriere e di incoraggiare e realizzare accessibilità
(in accordo, ad esempio, alle WCAG 2.0) e alle caratteristiche di
usabilità (Billi, 2004).
La situazione italiana
Introduzione
Il Governo italiano ha scelto di affrontare le problematiche di accessibilità alla ICT attraverso un corpo di atti legislativi, al momento costituita da una Legge (No. 4/2004), contenente i principi fondamentali, e due Decreti, che contengono i regolamenti di attuazio8 http://www.mediawiki.org/wiki/MediaWiki
9 http://wordpress.org/
10 http://www.joomla.org/
11 http://lenya.apache.org/
12 http://plone.org/
13 http://www.vignette.com/
14 http://software.emc.com/products/product_family/documentum_family.htm
88
Pier Luigi Emiliani
ne e le richieste tecniche di accessibilità. Questo corpo legislativo si
fa cura del fatto che i servizi informativi pubblici siano accessibili,
che le persone siano dotate degli strumenti ed apparecchiature adeguati e che i sistema pubblico di approvvigionamento di beni e servizi ICT tenga sempre conto dell‘accessibilità.
Nel seguito sono riportati gli articoli della legge, che definiscono
i principi fondamentali e il settore di applicazione, ed i requisiti che
i siti web devono soddisfare per garantire l‘accessibilità. La legge
italiana, comunque, non si riferisce solo all‘accessibilità del Web,
ma è molto più generale facendo riferimento anche ai sistemi informatici e di telecomunicazione in generale e non solo
all‘accessibilità ma anche all‘usabilità. Informazioni complete sono
disponibili online15.
Legge 4/2004 - Disposizioni per favorire l'accesso dei soggetti disabili agli strumenti informatici
Art.1 (Obiettivi e finalità)
1. La Repubblica riconosce e tutela il diritto di ogni persona ad accedere a tutte le fonti di informazione e ai relativi servizi, ivi compresi
quelli che si articolano attraverso gli strumenti informatici e telematici.
2. È tutelato e garantito, in particolare, il diritto di accesso ai servizi
informatici e telematici della pubblica amministrazione e ai servizi di
pubblica utilità da parte delle persone disabili, in ottemperanza al
principio di uguaglianza ai sensi dell'articolo 3 della Costituzione.
Art.2 (Definizioni)
1. Ai fini della presente legge, si intende per:
a) «accessibilità»: la capacità dei sistemi informatici, nelle forme e
nei limiti consentiti dalle conoscenze tecnologiche, di erogare servizi
e fornire informazioni fruibili, senza discriminazioni, anche da parte
di coloro che a causa di disabilità necessitano di tecnologie assistive
o configurazioni particolari;
15 http:// www.pubbliaccesso.gov.it.
Inclusione nella Società dell‘Informazione
b) «tecnologie assistive»: gli strumenti e le soluzioni tecniche,
hardware e software, che permettono alla persona disabile, superando o riducendo le condizioni di svantaggio, di accedere alle informazioni e ai servizi erogati dai sistemi informatici.
Art.3 (Soggetti erogatori)
1. La presente legge si applica alle pubbliche amministrazioni di cui
al comma 2 dell'articolo 1 del decreto legislativo 30 marzo 2001, n.
165, e successive modificazioni, agli enti pubblici economici, alle aziende private concessionarie di servizi pubblici, alle aziende municipalizzate regionali, agli enti di assistenza e di riabilitazione pubblici, alle aziende di trasporto e di telecomunicazione a prevalente partecipazione di capitale pubblico e alle aziende appaltatrici di servizi
informatici.
2. Le disposizioni della presente legge in ordine agli obblighi per
l'accessibilità non si applicano ai sistemi informatici destinati ad essere fruiti da gruppi di utenti dei quali, per disposizione di legge, non
possono fare parte persone disabili.
Art.4 (Obblighi per l'accessibilità)
1. Nelle procedure svolte dai soggetti di cui all'articolo 3, comma 1,
per l'acquisto di beni e per la fornitura di servizi informatici, i requisiti di accessibilità stabiliti con il decreto di cui all'articolo 11 costituiscono motivo di preferenza a parità di ogni altra condizione nella
valutazione dell'offerta tecnica, tenuto conto della destinazione del
bene o del servizio. La mancata considerazione dei requisiti di accessibilità o l'eventuale acquisizione di beni o fornitura di servizi non
accessibili è adeguatamente motivata.
2. I soggetti di cui all'articolo 3, comma 1, non possono stipulare, a
pena di nullità, contratti per la realizzazione e la modifica di siti
INTERNET quando non è previsto che essi rispettino i requisiti di
accessibilità stabiliti dal decreto di cui all'articolo 11. I contratti in
essere alla data di entrata in vigore del decreto di cui all'articolo 11,
in caso di rinnovo, modifica o novazione, sono adeguati, a pena di
nullità, alle disposizioni della presente legge circa il rispetto dei requisiti di accessibilità, con l'obiettivo di realizzare tale adeguamento
entro dodici mesi dalla data di entrata in vigore del medesimo decreto.
89
90
Pier Luigi Emiliani
3. La concessione di contributi pubblici a soggetti privati per l'acquisto di beni e servizi informatici destinati all'utilizzo da parte di lavoratori disabili o del pubblico, anche per la predisposizione di postazioni di telelavoro, è subordinata alla rispondenza di tali beni e servizi ai requisiti di accessibilità stabiliti dal decreto di cui all'articolo
11.
4. I datori di lavoro pubblici e privati pongono a disposizione del dipendente disabile la strumentazione hardware e software e la tecnologia assistiva adeguata alla specifica disabilità, anche in caso di telelavoro, in relazione alle mansioni effettivamente svolte. Ai datori
di lavoro privati si applica la disposizione di cui all'articolo 13,
comma 1, lettera c), della legge 12 marzo 1999, n. 68.
5. I datori di lavoro pubblici provvedono all'attuazione del comma 4,
nell'ambito delle disponibilità di bilancio.
Art.5 (Accessibilità degli strumenti didattici e formativi)
1. Le disposizioni della presente legge si applicano, altresì, al materiale formativo e didattico utilizzato nelle scuole di ogni ordine e
grado.
2. Le convenzioni stipulate tra il Ministero dell'istruzione, dell'università e della ricerca e le associazioni di editori per la fornitura di
libri alle biblioteche scolastiche prevedono sempre la fornitura di copie su supporto digitale degli strumenti didattici fondamentali, accessibili agli alunni disabili e agli insegnanti di sostegno, nell'ambito
delle disponibilità di bilancio.
Requisiti di accessibilità per i siti web
Requisito n. 1: Realizzare le pagine e gli oggetti al loro interno utilizzando tecnologie definite da grammatiche formali pubblicate
nelle versioni più recenti disponibili quando sono supportate
dai programmi utente. Utilizzare elementi ed attributi in modo
conforme alle specifiche, rispettandone l‘aspetto semantico. In
particolare, per i linguaggi a marcatori HTML (HypertText
Markup Language) e XHTML (eXtensible HyperText Markup
Language):
a)
per tutti i siti di nuova realizzazione utilizzare almeno la versione 4.01 dell‘HTML o preferibilmente la versione 1.0
Inclusione nella Società dell‘Informazione
91
dell‘XHTML, in ogni caso con DTD (Document Type Definition - Definizione del Tipo di Documento) di tipo Strict;
b) per i siti esistenti, in sede di prima applicazione, nel caso in cui
non sia possibile ottemperare al punto a) è consentito utilizzare
la versione dei linguaggi sopra indicati con DTD Transitional,
ma con le seguenti avvertenze: segue elenco dei requisiti di accessibilità per i siti Internet.
Requisito n. 2: Non è consentito l‘uso dei frame nella realizzazione
di nuovi siti. Segue elenco dei requisiti di accessibilità per i siti
Internet.
Requisito n. 3: Fornire una alternativa testuale equivalente per ogni
oggetto non di testo presente in una pagina e garantire che
quando il contenuto non testuale di un oggetto cambia dinamicamente vengano aggiornati anche i relativi contenuti equivalenti predisposti; l‘alternativa testuale equivalente di un oggetto
non testuale deve essere commisurata alla funzione esercitata
dall‘oggetto originale nello specifico contesto.
Requisito n. 4: Garantire che tutti gli elementi informativi e tutte le
funzionalità siano disponibili anche in assenza del particolare
colore utilizzato per presentarli nella pagina. Segue elenco dei
requisiti di accessibilità per i siti Internet.
Requisito n. 5: Evitare oggetti e scritte lampeggianti o in movimento le cui frequenze di intermittenza possano provocare disturbi da epilessia fotosensibile o disturbi della concentrazione,
ovvero possano causare il malfunzionamento delle tecnologie
assistive utilizzate; qualora esigenze informative richiedano
comunque il loro utilizzo, avvertire l‘utente del possibile rischio prima di presentarli e predisporre metodi che consentano
di evitare tali elementi.
Requisito n. 6: Garantire che siano sempre distinguibili il contenuto informativo (foreground) e lo sfondo (background), ricorrendo a un sufficiente contrasto (nel caso del testo) o a differenti livelli sonori (in caso di parlato con sottofondo musicale);
evitare di presentare testi in forma di immagini; ove non sia
92
Pier Luigi Emiliani
possibile, ricorrere agli stessi criteri di distinguibilità indicati in
precedenza.
Requisito n. 7: Utilizzare mappe immagine sensibili di tipo lato
client piuttosto che lato server, salvo il caso in cui le zone sensibili non possano essere definite con una delle forme geometriche predefinite indicate nella DTD adottata. Segue elenco dei
requisiti di accessibilità per i siti Internet.
Requisito n. 8: In caso di utilizzo di mappe immagine lato server,
fornire i collegamenti di testo alternativi necessari per ottenere
tutte le informazioni o i servizi raggiungibili interagendo direttamente con la mappa.
Requisito n. 9: Per le tabelle dati usare gli elementi (marcatori) e
gli attributi previsti dalla DTD adottata per descrivere i contenuti e identificare le intestazioni di righe e colonne. Segue elenco dei requisiti di accessibilità per i siti Internet.
Requisito n. 10: Per le tabelle dati usare gli elementi (marcatori) e
gli attributi previsti nella DTD adottata per associare le celle di
dati e le celle di intestazione che hanno due o più livelli logici
di intestazione di righe o colonne.
Requisito n. 11: Usare i fogli di stile per controllare la presentazione dei contenuti e organizzare le pagine in modo che possano
essere lette anche quando i fogli di stile siano disabilitati o non
supportati. Segue elenco dei requisiti di accessibilità per i siti
Internet.
Requisito n. 12: La presentazione e i contenuti testuali di una pagina devono potersi adattare alle dimensioni della finestra del
browser utilizzata dall‘utente senza sovrapposizione degli oggetti presenti o perdita di informazioni tali da rendere incomprensibile il contenuto, anche in caso di ridimensionamento,
ingrandimento o riduzione dell‘area di visualizzazione o dei caratteri rispetto ai valori predefiniti di tali parametri.
Requisito n. 13: In caso di utilizzo di tabelle a scopo di impaginazione, garantire che il contenuto della tabella sia comprensibile
anche quando questa viene letta in modo linearizzato e utilizzare gli elementi e gli attributi di una tabella rispettandone il va-
Inclusione nella Società dell‘Informazione
93
lore semantico definito nella specifica del linguaggio a marcatori utilizzato. Segue elenco dei requisiti di accessibilità per i
siti Internet.
Requisito n. 14: Nei moduli (form), associare in maniera esplicita
le etichette ai rispettivi controlli, posizionandole in modo che
sia agevolata la compilazione dei campi da parte di chi utilizza
le tecnologie assistive.
Requisito n. 15: Garantire che le pagine siano utilizzabili quando
script, applet, o altri oggetti di programmazione sono disabilitati oppure non supportati; ove ciò non sia possibile fornire una
spiegazione testuale della funzionalità svolta e garantire una alternativa testuale equivalente, in modo analogo a quanto indicato nel requisito n. 3. Segue elenco dei requisiti di accessibilità per i siti Internet.
Requisito n. 16: Garantire che i gestori di eventi che attivano
script, applet o altri oggetti di programmazione o che possiedono una propria specifica interfaccia, siano indipendenti da uno
specifico dispositivo di input.
Requisito n. 17: Garantire che le funzionalità e le informazioni
veicolate per mezzo di oggetti di programmazione, oggetti che
utilizzano tecnologie non definite da grammatiche formali
pubblicate, script e applet siano direttamente accessibili. Segue
elenco
dei
requisiti
di
accessibilità
per i siti Internet.
Requisito n. 18: Nel caso in cui un filmato o una presentazione
multimediale siano indispensabili per la completezza
dell‘informazione fornita o del servizio erogato, predisporre
una alternativa testuale equivalente, sincronizzata in forma di
sotto-titolazione o di descrizione vocale, oppure fornire un riassunto o una semplice etichetta per ciascun elemento video o
multimediale tenendo conto del livello di importanza e delle
difficoltà di realizzazione nel caso di trasmissioni in tempo reale.
Requisito n. 19: Rendere chiara la destinazione di ciascun collegamento ipertestuale (link) con testi significativi anche se letti
94
Pier Luigi Emiliani
indipendentemente dal proprio contesto oppure associare ai
collegamenti testi alternativi che possiedano analoghe caratteristiche esplicative, nonché prevedere meccanismi che consentano di evitare la lettura ripetitiva di sequenze di collegamenti
comuni a più pagine. Segue elenco dei requisiti di accessibilità
per i siti Internet.
Requisito n. 20: Nel caso che per la fruizione del servizio erogato
in una pagina è previsto un intervallo di tempo predefinito entro il quale eseguire determinate azioni, è necessario avvisare
esplicitamente l‘utente, indicando il tempo massimo consentito
e le alternative per fruire del servizio stesso.
Requisito n. 21: Rendere selezionabili e attivabili tramite comandi
da tastiere o tecnologie in emulazione di tastiera o tramite sistemi di puntamento diversi dal mouse i collegamenti presenti
in una pagina; per facilitare la selezione e l‘attivazione dei collegamenti presenti in una pagina è necessario garantire che la
distanza verticale di liste di link e la spaziatura orizzontale tra
link consecutivi sia di almeno 0,5 em, le distanze orizzontale e
verticale tra i pulsanti di un modulo sia di almeno 0,5 em e che
le dimensioni dei pulsanti in un modulo siano tali da rendere
chiaramente leggibile l‘etichetta in essi contenuta. Segue elenco dei requisiti di accessibilità per i siti Internet.
Requisito n. 22: Per le pagine di siti esistenti che non possano rispettare i suelencati requisiti (pagine non accessibili), in sede di
prima applicazione, fornire il collegamento a una pagina conforme a tali requisiti, recante informazioni e funzionalità equivalenti a quelle della pagina non accessibile ed aggiornata con
la stessa frequenza, evitando la creazione di pagine di solo testo; il collegamento alla pagina conforme deve essere proposto
in modo evidente all‘inizio della pagina non accessibile.
4. La Società dell’Informazione
La maggior parte degli osservatori tecnologici a livello mondiale
prevedono che la Società dell‘Informazione emerga e si sviluppi
come una qualche forma di ―ambiente intelligente‖, nel quale i
Inclusione nella Società dell‘Informazione
95
compiti da compiere e il modo di compierli possono essere completamente ridefiniti. Questa visone è presente non solo nei documenti
del gruppo europeo ISTAG (Information Society Advisory Group)
(Ducatel, et al., 2001), ma anche in documenti di altri paesi (ad esempio Australia, Giappone e Stati Uniti), prodotti da agenzie governative, industrie (come ad esempio Rand, Xerox, Microsoft,
IBM, Philips, Siemens, NEC, Fujitsu) e Università (ad esempio il
Massachusetts Institute of Technology – MIT ha un laboratorio
d‘intelligenza ambientale e molte ricerche attive nel settore). Sfortunatamente, nella maggior parte dei documenti disponibili, le problematiche di gruppi di utenti che non hanno le abilità dell‘utente
medio non sono considerate. Inoltre, e questo in modo abbastanza
sorprendente, le persone che lavorano nel settore dell‘accessibilità
non appaiono molto interessarti a questi sviluppi.
L’intelligenza ambientale – AmI
Nel modello precedente si suppone che la Società
dell‘Informazione si sviluppi rendendo disponibile un ambiente ICT
accessibile nel quale oggetti intelligenti forniscono funzionalità
(Fig. 10) utili per l‘accesso all‘informazione, la comunicazione interpersonale e il controllo ambientale. Inoltre si suppone che gli
ambienti siano interconnessi con un centro di controllo e con il
mondo esterno che contribuiscono con funzionalità più complesse
(servizi).
96
Pier Luigi Emiliani
Figura 10. Funzionalità nell'ambiente
Dalla prospettiva dell‘interazione, si prevede una migrazione da un
modello nel quale l‘utente interagisce con un calcolatore o un terminale, ad uno dove l‘utente interagisce usando interfacce naturali
con funzionalità rese disponibili dai singoli oggetti, la loro cooperazione sotto la supervisione di un centro di controllo e la cooperazione attraverso reti esterne, come rappresentato in Fig. 11
In accordo con la sua definizione nella Dichiarazione di Riga,
l‘inclusione nella Società dell‘Informazione sarà favorita da questo
ambiente emergente, se le funzionalità rese disponibili saranno inclusive (cioè accessibili) e se queste si faranno carico di supportare
gli utenti con limitazioni di attività, ridefinendo le attività in modo
da essere eseguite con le abilità disponibili e/o aiutandoli in modo
proattivo nei compiti in cui hanno limitazioni. Come esempio, si
può considerare il caso di una persona ipovedente. Questa può essere supportata con un telefono con tasti grandi (soluzione AT), ma le
si può anche dare la possibilità di utilizzare una funzionalità completamente virtuale (per esempio controllata dalla voce), che può
essere utilizzata senza raggiungere l‘apparecchio telefonico e manipolare la tastiera (cioè senza utilizzare l‘abilità visiva).
Inclusione nella Società dell‘Informazione
97
Figura 11. L'ambiente intelligente
Questo modo di procedere è anche compatibile con il modello
WHO ICF, che parte dalla definizione di ―attività‖ che devono essere svolte nell‘ambiente e caratterizza la disabilità come limitazioni a
svolgere tali attività, sia per limitazioni personali che per fattori
contestuali. Quindi, le persone possono essere favorite aumentando
le loro capacità o agendo sul contesto. L‘approccio è schematizzato
in Fig. 12.
Figura 12. Componenti della e-Inclusione
98
Pier Luigi Emiliani
Analisi preliminare dell’ambiente emergente
A dispetto della conoscenza limitata di come l‘ambiente intelligente
si materializzerà, si ritiene comunemente che la sua disponibilità
produrrà nuove opportunità per i cittadini nella Società
dell‘Informazione, includendo le persone con limitazioni di attività
e le persone anziane, ma probabilmente, allo stesso tempo, anche
nuove sfide per l‘accesso ai prodotti e servizi basati sulla ICT.
Allo scopo di produrre in modo strutturato una visione di come
possa emergere la Società dell‘Informazione come intelligenza ambientale, in Europa è stato condotto un esercizio di generazione di
scenari, che ha portato alla pubblicazione del rapporto ―Scenarios
for Ambient Intelligence in 2010‖ (Ducatel, et al., 2001). Gli scenari presentati offrono una visione di un futuro potenziale della vita
sociale, basato sugli sviluppi tecnologici previsti. Non sono previsioni tecnologiche, ma descrizioni di attività potenziali da svolgere
nei futuri ambienti intelligenti.
Un‘analisi preliminare, tesa a mostrare a livello funzionale quale
potrebbe
essere
l‘impatto
dell‘intelligenza
ambientale
sull‘inclusione di persone con limitazioni di attività, è stata effettuata nell‘ambito del Progetto Cost 219ter (Antona, et al, 2007) e del
progetto DfA@eInclusion16. L‘analisi è basata sulle assunzioni seguenti. Prima di tutto gli scenari sono considerati ―veri‖, cioè è dato
per garantito che la tecnologia e i servizi siano disponibili con le
caratteristiche previste. Perciò, la fattibilità degli sviluppi tecnici
non è parte dell‘analisi. Quindi, l‘ambiente intelligente è considerato come disponibile ovunque, non tenendo conto che fattori economici potrebbero impedire un dispiegamento reale della tecnologia
corrispondente. Inoltre, l‘ambiente intelligente è considerato come
disponibile continuamente (senza malfunzionamenti). Un‘analisi di
cosa potrebbe accadere nel caso che le ultime due assunzioni non
fossero,valide è stata presentata negli ―scenari oscuri‖ elaborati nel
progetto SWAMI (Friedewald, 2006), e si applicano anche al caso
di persone con limitazioni di attività. Infine, sono stati solo considerati problemi connessi all‘accesso all‘informazione, alla comunicazione interpersonale ed al controllo ambientale. Si ritiene, comun16 http://www.dfaei.org/
Inclusione nella Società dell‘Informazione
99
que, che i risultati dell‘analisi forniscano alcune interessanti conclusioni, che costituiscono un punto di partenza per la costruzione di
una visione più completa e olistica.
Per effettuare l‘analisi, persone con limitazioni di attività sono
introdotte in modo virtuale negli scenari ISTAG, identificando se e
come essi possono svolgere le attività descritte. Quindi, invece di
partire dalle nuove tecnologie e cercare di immaginare come queste
possono essere utilizzare per realizzare nuovi servizi ed applicazioni accessibili ed utili, l‘analisi parte dagli scenari applicativi che esemplificano a livello funzionale l‘uso di differenti aspetti
dell‘ambiente intelligente. Anche se gli scenari originali non fanno
riferimento esplicito a persone con limitazioni di attività, poiché
sono principalmente basati sullo svolgimento di attività in contesti
definiti, si prestano ad una facile analisi delle possibilità di accesso
a tali attività da parte di persone con caratteristiche differenti.
Come già detto, in accordo alla classificazione ICF le persone
possono avere menomazioni, limitazioni di attività o restrizioni alla
partecipazione che caratterizzano la loro abilità (capacità) di eseguire compiti o azioni (attività), ma le loro prestazioni sono anche influenzate dall‘ambiente. Questo può aumentare il livello di prestazione al di sopra del livello di capacità (e perciò è considerato un
facilitatore) o può ridurre le prestazioni al di sotto del livello di capacità (essendo perciò considerato una barriera). Lo scopo del lavoro presentato nel capitolo è di analizzare le prestazioni delle persone nelle situazioni previste negli ambienti intelligenti per caratterizzarli come facilitatori nelle attività richieste o come ulteriori barriere, cercando anche di immaginare possibili modi di superare eventuali barriere. Per questa ragione, gli scenari ISTAG sono divisi in
attività e persone con limitazioni di attività sono osservati virtualmente mentre svolgono i compiti necessari.
Sono stati considerati cinque gruppi di utenti. I primi due gruppi
si riferiscono a persone con limitazioni sensoriali (causate anche da
fattori contestuali), e precisamente a persone che non sono in grado
di vedere e a persone che non sono in grado di sentire. Il terzo è
composto di persone, essenzialmente anziane, con limitazioni lievi
o moderate di memoria, linguaggio, orientamento e soluzione di
problemi (limitazioni cognitive), che non ne impediscono una vita
indipendente se è reso disponibile un conveniente supporto. Quindi,
100
Pier Luigi Emiliani
sono considerate persone con problemi di manipolazione fine (quali
quelle necessarie per l‘uso della tastiera e del mouse), problemi di
fissazione e/o difficoltà nell‘esprimersi usando la voce (ad esempio
causate da paralisi cerebrale). Infine sono considerate persone che
si muovono su carrozzina a rotelle, analizzandone comunque solo i
problemi di accesso all‘informazione, comunicazione interpersonale e controllo ambientale.
Il comunicatore personale
Negli scenari prodotti, la chiave principale per aprire le porte della
Società dell‘Informazione è il comunicatore personale (P-Com) e
l‘insieme di agenti correlati, in grado di garantire la connessione
con l‘ambiente e tutti i mezzi per accedere all‘informazione, comunicare e controllare l‘ambiente stesso. Le sue caratteristiche non sono definite con precisione negli scenari. Non ha una interfaccia definita, ma può in linea di principio rendere disponibili tutte le tecnologie d‘interazione integrate nel sistema o disponibili nello spazio
circostante per adattare l‘ambiente al tipo d‘interazione adatta per
l‘utente e il contesto d‘uso utilizzando, per esempio, l‘audio quando
gli occhi sono necessari per altri compiti (per esempio per guidare),
o visive e tattili in un ambiente rumoroso. Il comunicatore può essere quindi una funzionalità virtuale supportata dall‘intelligenza ambientale con interfacce differenti. Può essere un braccialetto o inserito negli indumenti, ma anche impiantabile. È adattivo e impara
dall‘interazione dell‘utente con l‘ambiente. Offre funzioni di comunicazione, di elaborazione e di decisione. Le sue funzioni possono
essere basate su intelligenza interna o su intelligenza distribuita
nell‘infrastruttura. Quando necessario, può diventare un avatar e
gestire la maggior parte delle interazioni sociali. In uno degli scenari non ha neppure una forma fisica definita: è solo una funzione capace di contatti con altre persone (per esempio il guidatore in un sistema di trasporto condiviso) o con servizi (per esempio il sistema
informativo di un supermercato o il sistema di pagamento città dei
trasporti cittadini).
Alcune caratteristiche del comunicatore sono utili per tutti: è
personale, leggero, indossabile e continuamente disponibile. Inoltre,
non deve essere necessariamente un dispositivo altamente sofistica-
Inclusione nella Società dell‘Informazione
101
to, le cui prestazioni sono limitate dalle dimensioni, peso e consumo. L‘intelligenza necessaria per rendere disponibili le interazioni e
le trasduzioni d‘informazione necessarie per fornire le diverse modalità e per aiutare l‘utente possono essere nell‘ambiente e nella rete. Lo stesso è vero per le periferiche d‘interazione. In principio,
l‘unico fattore limitante è la banda di trasmissione.
L’ambiente come facilitatore
Fino ad ora, come già descritto, l‘inclusione delle persone con limitazioni di attività è stata basata su alcuni approcci complementari:
l‘adattamento dei sistemi in funzione delle necessità di gruppi
d‘utenti individuali (ad esempio l‘adattamento delle loro interfacce), l‘adattamento di servizi di uso generale (ad esempio i sistemi di
allarme) e la creazione di servizi speciali (ad esempio i servizi
d‘interconnessione). Alcune conclusioni interessanti sulle possibilità d‘inclusione rese possibili dall‘intelligenza ambientale possono
essere dedotte dagli scenari, con riferimento a funzionalità (servizi)
generalmente disponibili nell‘ambiente.
Sistemi di controllo ambientale: diventano una parte integrale degli ambienti di vita e possono essere messi in grado d‘integrare
tecnologia addizionale, se progettati per essere estendibili con
funzionalità aggiuntive (sia per scopi generali come i sistemi
robotici o per un supporto specializzato ad esempio con tecnologie assistive).
Servizi d’interconnessione (relay services): sono in linea di principio disponibili nell‘ambiente, dove il riconoscimento e la sintesi della voce, la traduzione automatica, il riconoscimento dei
gesti (linguaggio dei segni e lettura labiale) e le animazioni
(linguaggio dei segni sintetico e movimenti delle labbra) sono
considerati disponibili per tutti e si suppone che le persone comunichino usando ogni (combinazione di) linguaggio o media.
Sistemi di allarme e supporto/controllo: l‘intero Ambiente intelligente è un sistema di allarme e supporto/controllo pervasivo
ed altamente sofisticato. Questo può essere molto importante
per persone con problemi cognitivi. L‘ambiente intelligente
può controllare continuamente il loro comportamento nei vari
102
Pier Luigi Emiliani
contesti in funzione delle loro abitudini conosciute ed intervenire quando necessario, per esempio ricordando loro i compiti
da compiere e aiutandoli nel compierli. Quando necessario
l‘ambiente intelligente può anche contattare un membro della
famiglia o una persona di supporto e chiedere consiglio. Se le
persone non possono vedere l‘ambiente è in grado di descrivere
la propria configurazione e i dispositivi presenti (ad esempio il
controllo remoto di un televisore). Inoltre, perché le persone
non possono svolgere due compiti uditivi simultaneamente,
l‘ambiente è in grado di organizzare sequenzialmente il flusso
dell‘informazione e l‘esecuzione dei compiti necessari, allocando il tempo necessario. Il P-Com può essere parte del sistema di controllo, in contatto continuo con i parenti e le persone di supporto e la persona può essere seguita durante gli
spostamenti.
Servizi di navigazione: i sistemi e i servizi di navigazione sono una
parte integrale dell‘ambiente intelligente e possono essere utili
in molte circostanze. Sono presenti o possono essere utilizzati
in tutti gli scenari per scopi differenti. Se una persona non è in
grado di vedere, durante un viaggio il P-Com in collegamento
con l‘intelligenza ambientale la guida attraverso l‘aeroporto (ad
esempio con la voce o con suggerimenti tattili). Questo richiede la conoscenza della sua posizione nell‘aeroporto (garantita
dall‘intelligenza ambientale) e la possibilità di controllare la
presenza di ostacoli non prevedibili (persone, bagagli), ottenibile attraverso le caratteristiche dello stesso ambiente (ad esempio con un sistema di controllo capace di comunicare con
oggetti marcati con etichette elettroniche o con i P-Com dei
passeggeri e di identificare oggetti non etichettati usando sistemi di riconoscimento di configurazioni in tempo reale). Se la
persona ha problemi cognitivi, il sistema di navigazione può
adattare il livello di supporto alle abilità conosciute o alle difficoltà presenti percepite (per esempio la persona può essere
confusa dalla folla nell‘aeroporto).
Le automobili sono parte di un sistema complesso di navigazione e
di controllo del traffico. Le persone normalmente non interagiscono
direttamente con il sistema, ma questo conosce le loro caratteristi-
Inclusione nella Società dell‘Informazione
103
che ed è in grado di suggerire ragionevoli alternative se devono abbandonare l‘automobile e usare mezzi di trasporto alternativi. Per
esempio, il sistema di controllo della metropolitana può registrare
una persona come un cliente che non è in grado di vedere e suggerire itinerari e cammini che non sono al momento affollati. Alternativamente può registrarla come un cliente anziano. Può connettersi
con il centro di controllo per verificare se viene considerato in grado di viaggiare da solo o deve essere assistito. Se può viaggiare da
solo, il P-Com si fa carico di guidarlo e di suggerire le azioni necessarie per arrivare a destinazione. Il livello di supporto può essere
adattato facilmente alle sue capacità. Se la persona si muove su una
sedia a rotelle, l‘ambiente intelligente può suggerire un itinerario
accessibile per la destinazione.
Servizi di comunicazione interpersonale audio e video: il fatto
che le persone sia in grado di conversare utilizzando sistemi
audio/video e di accedere all‘informazione in modo cooperativo è molto importante. Introduce una componente di socializzazione remota. Anche se il supporto da parte della tecnologia
può essere di valore incalcolabile in alcune circostanze, il supporto da parte di altre persone può essere più efficiente e accettabile in alcune situazioni ed attività. L‘ambiente intelligente,
con la sua enfasi su attività cooperative in contato audio e video, permette di chiedere supporto ad un parente, un amico o
una organizzazione di supporto.
Sistemi di accesso all’informazione, comunicazione e negoziazione basati su agenti: l‘intelligenza nell‘ambiente (agenti intelligenti) può essere il reale fattore vincente. Per esempio, per
pianificare il suo viaggio, una persona può basarsi su un ambiente popolato da agenti (l‘intelligenza nell‘ambiente), che
possono identificare l‘informazione rilevante e negoziare al suo
posto per ottenere ciò di cui ha bisogno al miglior prezzo possibile. Il supporto intelligente, interessante per tutti, può essere
cruciale per persone che hanno problemi di emissione della voce o di udito che possono ridurre la loro capacità di comunicazione interpersonale o problemi di vista o manipolazione che
possano ridurne l‘efficienza nell‘accesso a servizi informativi
complessi. La possibilità di delegare ad un agente le transazioni
104
Pier Luigi Emiliani
necessarie per organizzare un viaggio possono essere cruciali
anche per una persona anziana con limitazioni cognitive. Lo
stesso vale per organizzare gli spostamenti in città con un sistema di auto in comune o gli acquisti attraverso la rete. Nella
negoziazione degli spostamenti nella città, l‘agente intelligente
conosce le necessità delle persone (per esempio che si muove
su una sedia a rotelle) e seleziona il mezzo e l‘autista adatto.
Nel svolgere acquisti su rete l‘agente può individuare
l‘informazione utile per l‘utente e presentarla nella forma adatta. Se la persona non è in grado di vedere o ha problemi di fissazione, l‘agente può leggere l‘informazione sulle etichette intelligenti dei singoli oggetti. Se la persona ha limitazioni cognitive, può darsi che abbia bisogno di guida attraverso i compiti
necessari. Il livello di supporto può essere adattato alla gravità
dei suoi problemi. In caso di problemi cognitivi lievi,
l‘ambiente intelligente può ricordare e dare suggerimenti, come
un amico a casa. Nel caso di problemi gravi può invece controllare completamente la situazione. Ovviamente, può anche
supervisionare la situazione dal punto di vista della sicurezza.
Questo può essere fatto autonomamente o in cooperazione con
una persona di supporto.
Attività di apprendimento: negli ambienti intelligenti gli spazi di
apprendimento possono essere adattati ai singoli utenti sia dal
punto di vista fisico (organizzazione dello spazio e disponibilità di supporto multimediale spazialmente distribuito) che concettuale (tipo di materiali di apprendimento, velocità di presentazione). Inoltre vi è la possibilità di scambi sociali (con gli altri studenti, il gestore dell‘ambiente e gli esperti), che può essere di aiuto nell‘apprendimento. Lo stesso gestore dell‘ambiente
non è un esperto delle materie da apprendere, ma un mediatore
fra interessi e necessità differenti. Non solo ci si preoccupa
dell‘efficienza dell‘apprendimento, ma anche delle emozioni
degli individui e dei gruppi. Un supporto continuo è garantito
dall‘ambiente intelligente che è capace di adattarsi agli utenti
ed ai loro stati emotivi.
Inclusione nella Società dell‘Informazione
105
L’individuo che interagisce con l’ambiente
Dopo aver esaminato il possibile impatto dei servizi di uso generale
su persone che hanno limitazioni di attività, è necessario focalizzarsi sull‘interazione degli utenti con l‘ambiente intelligente allo scopo
di svolgere i compiti necessari per essere integrati a casa, negli spazi chiusi (ad esempio un aeroporto, un hotel, un bar e un ambiente
per l‘apprendimento) e negli spazi aperti.
La situazione più semplice per l‘interazione è nella propria abitazione, perché gli spazi casalinghi sono più facili da personalizzare
alle necessità dei differenti utenti. Per esempio, in uno degli scenari
una persona interagisce con il proprio frigorifero. Se non è in grado
di vedere, può ricevere messaggi vocali e dare istruzioni attraverso
un riconoscitore del parlato. Se non è in grado di parlare, può usare
il riconoscimento dei gesti o messaggi testuali o, se non è in grado
di parlare in modo corretto, il sistema di riconoscimento della voce
può essere addestrato ad adattarsi alle caratteristiche del segnale
vocale prodotto. L‘uscita può essere prodotta in qualsiasi modalità
adattata alle capacità dell‘utente. Per esempio, quando l‘utente è
connesso con un negozio, la persona può scegliere di vedere le
merci d‘interesse o l‘informazione memorizzata sulle etichette può
essere trasdotta in un formato adatto per essere ascoltata o letta (per
esempio in Braille). Inoltre la sua stazione di lavoro personale le
può permettere anche di esplorare e manipolare modelli tridimensionali per mezzo di un‘interazione tattile.
La situazione è più complessa quando si utilizza uno spazio privato ma non personale (ad esempio la stanza di un albergo). Anche
se la stanza è adattata alla personalità dell‘utente quando ne prende
possesso, cioè la sua temperatura, l‘illuminazione e la presentazione
di musica o video sono adattate le sue preferenze, la persona può
avere problemi con gli oggetti contenuti e la loro disposizione, se
non è in grado di vedere o ha problemi cognitivi. In questo caso
l‘ambiente intelligente può provvedere una descrizione della stanza
e delle sue caratteristiche. Se sono presenti problemi cognitivi, il
numero e la complessità delle funzionalità da rendere disponibili
può essere scelta in base al profilo d‘utente. Se necessario
l‘ambiente intelligente può fare automaticamente tutte le scelte. Altrimenti, i parenti o il personale di supporto possono offrire sugge-
106
Pier Luigi Emiliani
rimenti. Problemi possono essere provati con il telecomando del
controllo ambientale. Una prima soluzione efficiente in questo caso
è di usare il P-Com, che può essere programmato ad emulare le caratteristiche di qualsiasi telecomando con uno schema di funzionamento conosciuto (ad esempio quello del telecomando di casa). Alternativamente,l‘ambiente intelligente può descrivere la struttura e
le funzionalità del telecomando disponibile nella stanza e le sue
funzioni possono essere semplificate in funzione delle sue caratteristiche e preferenze.
In uno degli scenari, Maria, la protagonista, deve dare una presentazione a dei potenziali clienti. Se non è in grado di vedere, deve
sapere chi è nella sala prima di incominciare e controllare la temporizzazione della presentazione. Il P-Com comunica e scambia informazione con i P-Com di chi è presente alla riunione, controlla
che tutti siano presenti e fornisce una conferma multimediale (voce
attraverso l‘auricolare con l‘aggiunta di un vibratore, collegato al PCom stesso o presente nella stanza) che la presentazione è pronta.
Se Maria non è in grado di sentire, ma in grado di parlare, non ha
problemi con la presentazione. Altrimenti può utilizzare un sintetizzatore di voce. Durante la discussione, può utilizzare un riconoscitore di voce, la cui uscita può essere tradotta nel movimento delle
labbra e/o nel linguaggio dei segni con un‘animazione. Maria, può
dattilografare le risposte, per esempio utilizzando una tastiera (virtuale) e un sistema di predizione. Queste possono essere lette o sintetizzate. Alternativamente Maria può utilizzare il linguaggio dei
segni, tradotto in voce in tempo reale.
Nell‘ambiente intelligente le persone possono interagire con
l‘informazione e comunicare usando escusivamente il P-Com. Non
hanno bisogno di calcolatori o terminali complessi. La potenza di
calcolo è disponibile dovunque, insieme alle periferiche adatte per
interagire. Comunque, alcune persone possono preferire sistemi
personalizzati. Se una persona è incapace di veder, il suo P-Com
può essere equipaggiato con un‘interfaccia personalizzata (per esempio un‘interfaccia tattile ripiegabile). Altrimenti, il P-Com può
comunicare con un sistema tattile tridimensionale disponibile
nell‘ambiente. Se la persona non è in grado di vedere o ha problemi
di fissazione, l‘informazione può essere trasferita utilizzando il canale vocale, mentre, se non è in grado di sentire, l‘informazione può
Inclusione nella Società dell‘Informazione
107
essere presentata utilizzando testo o mappe (per esempio su un
display visivo integrato nei suoi occhiali). Se ha problemi cognitivi,
i singoli compiti ad eseguire possono essere suggerti attraverso al
modalità preferita e spiegati nei dettagli.
Sfide emergenti
Nel leggere le sezioni precedenti, si potrebbe concludere che la Società dell‘Informazione offre una panacea per i problemi delle persone con limitazioni d‘attività. Prima di arrivare a questa conclusione, devono però essere considerate alcune sfide da affrontare.
La prima è collegata all‘intelligenza, considerata come una parte
fondamentale dell‘ambiente emergente. La situazione attuale nel
settore dell‘Intelligenza Artificiale mostra chiaramente che sono
necessari miglioramenti significativi per la realizzazione di ambienti quali quelli previsti negli scenari ISTAG. Per esempio, anche se il
riconoscimento e la sintesi della voce stanno migliorando,
l‘introduzione dell‘intonazione nella voce sintetica, il riconoscimento della voce al di fuori di domini specialistici e/o in luoghi rumorosi e la traduzione fra linguaggi diversi richiedono miglioramenti fondamentali nell‘interpretazione semantica dei messaggi. Lo
stesso è vero per gli aspetti dell‘ambiente intelligente collegati alle
emozioni delle persone e alle difficoltà nell‘eseguire alcuni compiti.
Ovviamente, senza miglioramenti fondamentali rispetto alle possibilità presenti, l‘ambiente potrebbe interferire nella vita dei cittadini
in modi negativi e quindi inaccettabili.
Inoltre, si deve considerare che l‘analisi presentata precedentemente riguarda solo i problemi di accesso all‘informazione, comunicazione interpersonale, controllo ambientale ed altre attività che
possono essere supportate migliorando la possibilità d‘integrazione
nella comunità dell‘informazione e della comunicazione. Questo
ovviamente non risolverà tutti i problemi delle persone e, in ogni
caso, richiede un approccio proattivo basato sulla Progettazione Universale per trasferire a tutti i possibili vantaggi identificati precedentemente. Per esempio, la disponibilità della sintesi della voce o
del Braille labile come caratteristica standard dell‘ambiente non significa automaticamente che tutta l‘informazione sarà disponibile
alle persone che non sono in gado di vedere, perché questo dipende-
108
Pier Luigi Emiliani
rà anche da come l‘informazione è memorizzata e strutturata. Poiché è ovviamente impossibile adattare tutte le banche dati connesse
alla rete, sarà necessario utilizzare un approccio basato sulla Progettazione Universale (per esempio le linee guida WAI) per rappresentare l‘informazione in una forma che ne renda possibile la trasduzione utilizzando il testo (voce o Braille). Comunque, se
l‘informazione sull‘accessibilità delle stanze non è presente in una
banca dati sugli alberghi, nessuna linea guida che riguarda la presentazione
dell‘informazione
e
nessun
adattamento
dell‘informazione potranno essere d‘aiuto.
Questo si applica allo sviluppo di tutte le tecnologie e loro uso
per realizzare le funzionalità previste negli scenari, che devono avere tutte le caratteristiche necessarie per l‘inclusione di tutti i potenziali utenti. Per esempio, il riconoscimento dei gesti è considerata
una tecnologia d‘interazione importante per tutti, ma sforzi di ricerca addizionali sono necessari per estrarre informazioni da movimenti spastici. Il riconoscimento della voce può essere molto importante per interfacciare con l‘ambiente persone che non possono
utilizzare tastiere o sistemi di puntamento, ma il sistema di addestramento deve essere abbastanza robusto da accettare non solo voci
standard, ma anche voci di persone con paralisi cerebrale. La traduzione fra diversi linguaggi ha il potenziale di eliminare le barriere
fra paesi e culture differenti, ma, ovviamente, il livello d‘inclusione
dipenderà dai linguaggi che sono considerati. Differenti linguaggi
dei segni e linguaggi simbolici (come i simbolo di Bliss) dovranno
essere parte dell‘insieme dei linguaggi considerati.
Molti altri aspetti dello sviluppo di un ambiente intelligente devono essere discussi in relazione al loro possibile impatto sulla popolazione nel suo insieme e sulle persone con limitazioni di attività.
Prima di tutto, è necessario investigare come le abilità degli esseri
umani saranno impegnate nelle forme d‘interazione emergenti e
quale sarà l‘impatto di questa interazione sugli spazi percettivi e
cognitivi degli individui. L‘ambiente emergente può essere molto
complesso e stimolante, sia dal punto di vista sensoriale che cognitivo. Non è chiaro se le persone saranno in grado di far fronte
all‘iper-stimolazione e il corrispondente carico cognitivo. Questo è
particolarmente vero per persone con abilità ridotte e, principalmente, per persone con limitazioni cognitive. L‘ambiente deve essere
Inclusione nella Società dell‘Informazione
109
sviluppato in modo che le capacità delle persone vengano considerate nel bilanciamento della distribuzione dei compiti fra l‘utente e
l‘ambiente intelligente.
Questa considerazione introduce un altro aspetto particolarmente
importante. L‘accettabilità da parte dei cittadini del nuovo ambiente
dipende anche dalla loro fiducia e, perciò, dal loro livello di accettazione e di delega. Questo può essere un punto particolarmente
sensibile per persone con limitazioni di attività, che potrebbero dover delegare più degli altri utenti e avere problemi addizionali nel
concettualizzare la situazione.
L‘impatto sulle emozioni, la vigilanza, le possibilità di elaborazione dell‘informazione e la memoria deve essere considerato con
particolare attenzione quando sono coinvolte persone con limitazioni di attività. Ad un livello basso, è necessario evitare forme
d‘interazione che possano condurre a conseguenze negative come
confusione, sovraccarico cognitivo e frustrazione. Questo implica la
necessità di una distribuzione delle possibilità d‘ingresso/uscita
nell‘ambiente continua, allo scopo di non creare frustrazione e confusione, flessibile, in modo da essere in grado di adattarsi ai differenti contesti d‘uso, e coerente nell‘ambiente. Il fatto che
l‘interazione mantenga una coerenza interna in ogni situazione facilita ovviamente l‘interazione e favorisce l‘accettabilità.
Un‘altra sfida coinvolge la privacy e la sicurezza. La possibilità
di adattare l‘ambiente ai diversi gruppi di utenti richiede la disponibilità d‘informazione su di essi. Nel caso di persone con limitazioni
di abilità, questa informazione può essere molto sensibile. È quindi
particolarmente importante che gli utenti possano avere fiducia sulla privacy garantita dal sistema. La privacy è stata sempre un problema importante per ogni sistema di controllo. Il problema è adesso reso più sensibile dal fatto che il controllo non è affidato ad un
sistema dedicato, ma ad un ambiente intelligente presente ovunque.
Infine, la sicurezza è un altro aspetto importante. L‘ambiente intelligente, includendo anche l‘infrastruttura di supporto, è un sistema complesso. È stato dimostrato recentemente che i sistemi complessi sono facili al collasso (l‘interruzione dell‘erogazione di energia elettrica dovuti al collasso dei sistemi di distribuzione son un
esempio ben conosciuto). Questo potrebbe essere molto pericoloso
se la società umana è organizzata intorno ad un sistema informativo
110
Pier Luigi Emiliani
e di comunicazione complesso, come quello immaginato negli scenari, specialmente per persone con limitazioni di attività, che potrebbero essere costrette ad appoggiarsi più pesantemente sulle possibilità disponibili. Perciò ridondanze ed affidabili strategie di recupero dagli errori dovranno essere disponibili nel sistema e comprensibili da parte degli utenti finali.
Conclusioni
A causa dell‘emergere della Società dell‘Informazione, che non è
concepita come un‘ulteriore diffusione di calcolatori e terminali
quali quelli disponibili adesso, ma come uno spazio popolato da
oggetti intelligenti interconnessi che offrono alle persone funzionalità utili per comunicare, controllare l‘ambiente e accedere
all‘informazione, l‘enfasi sull‘inclusione è posto sul problema di
garantire un accesso universale allo spazio informativo e di comunicazione emergente piuttosto che a garantire l‘accessibilità ai sistemi individuali.
Questo comporta una revisione dei metodi tradizionali di uso
della tecnologia per l‘inclusione sociale delle persone con limitazioni di attività. In particolare, a causa della transizione in corso e
della possibile complessità dell‘ambiente risultante, è comunemente
accettato che sia necessario passare dal normale approccio reattivo
all‘inclusione, basato sull‘adattamento di tecnologie disponibili con
interventi di Tecnologia Assistiva, ad approcci proattivi, in accordo
ai quali le necessità, richieste e preferenze di tutti gli utenti potenziali sono integrate nelle specifiche di sviluppo delle nuove tecnologie e di progetto dei relativi prodotti. Questo implica che la Tecnologia Assistiva non è più ―la soluzione tecnologica‖
all‘inclusione, ma solo una delle sue componenti.
Il nuovo approccio, la Progettazione Universale, sposta
l‘interesse dei progettisti dall‘―utente medio‖ a utenti reali in reali
contesti d‘uso, puntando alla realizzazione di sistemi, servizi ed applicazioni usabili da tutti i potenziali utenti senza modifiche. Questo
concetto, sviluppato in architettura e nel design industriale, rimane
valido anche nel settore delle tecnologie informatiche e di telecomunicazione, ma la strategia di realizzazione e gli approcci tecnici
Inclusione nella Società dell‘Informazione
111
devono essere modificati. Non si tratta di proporre una soluzione
singola per tutti, ma di realizzare prodotti che siano in grado di soddisfare automaticamente la diversità degli utenti.
Questo pone problemi interessanti, sia al livello
dell‘identificazione, organizzazione e trasferimento in specifiche
usabili delle necessità, richieste e preferenze di tutti i potenziali utenti che della definizione di un approccio tecnico per la realizzazione pratica dell‘approccio concettuale. Un approccio tecnico di
cui è stata dimostrata la fattibilità è basato sull‘introduzione nei sistemi e servizi di una sufficiente ―intelligenza‖ da permetterne un
adattamento automatico alle caratteristiche del singolo utente
all‘inizio dell‘interazione in base alla conoscenza dell‘utente stesso
(adattabilità) e un adattamento continuo in funzione dell‘uso (adattività).
Questo approccio appare particolarmente compatibile con i previsti sviluppi tecnologici. Infatti, l‘emergere del concetto
d‘intelligenza ambientale e la disponibilità quindi di ambienti intelligenti interattivi sarà probabilmente capace di rendere disponibile a
tutti e dovunque l‘intelligenza necessaria per garantire l‘adattabilità
e l‘adattività dei sistemi e servizi, anticipando le necessità di ogni
singolo utente.
Bibliografia
Akoumianakis, D., Savidis, A., Stephanidis, C. [1999] ―Encapsulating Intelligent
Interactive Behaviour in Unified User Interface Artefacts‖, to appear in the
International Journal on Interacting with Computers, special issue on The
Reality of Intelligent InterfaceTechnology, 38 pages.
Akoumianakis D., Stephanidis C. [1997a] Knowledge-based Support for UserAdapted Interaction Design, Expert Systems with Applications, vol. 12(2), pp.
225-245.
Akoumianakis, D., Stephanidis, C. [1997b] Supporting user adapted interface
design: The USE-IT system, International Journal of Interacting with
Computers, vol. 9(1), pp. 73-104.
Antona M, Burzagli L.,Emiliani P.L., Stephanidis C.[2007] ‖Ambient Intelligence
and implications for people with disabilities. The ISTAG scenarios: a case
study‖, in Towards an Inclusive Future, Roe P. (Ed.), Published by COST,
Brussels, pp. 158 – 187.
112
Pier Luigi Emiliani
Billi, M., Burzagli, L., Gabbanini, F., Graziani, P. & Palchetti, E. [2004] ‗The Use
of Current Content Management Systems for Accessibility‘, in Klaus
Miesenberger; Joachim Klaus; Wolfgang Zagler & Arthur Karshmer, ed.,
―Computers Helping People with Special Needs‖, Springer, 331-338.
Ducatel, K.; Bogdanowicz, M.; Scapolo, F.; Leijten, J. & Burgelman, J. C. [2001]
Scenarios for ambient intelligence in 2010, Technical report, Information
Society Technologies Programme of the European Union Commission (IST).
Emiliani P.L. [2001] ―Anyone, Anywhere Access to Community-Oriented
Services‖, 1st International Conference on Universal Access in HumanComputer Interaction, New Orleans, pp. 803 – 807.
Emiliani, P. L. & Stephanidis, C. [2005] Universal access to ambient intelligence
environments: opportunities and challenges for people with disabilities, IBM
Systems Journal 44(3), 605--619.
European SeniorWatch Observatory and Inventory, [2002] Older People and
Information Society, p. 34.
Fink, J., Kobsa, A., & Nill, A. [1997] ―Adaptable and Adaptive Information
Access for All Users, Including the Disabled and Elderly‖, In A. Jameson, C.
Paris, & C. Tasso (Eds.), Proceedings of the 6th International Conference on
User Modelling (UM '97), Sardinia, Italy (pp. 171-173), New York: SpringerVerlag.
Friedewald, M. et.al. (ed.), [2006] Safeguards in a World of Ambient Intelligence
(SWAMI), Deliverable D1. IST, 6th Framework Programme.
Kobsa, A., & Pohl, W. [1995] The user modelling shell system BGP-MS, User
Modelling and User-adapted interaction, 4 (2), 59-106.
Kouroupetroglou G., Viglas C., Anagnostopoulos A., Stamatis C., Pentaris F.,
[1996] ―A novel Software Architecture for Computer-based Interpersonal
Communication aids‖, In the proceedings of 5th ICCHP‘96 International
Conference on Computers and Handicapped People, Linz, Austria, pp. 715720.
Lewis C. and Rieman J. [1993] Task-Centred User InterfaceDesign: A Practical
Introduction, http://hcibib.org/tcuid/
Mynatt, E. D., Weber, G. [1994] ―Nonvisual presentation of graphical user
interfaces: contrasting two approaches‖, in the Proceedings of the ACM
Conference on Human Factors in Computing Systems (CHI ‘94) (pp. 166-172),
Boston, Massachusetts, USA, New York: ACM Press.
Petrie, H., Morley, S., McNally, P., O‘Neill, A-M., Majoe, D. [1997] ―Initial
design and evaluation of an interface to hypermedia systems for blind users‖,
In the Proceedings of Hypertext97, Southampton, UK, pp. 48-56, New York:
ACM Press.
Savidis, A., Akoumianakis, D., & Stephanidis, C. [2001] ―The Unified User
Interface Design Method‖, in Stephanidis, C. (ed.), User Interfaces for All,
Lawrence Erlbaum, ISBN 0-8058-2967-9.
Inclusione nella Società dell‘Informazione
113
Savidis, A., Stephanidis, C. [1995a] ―Developing Dual User Interfaces for
Integrating Blind and Sighted Users: the HOMER UIMS‖, 1995 ACM
Conference on Human Factors in Computing Systems (CHI '95), Denver,
USA, pp. 106-113.
Savidis, A., Stephanidis, C. [1995b] ―Building non-visual interaction through the
development of the Rooms metaphor‖, 1995 ACM Conference on Human
Factors in Computing Systems (CHI '95), Denver, USA, pp. 244-245
(Companion Proceedings).
Savidis, A., Stephanidis, C., Korte, A., Krispien, K., Fellbaum, K. [1996] ―A
Generic Direct Manipulation in 3d-Auditory Environment for Hierarchical
Navigation in Non-Visual Interaction‖, 2nd ACM-SIGCAPH Conference on
Assistive Technologies (ASSETS '96), Vancouver, Canada, pp. 117-123.
Savidis, A., Stephanidis, C., Akoumianakis, D. [1997] ―Unifying Toolkit
Programming Layers: a Multi-Purpose Toolkit Integration Module‖, 4th
Eurographics Workshop on Design, Specification and Verification of
Interactive Systems (DSV-IS '97), Granada, Spain, pp 177-192.
Savidis, A., Stephanidis, C., [1997b] ―Agent Classes for Managing Dialogue
Control Specification Complexity: A Declarative Language Framework‖, HCI
International '97, San Francisco, USA, pp. 461-464.
Savidis, A., Stephanidis, C. [1998a] The HOMER UIMS for Dual User Interface
Development: Fusing Visual and Non-visual Interactions, International Journal
of Interacting with Computers.
Savidis, A., Stephanidis, C. [1998b] The HOMER UIMS for Dual User Interface
Development: Fusing Visual and Non-visual Interactions, International Journal
of Interacting with Computers.
Savidis, A., Stergiou, A., Stephanidis, C., [1997] ―Generic containers for metaphor
fusion in non-visual interaction: The HAWK Interface toolkit‖, in the
Proceedings of the Interfaces '97 Conference, Montpellier, France,, pp. 194196.
Savidis, A., Vernardos, G., Stephanidis, C. [1997] ―Embedding Scanning
Techniques Accessible to Motor-Impaired Users in the WINDOWS Object
Library‖, HCI International '97, San Francisco, USA, pp. 429-432.
Stephanidis, C. [1995a] ―Towards User Interfaces for All: Some Critical Issues‖,
HCI International '95, Panel Session User Interfaces for All - Everybody,
Everywhere, and Anytime, Tokyo, Japan, pp. 137-142.
Stephanidis, C., Mitsopoulos, Y. [1995] ―INTERACT: An interface builder
facilitating access to users with disabilities‖, HCI International '95, Tokyo,
Japan,, pp. 923-928.
Stephanidis, C., Savidis, A., Akoumianakis, D. [1997] ―Unified Interface
Development: Tools for Constructing Accessible and Usable User Interfaces‖,
Tutorial Notes 13, 7th International Conference on Human-Computer
Interaction (HCI International ‘97), San Francisco, California, USA.
114
Pier Luigi Emiliani
Stephanidis, C., Paramythis, A., Akoumianakis, D., & Sfyrakis, M. [1998] ―SelfAdapting Web-based Systems: Towards Universal Accessibility‖, 4th ERCIM
Workshop on User Interfaces for All, Stockholm, Sweden, 17 pages.
Stephanidis, C., Paramythis, A., Sfyrakis, M., Savidis, A. [2001] ―A Case Study in
Unified User Interface Development: The AVANTI Web Browser, in
Stephanidis, C. (ed.), User Interfaces for All, Lawrence Erlbaum, ISBN 08058-2967-9.
Stephanidis, C., Savidis, A. [2001] Universal Access in the Information Society:
Methods, Tools, and Interaction Technologies. Universal Access in the
Information Society, Volume: 1, Issue: 1, June, pp. 40-55.
Vanderheiden, G.C. [1998], Universal Design and Assistive Technology in
Communication and Information Technologies: Alternatives or Complements?,
Assistive Technology, Vol. 10.1, pp. 29-36.
Pier Luigi Emiliani è direttore dell'Istituto di Fisica Applicata ―Nello
Carrara‖ (IFAC) Consiglio Nazionale delle Ricerche. La sua attività di ricerca verte sulla teoria e le applicazioni dell'elaborazione digitale dei segnali e la tecnologia dell'informazione, e in particolare sul tema della progettazione universale: il design guidato dal principio della massima possibile accessibilità. É responsabile di numerosi progetti di ricerca e autore di
oltre 160 pubblicazioni su riviste scientifiche, libri e conferenze internazionali.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Introduzione all’Ingegneria dell’Usabilità
Roberto Polillo – Università degli Studi di Milano Bicocca
[email protected]
Abstract. In questo capitolo si riassumono i concetti principali
dell‘ingegneria della usabilità per la progettazione di sistemi interattivi usabili. Dopo una introduzione alla nozione di progettazione centrata
sull‘utente, si introduce la filosofia della progettazione e sviluppo per prototipi successivi osservando che, dopo il fallimento dei modelli cosiddetti
―a cascata‖ sviluppati dall‘ingegneria del software alcuni decenni fa, i modelli corretti sono, di necessità, modelli iterativi. Si esaminano quindi brevemente le principali attività presenti in un processo iterativo: la definizione dei requisiti di prodotto, la prototipazione, la valutazione. Requisiti,
prototipazione e valutazione vengono esaminati per gli aspetti connessi
alla progettazione centrata sull‘utente.
Keywords: Ingegneria, Usabilità, Progettazione, Design, User Centered,
Prototipazione, Valutazione, Test;
1. Progettazione Centrata sull’Utente
Che cosa significa progettare
Nella lingua italiana, e soprattutto nella pratica dell‘informatica, il
termine progettare (con i suoi derivati: progetto, progettazione,
progettista) vengono spesso utilizzati in modo impreciso. È quindi
opportuno definirli con precisione. Nel vocabolario troviamo la seguente definizione:
Progettare [dal francese projeter, dal latino proiectāre ―biasimare‖,
poi ―esporre‖, intensivo di proǐcere, ―gettare avanti‖, composto di
prō ―avanti‖ e iăcere ―gettare‖] : 1. Immaginare, ideare qualcosa e
studiare il modo di attuarla; 2. Ideare la costruzione di un edificio, di
116
Roberto Polillo
una struttura, di una macchina, ecc., compiendo i relativi calcoli e disegni per la sua realizzazione1.
Si parte da un esame della situazione attuale (ciò che è), per riconoscerne i difetti o i limiti e, sulla base delle possibilità offerte dalla
tecnologia (ciò che potrebbe essere), si concepisce la situazione futura (ciò che vogliamo che sia, Figura 1). Progettazione è quindi
un‘attività di natura sia intellettuale che pratica: non basta una ―visione‖ del futuro desiderato, ma occorre anche definire tutti i dettagli che ne permetteranno la realizzazione.
Figura 1. Che cosa significa progettare
Progettare è, quindi, attività completamente diversa dal realizzare.
Nello stesso vocabolario troviamo, infatti:
Realizzare [dal francese réaliser, da réel ―reale‖, da cui dipende direttamente anche l‘inglese to realize]: 1. Rendere reale qualcosa attuandola praticamente; 2. …
Realizzare è quindi un‘attività molto concreta (il termine deriva, in
definitiva, dal latino res, che significa ―cosa‖): si parte da un progetto (il prodotto dell‘attività di progettazione) e lo si attua concretamente. Per esempio, a partire dal progetto di un edificio si organizza il cantiere per la sua costruzione, e lo si costruisce.
1 Vocabolario della lingua italiana di N.Zingarelli, ed. Zanichelli, 2002
Introduzione all‘Ingegneria dell‘Usabilità
117
Nella pratica corrente, soprattutto in informatica, il termine progettare viene spesso usato in modo impreciso, per ricomprendere
non soltanto le attività di progettazione in senso proprio, ma anche
la successiva realizzazione. Così, per progetto non si intende solo il
risultato della progettazione, come sarebbe corretto (ancora dal vocabolario: ―progetto: insieme di calcoli, disegni, elaborati necessari
a definire inequivocabilmente l‘idea in base alla quale realizzare
una qualsiasi costruzione‖), ma spesso, in modo più ampio, tutte le
attività connesse allo sviluppo di un sistema, dalla progettazione alla sua realizzazione concreta.
Molto usato in questo contesto è anche il termine inglese design.
Il verbo to design significa, semplicemente, ―progettare‖. A confondere ulteriormente le cose, tuttavia, questa parola viene spesso
usata, dagli italiani, con sfumature diverse. Per esempio, quando usiamo il termine industrial design (che significa ―progettazione industriale‖) a volte intendiamo, implicitamente, sottolineare i valori
di natura estetica o formale dei prodotti della progettazione. Quando diciamo design italiano vogliamo spesso sottolineare la stessa
cosa.
Nel seguito, il termine progettazione verrà usato in modo coerente con il suo significato etimologico, e il termine design verrà
usato come sinonimo di progettazione.
Progettare l’interazione
La progettazione di sistemi usabili2 richiede un drastico cambiamento di mentalità rispetto all‘approccio di progettazione tradizionale. Nella progettazione tradizionale, l‘oggetto principale
dell‘attenzione è il sistema da progettare (Figura 2 A). Il processo
di progettazione parte dalla definizione dei suoi requisiti funzionali,
cioè dalla identificazione delle funzionalità che esso deve fornire al
2 In questo capitolo non discutiamo la nozione di usabilità, che sarà meglio definita
nel Capitolo 4, Misure di Qualità: Dall‘Usabilità all‘Esperienza dell‘Utente. Ricorderemo, soltanto, che lo standard ISO 9241 definisce la usabilità come ―la efficacia, efficienza e soddisfazione con cui determinati utenti possono raggiungere determinati obiettivi in determinati contesti d‘uso.‖ Dove per efficacia si intende
―l‘accuratezza e completezza con cui gli obiettivi vengono raggiunti‖, per efficienza ―le risorse spese per ottenere tali risultati‖ e per soffisfazione ―il comfort e la
accettabilità del sistema‖
118
Roberto Polillo
suo utente, che vengono quindi descritte in dettaglio in un documento di specifiche funzionali, a partire dal quale il sistema viene
progettato e quindi realizzato. In questo approccio, l‘utente del sistema ha un ruolo, tutto sommato, abbastanza marginale: il progettista concentra la sua attenzione sulle funzionalità, e sugli aspetti
tecnici connessi alla loro realizzazione, per arrivare a soddisfare le
specifiche con un rapporto costo/qualità accettabile.
Figura 2. Dalla
dell‘interazione
progettazione
tradizionale
alla
progettazione
Se l‘obiettivo è la progettazione di un sistema usabile, questo approccio non funziona. Il progettista dovrà porre la sua attenzione, in
primo luogo, sull‘utente (Figura 2 B), e dovrà studiarne le caratteristiche, le abitudini e le necessità in relazione all‘uso del sistema.
Dovrà preconfigurare i vari contesti in cui il sistema verrà utilizzato, e i suoi diversi casi d’uso; dovrà analizzare in dettaglio i compiti
che l‘utente svolgerà con il sistema. Secondo questo approccio, il
compito del progettista non sarà più semplicemente quello di progettare le funzioni del sistema, ma quello di progettare l’interazione
fra il sistema e il suo utente (o i suoi utenti), come raffigurato in Figura 2 C. Si parla, così, di interaction design e, per sottolineare che
Introduzione all‘Ingegneria dell‘Usabilità
119
il punto di partenza è l‘utente, di progettazione centrata sull’utente
(in inglese, user centered design o, semplicemente, UCD).
L‘UCD è un approccio alla progettazione che produce risultati
completamente diversi da quelli ottenuti con l‘approccio tradizionale. Questo è un punto di importanza fondamentale, che deve essere
ben compreso. L‘esperienza nella didattica dell‘UCD insegna che,
molto spesso, i progettisti con un background tecnico (per esempio,
i progettisti di software) tendono a sottovalutare l‘impatto di un approccio user-centered sui risultati del loro lavoro. La raccomandazione di partire dall‘analisi dell‘utente e dei suoi bisogni viene considerata del tutto ovvia, e quindi non meritevole di particolari riflessioni e approfondimenti. Ma non è così. Se non si comprende il
senso profondo contenuto in questo approccio, è facile tornare alle
vecchie abitudini, e progettare non interazioni, ma funzioni, a scapito della usabilità del prodotto finale.
Un esempio emblematico è costituito dai sistemi audio-video
presenti in quasi tutte le case. Si tratta di sistemi realizzati collegando fra loro componenti diversi, con un approccio di tipo modulare: un amplificatore, un lettore di DVD, uno schermo televisivo,
un sistema di altoparlanti, un decoder, e così via. Ogni componente
offre un insieme molto articolato di funzioni, controllabili sia da un
pannello di controllo che da un telecomando. L‘utente ha quindi la
possibilità di controllare singolarmente ciascuno di questi componenti. L‘approccio, dal punto di vista ingegneristico, sembra perfetto: la modularità permette di connettere componenti di vario tipo,
anche di produttori diversi, permettendo all‘utente di configurare il
sistema in modo molto flessibile, a seconda delle sue particolari esigenze. Ma, come tutti noi sappiamo per esperienza diretta, la usabilità di questi sistemi è bassissima.
La Figura 3 mostra il sistema audio-video di chi scrive, costituito da schermo televisivo, amplificatore, decoder, player DVD,
VHR, giradischi. Il sistema prevede l‘uso di ben 5 telecomandi separati (il giradischi, di vecchia produzione, non ha telecomando),
dotati, complessivamente, di poco più di 200 pulsanti (sic!). A questi si aggiungono una settantina di pulsanti e manopole varie, presenti sui pannelli frontali dei vari componenti. Per ―semplificare‖ la
situazione, è stato fornito un ulteriore sesto telecomando ―universale‖, in grado di simulare tutti gli altri (con altri 48 pulsanti, che por-
120
Roberto Polillo
ta il totale a circa 320…). Poiché però questo non è in grado di simulare tutte le funzioni degli altri apparecchi, ma solo un sottoinsieme alquanto limitato, i cinque telecomandi specializzati non possono essere eliminati: ad essi si dovrà ricorrere per funzioni particolari (di uso non frequente, ma comunque necessarie). Il sistema è
corredato di 7 manuali di istruzioni (uno per ogni componente, più
uno per il telecomando universale).
Figura 3. Un sistema audio-video casalingo
Se ora analizziamo le necessità degli utenti di questo sistema, vediamo una situazione completamente diversa da quella che sembra
avere ispirato i progettisti. Le funzioni di interesse per gli utenti non
vengono fornite dai singoli componenti modulari, ma dalla loro cooperazione. La complessità combinatoria dei comandi utili risulta
enormemente ridotta rispetto a quella potenzialmente offerta dagli
oltre 300 pulsanti: le sequenze significative sono poche e ricorrenti.
Per vedere il telegiornale della sera, dovrò accendere il decoder,
l‘amplificatore e lo schermo televisivo, connettere in qualche modo
schermo, amplificatore e decoder e selezionare il canale televisivo
desiderato. Poi dovrò regolare il volume. Questa sequenza corrisponde a un singolo caso d’uso molto frequente. Nel caso di chi
Introduzione all‘Ingegneria dell‘Usabilità
121
scrive corrisponde, anzi, al caso d‘uso di gran lunga più frequente,
quello che, da solo, giustifica l‘acquisto dell‘impianto. Altri casi
d‘uso corrispondono alla visione di un DVD e all‘ascolto di un CD
musicale. Ecco che, in una progettazione centrata sull‘utente, il sistema avrebbe potuto essere ridotto a un numero molto limitato di
comandi base (qualche unità) ai quali aggiungere alcuni comandi
eseguiti molto di rado (per le regolazioni iniziali o durante gli sporadici interventi di manutenzione), che avrebbero potuto essere resi
visibili soltanto ai tecnici del fornitore.
Questo esempio potrebbe essere ulteriormente approfondito considerando il contesto d‘uso, per esempio considerando la posizione
fisica degli apparati in relazione alla dislocazione più frequente
dell‘utente durante l‘uso dei telecomandi nelle varie situazioni: dove mi trovo quando accendo la TV per guardare il telegiornale? Ci
sono delle barriere architettoniche che intercettano i segnali del telecomando da tale posizione? Tutte queste analisi (la cui mancanza,
nel caso specifico, ha peggiorato significativamente la usabilità del
sistema ed ha, di fatto, generato svariati interventi di modifica successivi all‘acquisto) non sono state fatte – e non vengono normalmente mai fatte - in fase di progettazione. Un approccio centrato
sull‘utente nella fase di progettazione di questo sistema avrebbe
prodotto una configurazione molto diversa dell‘impianto.
Si dovrebbe partire dall‘utente nella progettazione di qualsiasi
strumento, elementare o complesso: una scopa, un frigorifero, il
cruscotto di un jumbo jet. In particolare, questo approccio è fondamentale nella progettazione degli oggetti interattivi che hanno una
significativa componente software, come nel caso del nostro esempio, perché è in questi casi che il rischio di creare complessità inutili è più alto.
Le competenze richieste a un interaction designer (il progettista
dell‘interazione) sono molto diverse – perché più ampie – da quelle
richieste a un system designer (il progettista dei sistemi). Mentre
quest‘ultimo dovrà possedere essenzialmente competenze di natura
progettuale (i metodi e gli strumenti da utilizzare nelle attività di
progettazione) e tecnologica (nel dominio cui appartiene il sistema
da progettare), il primo dovrà essere anche in grado di analizzare e
comprendere le caratteristiche e i bisogni dell‘utente per definire, a
partire da queste, le modalità d‘uso e di interazione più opportune.
122
Roberto Polillo
Questo richiede competenze significative, ancora oggi raramente
fornite nel curriculum formativo di un progettista. Infatti, i sistemi
odierni sono sempre più complessi, e l‘interazione non è soltanto
quella ―fisica‖, (postura, sforzo, illuminazione, ecc.) considerata
dalla ergonomia tradizionale ma è – soprattutto – di tipo cognitivo.
L‘ergonomia diventa, quindi, ergonomia cognitiva, e il compito
dell‘interaction designer è anche quello di conoscere e assecondare
i meccanismi cognitivi coinvolti nell‘interazione utente-sistema, in
modo che ne risultino sistemi gradevoli e facili da usare.
L‘interaction design è quindi una disciplina intrinsecamente
multidisciplinare. Data la complessità e l‘articolazione dei problemi
e delle competenze necessarie per risolverli in modo soddisfacente,
la progettazione di sistemi interattivi usabili richiede oggi sempre
più spesso team di progettisti di formazione e competenze diverse e
complementari, nelle discipline più varie: ergonomia, psicologia,
linguistica, sociologia, marketing e, naturalmente, informatica e
scienze della progettazione.
Livelli di maturità della progettazione
La discussione precedente suggerisce che system centered design e
user centered design non dovrebbero essere considerati due approcci alternativi, fra i quali scegliere a seconda delle situazioni. User
centered design può, in effetti, essere considerato un approccio più
maturo, che ricomprende al suo interno le problematiche tecniche
del system centered design, ma le inserisce in un contesto più ampio, che ci permette di comprendere in modo molto più approfondito le finalità del sistema. Possiamo, in effetti, collocare le attività di
progettazione a differenti livelli di maturità:
Primo livello: il prodotto funziona. A questo livello ci si accontenta
che le funzioni previste nel sistema siano operative, senza errori di funzionamento. Questo è il primo livello di maturità, in
cui ci si accontenta di disporre di uno strumento anche rudimentale, ma che permetta di realizzare alcuni compiti ritenuti
importanti. È il livello in cui sono superate le difficoltà tecniche basilari, e si accetta di utilizzare il sistema anche se, per
questo, sono necessari particolari accorgimenti o limitazioni.
Introduzione all‘Ingegneria dell‘Usabilità
123
Secondo livello: il prodotto fornisce le funzioni richieste. Non soltanto il prodotto funziona, ma ci offre tutte le funzionalità ritenute necessarie. L‘enfasi è posta sulla completezza delle funzionalità offerte, e sulla corretta esecuzione delle loro prestazioni. È il livello di maturità della progettazione centrata sul sistema, come nell‘esempio del sistema audio-video.
Terzo livello: il prodotto è facile da imparare e da usare . Questo è
il livello della progettazione centrata sull‘utente. Non solo il
prodotto funziona e offre tutte le funzioni richieste dagli utenti,
ma le organizza in modo adeguato rispetto alle tipologie e alle
necessità dei suoi utenti, nei diversi contesti d‘uso.
Ma il progettista dovrebbe riuscire a superare anche questo livello:
si può considerare infatti un quarto livello di maturità:
Quarto livello: il prodotto è invisibile durante l‘uso. Il prodotto
funziona, fornisce tutte le funzioni richieste, è usabile e, inoltre, il suo uso si integra in modo così armonico e poco intrusivo
con i compiti che ci aiuta ad eseguire che, mentre lo usiamo,
non ci accorgiamo di usarlo. In altre parole, ci permette di
concentrarci sul compito e non sullo strumento che diventa, per
così dire, invisibile. Per esempio, pensiamo a una penna: quando la usiamo per scrivere una lettera, siamo concentrati sul testo della lettera (quindi sul compito) e non sullo strumento che
usiamo per scriverlo. La penna è invisibile, e ne percepiamo la
presenza solo quando qualcosa non va, per esempio quando
l‘inchiostro termina o il pennino si spezza. In questi casi,
l‘attenzione viene sottratta al compito e rivolta allo strumento.
Un altro esempio può essere la postazione di guida di
un‘automobile. Durante la guida, l‘attenzione di un guidatore
esperto, se i comandi dell‘auto sono ben progettati (e la lunga
esperienza fa sì che questo sia oggi il caso più comune) sarà rivolta alla strada e non ai comandi stessi, che manovrerà in modo pressoché automatico, o comunque non a livello consapevole.
124
Roberto Polillo
L’ingegneria della usabilità
L’ingegneria della usabilità (in inglese, usability engineering) è la
disciplina che studia le tecniche, i metodi e i processi che possono
essere utilizzati per progettare e sviluppare sistemi usabili. Il termine è stato introdotto nel 1986 da alcuni progettisti della Digital Equipment Corporation, in un‘accezione che enfatizzava fortemente
un approccio quantitativo alla definizione degli obiettivi di usabilità
nella progettazione:
―Without measurable usability specifications, there is no way to determine the usability needs of a product, or to measure whether or
not the finished product fulfills those needs. If we cannot measure
usability, we cannot have a usability engineering (Good, et al.,
1986).‖
La parola ingegneria vuole sottolineare l‘approccio pragmatico di
questa disciplina, che si propone di dare indicazioni concrete e operative a chi abbia il compito di progettare e sviluppare sistemi interattivi. Inizialmente l‘ingegneria della usabilità si è focalizzata sul
design delle interfacce utente. Oggi, questo termine viene usato in
un‘accezione più ampia, che comprende la totalità delle pratiche utilizzate nel processo di progettazione e sviluppo di un sistema, a
partire dalla raccolta e analisi iniziale dei requisiti. Al di là delle
specifiche definizioni ed enfasi date dai diversi autori negli anni, i
principi cardine della disciplina possono considerarsi ben consolidati fin dalla metà degli anni 80. Ne tratteremo ampiamente nel resto di questo capitolo. In estrema sintesi, essi si possono formulare
come segue:
1.
focalizzazione sull‘utente, all‘inizio e durante tutto il processo
di progettazione
2.
prove con l‘utente all‘inizio e durante tutto il processo di progettazione, con analisi qualitative e misure quantitative
Introduzione all‘Ingegneria dell‘Usabilità
3.
125
modello di progettazione e sviluppo iterativo, per prototipi
successivi3.
Ingegneria e creatività
Il lavoro del progettista non si esaurisce nell‘applicazione dei metodi e best practice suggeriti dalla ingegneria della usabilità. Il lavoro
del progettista è anche, e in molti casi in misura rilevante, lavoro
creativo. Costruire il ―ponte‖ illustrato in Figura 1 fra ciò che esiste
e ciò che vogliamo che esista richiede non soltanto una accurata conoscenza della situazione attuale, dell‘utente e dei suoi bisogni o
desideri (spesso inconsapevoli o latenti), ma anche visione e ispirazione e, a volte, un po‘ di fortuna: nei prodotti del genio, molto
spesso, l‘aiuto del caso è determinante.
Innanzitutto, la conoscenza e l‘analisi delle soluzioni di progettazione adottate in altri progetti costituisce una fonte importante di
spunti per l‘interaction designer. Molte soluzioni progettuali hanno
infatti una struttura o, come si dice, un design pattern - comune, che
poi si incarna e si specializza nei diversi ambiti applicativi. Più precisamente, un design pattern è una soluzione generale a un problema di progettazione che si ripropone in molte situazioni, anche diverse fra loro. Non è una soluzione ―finita‖, ma piuttosto un modello, un template da adattare alla specifica situazione, a cura del progettista. Il concetto è nato in architettura alla fine degli anni 70, per
opera dell‘architetto Christopher Alexander che, affascinato dalla
molteplicità e varietà di soluzioni di progetto inventate nella storia
dell‘architettura, si pose l‘obiettivo di raccogliere un catalogo organizzato dei modelli utilizzati, da comporre poi in modo opportuno
nella realizzazione di nuovi progetti. Alexander inventò anche un
linguaggio, parzialmente formalizzato, per la descrizione di questi
pattern (Alexander, 1979). Un esempio di pattern in architettura,
corredato di un esempio e di una descrizione a parole, è riportato in
Figura 44.
3 Questi principi sono stati per la prima volta proposti in (Gould & Lewis, 1985), e
parzialmente riformulati in successivi articoli degli autori. Per una analisi storica e
critica dei tre principi, nell‘ottica odierna, si veda (Cockton, 2008).
4 L‘esempio in figura è tratto da (Alexander, et al., 1977). Pattern 133 (―Staircase
as a stage‖) descritto a pag.637 e segg.
126
Roberto Polillo
Figura 4. Un design pattern in architettura
Il concetto di design pattern è stato applicato all‘ingegneria del software dalla fine degli anni 80 e, successivamente, all‘interaction design, nel cui ambito esistono oggi numerose collezioni di pattern,
opportunamente organizzati e documentati, utilizzabili in diversi
ambiti progettuali (per esempio, la progettazione di siti web).
Nella progettazione, tuttavia, non ci si può limitare a un ―remix‖
di soluzioni già applicate, opportunamente adattate. Ciò avviene di
frequente, ma non sempre. A volte nascono prodotti totalmente innovativi, che ridefiniscono il mercato e i comportamenti degli utenti. Lo studio dei meccanismi che stimolano la creatività, e dei processi che favoriscono l‘innovazione potrebbe, a ben vedere, far parte della disciplina dell‘ingegneria della usabilità, e sono comunque
un importante argomento di riflessione per tutti coloro che si occupano di progettazione. Non è questa la sede per discutere questi temi. Ci limiteremo a ricordare alcune tecniche che sono state storicamente molto importanti nella evoluzione degli artefatti interattivi,
ed hanno suggerito soluzioni di progetto che hanno determinato la
natura di molti strumenti con i quali conviviamo quotidianamente:
Introduzione all‘Ingegneria dell‘Usabilità

127
l‘utilizzo della mimesi, che consiste nel progettare oggetti virtuali che riproducono in ogni dettaglio oggetti reali ampiamente diffusi.
Oggi molti oggetti vivono, per così dire, due vite: una vita fisica e
una vita sullo schermo del computer. La Figura 5 mostra la versione
virtuale di un famoso modello di calcolatore scientifico della Hewlett Packard, diffusissimo fra gli ingegneri, che ne riproduce esattamente (su una vecchio modello di Macintosh) il funzionamento in
tutti i dettagli.
Figura 5. Il calcolatore scientifico dell‘HP, nella sua versione virtuale

l‘utilizzo del procedimento metaforico, che consiste, in sostanza, nel ―mescolare fra loro‖ campi semantici differenti, trasferendo proprietà e concetti propri di un campo semantico ad un
altro.
Questo procedimento è stato utilizzato molto frequentemente
nell‘interaction design. Basti pensare alle nozioni di menu, di finestra, di desktop, di bottone nei personal computer. In tutti questi casi, e in molti altri ancora, dal trasferimento di concetti noti e propri
128
Roberto Polillo
di un certo dominio, a domini applicativi del tutto diversi, sono nati
meccanismi nuovi, ora entrati nell‘uso comune. La potenza
dell‘associazione metaforica può essere illustrata dal semplice esempio di Figura 6, tratto da Microsoft Word. Il semplice menu di
quadrati colorati sarebbe incomprensibile senza la icona
dell‘evidenziatore, che lo descrive e ne suggerisce l‘uso. Basta la
semplice presenza di questa icona a suggerire in modo inequivocabile possibili usi del menu in questione: l‘intero campo semantico
associato all‘evidenziatore fisico – un oggetto entrato da tempo
nell‘uso quotidiano e quindi ben noto – viene trasferito al menu.
Figura 6. L‘evidenziatore di Microsoft Word

l‘utilizzo della ibridazione, che consiste nel costruire un oggetto nuovo mescolando e integrando fra loro aspetti e funzioni di
più oggetti diversi. Anche in questo caso, gli esempi sono numerosi. La Figura 7 mostra un oggetto virtuale ibrido di
Windows, costruito a partire da un orologio, un calendario, una
dialogue box Windows e una struttura a tab (a sua volta metaforicamente derivata dalle comuni cartellette pensili reali).
Introduzione all‘Ingegneria dell‘Usabilità
129
Figura 7. Orologio/calendario in Windows
Questi brevi cenni bastino a suggerire l‘ampiezza e la portata dello
studio dei meccanismi alla base della creatività progettuale, che in
questa sede non verrà ulteriormente approfondita.
2. Modelli di Progettazione e Sviluppo
Il modello “a cascata”
Da molti anni si è consolidata una disciplina denominata ingegneria
del software, il cui obiettivo è lo sviluppo di metodi e tecniche per
la realizzazione di sistemi software di alta qualità senza sprechi.
Questa disciplina, nata negli Stati Uniti una quarantina di anni fa
sulla spinta dei grossi progetti software di origine governativa, si è
occupata, tradizionalmente, di sistemi software complessi, che
coinvolgono numerose persone e che richiedono, pertanto, approcci
molto strutturati.
Un tempo, quando la disciplina dell‘ingegneria del software era
agli esordi, si pensava che per realizzare un progetto di successo
fosse necessario procedere per fasi logiche successive, ognuna delle
quali ponesse le basi per la fase successiva. Si partiva dalla raccolta
dei requisiti, poi si definivano le specifiche del sistema da realizzare. Quindi si progettava l‘intero sistema ―sulla carta‖ e lo si codifi-
130
Roberto Polillo
cava nel linguaggio di programmazione prescelto. Lo si collaudava
e infine lo si rilasciava. Si passava alla fase seguente solo quando la
fase precedente era completata e i suoi ―prodotti‖ approvati formalmente dal committente.
Si pensava che in un processo ordinato, condotto da professionisti e guidato da un capo progetto esperto, non si dovesse mai retrocedere. Per descrivere questo processo viene usata di solito la metafora della cascata: come in una cascata l‘acqua scorre soltanto verso
il basso e non torna mai indietro, così dalla fase iniziale di un progetto si arriva, passo passo, al rilascio del sistema senza ritornare
mai sui passi precedenti (waterfall model,Figura 8).
Figura 8. Processo di progettazione e sviluppo tradizionale (modello "a
cascata")
Questa impostazione sembra molto sensata, quasi ovvia: per costruire qualcosa (una casa, un ponte, un‘automobile, un sito web) bisogna prima decidere che cosa si vuole ottenere e descriverlo dettagliatamente: poi si passerà alla sua realizzazione, quindi al collaudo
finale e alla consegna. Eppure ci si accorse ben presto che non funzionava sempre così: nella pratica, in nessun progetto reale, anche
se ben gestito, le cose procedevano in maniera così semplice e lineare. Si rendeva spesso necessario ritornare sui propri passi, per ri-
Introduzione all‘Ingegneria dell‘Usabilità
131
vedere e modificare decisioni già prese, anche se erano state ritenute assolutamente consolidate.
Le cause potevano essere molteplici: il committente, in fase avanzata di realizzazione, richiedeva delle varianti che modificavano
le specifiche già approvate. Oppure i progettisti scoprivano difficoltà tecniche inattese, che consigliavano di cambiare rotta. Oppure,
ancora, magari nella fase di rilascio del sistema, i primi utenti segnalavano delle difficoltà nell‘uso che non erano state previste da
nessuno e richiedevano cambiamenti consistenti. Tutti questi rifacimenti, non previsti nella pianificazione iniziale, producevano costi aggiuntivi anche considerevoli. I budget inizialmente assegnati
venivano immancabilmente disattesi. Per molto tempo, queste difficoltà furono imputate a una cattiva conduzione dei progetti. Era
compito di un buon capo progetto, si diceva, tenere a freno le richieste dei committenti e degli utenti e far loro comprendere
l‘importanza di controllare accuratamente le specifiche e di accettare che, una volta approvate, queste dovessero essere considerate
―congelate‖ fino al rilascio del sistema.
Con la maturazione della disciplina dell‘ingegneria del software,
e dopo molti anni e molti fallimenti, si capì che le cose non funzionavano, perché non possono funzionare così. Ci si rese conto che
nessun sistema complesso può essere realizzato con il modello della
cascata, perché è impossibile specificarne tutti gli aspetti all‘inizio e
poi realizzarlo senza modificare nulla. Le ragioni di questa impossibilità sono sia di carattere pratico, sia di carattere teoricoconcettuale.
Dal punto di vista pratico, è molto difficile prevedere ―sulla carta‖ tutti gli aspetti di un sistema complesso, che non esiste ancora.
Possiamo (e dobbiamo) tentare di farlo, ma inevitabilmente non saremo in grado di anticipare tutti i problemi che incontreremo durante la realizzazione, per risolvere i quali potremo essere costretti a
cambiare rotta. Queste difficoltà non si verificano soltanto nel software, ma in progetti di ogni tipo. Pensiamo, per esempio, al progetto di ristrutturazione di un appartamento. Anche in questo caso inizieremo con una descrizione ―sulla carta‖ delle opere murarie e degli impianti da realizzare. Se il modello a cascata funzionasse bene,
giunto a questo punto, il committente potrebbe disinteressarsi del
cantiere e affidarlo a un buon direttore dei lavori, che gli consegne-
132
Roberto Polillo
rà alla fine l‘appartamento realizzato esattamente come da specifiche. Chi ha fatto questa esperienza, tuttavia, sa bene che le cose non
funzionano così. Sa che, durante i lavori, si incontrano difficoltà
non previste e non prevedibili.
Per risolvere queste difficoltà può essere necessario cambiare le
specifiche iniziali e realizzare un appartamento diverso, per qualche
aspetto, da quello progettato inizialmente. Una soletta si rivela poco
resistente ed occorre rinforzarla con una putrella. Questa impedisce
il passaggio dei tubi dell‘impianto di riscaldamento dove era previsto: di conseguenza, il calorifero dovrà essere installato in un posto
diverso. Oppure, a lavori avviati, ci accorgiamo che il vicino ha
l‘abitudine di ascoltare musica fino a tardi e decidiamo di insonorizzare la parete con uno strato di materiale isolante. Questo modifica, anche se solo di pochi centimetri, le misure della stanza e bisogna rivedere alcune decisioni sulla posizione dei mobili. E così
via: le varianti in corso d‘opera potrebbero essere diecine. Non necessariamente dovute ad errori di progettazione, ma a situazioni oggettive che non potevano essere previste e che impongono delle
modifiche senza le quali il risultato non sarebbe accettato dal committente. Il direttore dei lavori non potrà certo rifiutarsi di realizzarle, appellandosi al progetto iniziale regolarmente approvato.
Il ciclo compito-artefatto
C‘è anche un motivo più profondo, di natura teorico-concettuale,
che fa sì che il modello a cascata non possa funzionare. Questo motivo è racchiuso in un principio generale, che possiamo enunciare
nel seguente modo:
Ogni nuovo strumento cambia i bisogni del suo utilizzatore e
genera nuovi bisogni, che suggeriscono modifiche non previste allo
strumento stesso.
In altre parole, per soddisfare le nostre necessità, produciamo
strumenti che, a loro volta, generano nuovi bisogni. Costruiamo allora nuovi strumenti, o modifichiamo quelli già disponibili, in un
ciclo evolutivo infinito, al quale è stato dato il nome di task-artifact
cycle (Carrol, et al., 1991). Questo principio vale per ogni strumento, semplice o complesso, dal cacciavite al cruscotto di un jumbo
jet, a un sistema informativo. Quando definiamo i requisiti di un
Introduzione all‘Ingegneria dell‘Usabilità
133
prodotto che non esiste ancora e che vogliamo realizzare, lo facciamo tenendo conto di determinati bisogni insoddisfatti.
Per ottenere questo risultato, noi progettiamo il prodotto ipotizzando degli scenari d‘uso che ci sembrano plausibili e realizzando
quelle funzioni che, nelle nostre ipotesi, ci sembrano necessarie.
Anche se siamo degli ottimi progettisti, non potremo mai essere
certi di avere immaginato correttamente come i nostri utenti utilizzeranno effettivamente il sistema negli specifici contesti d‘uso e
come questo modificherà i loro bisogni. Per verificare la correttezza
delle nostre ipotesi, dobbiamo prima realizzare il prodotto, farlo usare agli utenti e osservare come lo utilizzeranno effettivamente,
nelle diverse specifiche situazioni. Ci potremo allora accorgere che
gli scenari immaginati corrispondono quasi, ma non completamente, all‘uso effettivo. Ma soprattutto potrà capitare che l‘interazione
fra utente e prodotto faccia nascere nuovi bisogni, in modi imprevisti. Tutto questo ci suggerirà di modificare il prodotto: senza queste
modifiche, i nostri utenti non saranno soddisfatti.
In sostanza, non è possibile valutare completamente
l‘adeguatezza dello strumento ai suoi utenti, prima che questi lo usino effettivamente. Ecco perché il modello a cascata tradizionale
non può funzionare. Esso prevede che gli utenti siano coinvolti nel
processo solo in due momenti: all‘inizio, per contribuire a requisiti
e specifiche e alla fine, dopo il rilascio (o tutt‘al più per il collaudo).
Tuttavia, nella stesura delle specifiche iniziali, anche gli utenti,
come i progettisti, non possono far altro che ipotizzare le caratteristiche necessarie. Alla fine, quando la correttezza di queste assunzioni può essere verificata in concreto, è troppo tardi per intervenire.
Modelli iterativi
Se il modello a cascata è inadeguato, ci serve un modello diverso,
che coinvolga gli utenti fin da subito, non solo nella stesura di requisiti e specifiche, ma anche, e soprattutto, per sperimentare l‘uso
di versioni preliminari del sistema ed aiutarci, con le loro reazioni e
le loro indicazioni, a correggere il tiro, in un processo di prove e
aggiustamenti successivi.
134
Roberto Polillo
L‘idea è quella di procedere con la realizzazione di una serie di
prototipi, via via più vicini al sistema finale. Si inizia con un prototipo preliminare, realizzabile a costi ridotti, e lo si sottopone
all‘utente, che prova ad usarlo. Questa prima prova sarà normalmente limitata, perché il sistema sarà molto semplificato, con funzioni realizzate solo parzialmente, o addirittura ―simulate‖ in qualche modo. Tuttavia ci permetterà di verificare alcune assunzioni di
partenza ed eventualmente di aggiustare il tiro. Un po‘ come quando un pittore schizza un bozzetto prima di dipingere il quadro.
Si realizza quindi un nuovo prototipo, sempre incompleto, ma un
po‘ più somigliante al sistema finale e lo si sottopone ancora alla
prova degli utenti, e così via, per approssimazioni successive, fino
alla conclusione del progetto. In sostanza, le prove d’uso diventano
parte integrante del processo di progettazione. La Figura 9 mostra
una schematizzazione di questo modo di procedere.
Figura 9. Processo di progettazione e sviluppo per prototipi successivi
Ovviamente, nelle varie iterazioni, le diverse attività avranno pesi
diversi. Per esempio, al primo giro, dopo avere specificato i requisiti, ci si concentrerà sulle attività di progettazione, mentre le attività
di realizzazione del primo prototipo richiederanno sforzi limitati. Il
primo prototipo sarà infatti, in genere, piuttosto rudimentale: in
molti casi, soltanto un mock-up con il quale effettuare un primo
Introduzione all‘Ingegneria dell‘Usabilità
135
confronto con gli utenti e, naturalmente, con il committente (effettuato nella fase di test).
Al giro successivo, sulla base di questo confronto, apporteremo
le necessarie modifiche ai requisiti e al progetto, e realizzeremo un
secondo prototipo più evoluto. In questo secondo giro, lo sforzo dedicato ai requisiti e alle attività di progettazione– se non sono stati
evidenziati grossi problemi – sarà di solito piuttosto limitato (dovremo solo apportare alcuni ritocchi), mentre la realizzazione del
secondo prototipo sarà molto più impegnativa. Anche il test effettuato al secondo giro, con un prototipo più evoluto, richiederà maggiori sforzi. E così via: all‘avanzare del progetto, in sostanza, lo
sforzo complessivo si sposta progressivamente dalle fasi iniziali del
ciclo tradizionale (requisiti e progettazione) alle fasi finali (test e
rilascio).
In pratica, tutte le attività rappresentate in Figura 9 vengono portate avanti ―in parallelo‖ per tutta la durata del progetto, ma
l‘impegno dedicato a ciascuna di esse cambia nel tempo.
L‘avanzamento del progetto non è più scandito dal passaggio da
un‘attività alla successiva, ma dalla realizzazione dei diversi prototipi. Ad ogni iterazione un‘attività prevale sulle altre, ma tutte vengono comunque portate avanti, anche solo per apportare le modifiche rese necessarie dai test con gli utenti.
Questa situazione è visualizzata nella Figura 10, che mostra, per
un progetto ipotetico, l‘andamento nel tempo dell‘impegno di risorse (per esempio, il numero di persone impegnate contemporaneamente).
Il processo di progettazione per prototipi successivi è il modello
concettualmente corretto per la realizzazione di sistemi complessi:

il prodotto si vede (anche se in modo parziale), fin dall‘inizio e
viene perfezionato in modo incrementale, per aggiustamenti
successivi

le scelte effettuate possono essere sperimentate anticipatamente
e si possono scartare quelle sbagliate.
Non elimina, tuttavia, tutte le difficoltà:

esiste il rischio che il processo diverga, a causa delle richieste
di modifiche che nascono durante le attività di valutazione dei
136
Roberto Polillo
vari prototipi, e quindi non è facile stimare tempi e costi di
progetto a preventivo

la fluidità dei requisiti e delle specifiche rende più difficile la
comunicazione fra le persone coinvolte nel progetto (team di
progetto, committente).
Il modello iterativo, presentato in Figura 9 in modo del tutto generale, può essere precisato e perfezionato in vari modi, che in questa
sede non è possibile analizzare. Nell‘ambito della ingegneria della
usabilità assume una particolare autorevolezza e importanza la descrizione che ne dà lo standard ISO 13407, che ha proprio lo scopo,
come si legge nella sua introduzione, di ―fornire una guida alle attività di progettazione centrata sull‘utente lungo il ciclo di vita dei
sistemi interattivi basati su computer‖5.
In questo standard, il modello di Figura 9 viene rappresentato
come in Figura 10, e analiticamente descritto.
Figura 10. Allocazione degli sforzi di progetto secondo il modello di progettazione e sviluppo per prototipi successivi
5 ISO 13407:1999, Human-centred design processes for interactive systems.
Introduzione all‘Ingegneria dell‘Usabilità
137
Figura 11. Il processo di progettazione secondo la ISO 13407
Ovviamente, gli schemi di Figura 9 e di Figura 11 sono ancora
troppo astratti per essere realmente utili in un progetto concreto. Infatti nulla ci dicono su come procedere in pratica. Quanti prototipi
(e quindi quante iterazioni) dobbiamo realizzare? Quali obiettivi ci
dobbiamo porre nella realizzazione e nella valutazione di ciascun
prototipo? Come possiamo realizzarli a costi ridotti? Come possiamo tenere sotto controllo i costi complessivi del progetto? A queste
domande non è possibile rispondere in generale, e cioè in modo indipendente dal tipo e dalle caratteristiche del sistema che dobbiamo
realizzare. È, invece, possibile mettere a punto specifiche strategie
per determinate classi di sistemi. Per esempio, nel caso dei siti web
di medie dimensioni, si rivela molto utile organizzare il progetto in
cinque successive macro-fasi di prototipazione, ciascuna finalizzata
alla produzione di un prototipo destinato a valutare specifici obiettivi, e cioè:
Primo prototipo (prototipo di navigazione): ha lo scopo di consolidare la struttura informativa e di navigazione del sito.
138
Roberto Polillo
Secondo prototipo (prototipo di comunicazione): ha lo scopo di
consolidare l‘impostazione grafica del sito e tutti gli aspetti relativi alla comunicazione.
Terzo prototipo (prototipo funzionale): ha lo scopo di consolidare
le funzioni interattive del sito.
Quarto prototipo (prototipo editoriale): ha lo scopo di consolidare
i contenuti informativi e la (eventuale) base dati del sito.
Quinto prototipo (prototipo finale): ha lo scopo di valutare le prestazioni di funzionamento del sito nell‘ambiente di produzione
finale6.
3. I Requisiti
Che cosa sono i requisiti di prodotto
È importante non confondere l‘attività di stesura dei requisiti con
l‘attività di progettazione. Quando specifichiamo i requisiti di un
prodotto, non stiamo progettando, ma stiamo ponendo dei vincoli
all’attività di progettazione, che seguirà. In sostanza, lo scopo del
documento non è quello di indicare che cosa deve essere realizzato,
ma come e perché.
Più precisamente, un requisito (dal latino requisitus, richiesto) è
una proprietà richiesta, oppure desiderabile, del prodotto. Dalla sua
formulazione, dovrebbe essere chiaro se il requisito esprime una
proprietà ―obbligatoria‖, oppure soltanto ―suggerita‖ o ―auspicabile‖, per esempio, utilizzando, rispettivamente, il verbo deve, dovrebbe, oppure potrebbe, come negli esempi seguenti. Per esempio,
per un sito web di e-commerce potremmo identificare, fra gli altri, i
seguenti quattro requisiti:

―Il sito deve permettere all‘utente di inserire nel carrello
d‘acquisto i prodotti di cui sta valutando l‘acquisto. Il carrello
deve poter contenere almeno 15 prodotti contemporaneamente.‖
6 A questo approccio è dedicato il libro: R.Polillo, Plasmare il Web (Apogeo,
2006), nel quale viene dettagliata una completa ―road-map‖ in sette fasi per la progettazione e sviluppo di siti di medie dimensioni (Polillo, 2006).
Introduzione all‘Ingegneria dell‘Usabilità
139

―Ogni scheda prodotto contenuta nel catalogo deve contenere
una fotografia a colori del prodotto, il suo nome, il nome del
produttore, il suo prezzo inclusivo di IVA e una descrizione
sintetica ma completa, di 5 righe di testo al massimo.‖

―L‘intero processo di acquisto di un prodotto dovrebbe richiedere al massimo 5 minuti.‖
Come si vede dagli esempi, i requisiti possono essere di vario tipo.
Alcuni, detti requisiti funzionali (in inglese: functional requirements), descrivono le funzioni che il sistema deve realizzare (come
nel primo esempio). Altri, detti requisiti non funzionali, descrivono
proprietà che il prodotto dovrà possedere (come negli altri esempi).
Lo scopo della definizione dei requisiti è individuarli e descriverli
nel modo più specifico e meno ambiguo possibile.
I requisiti vengono prodotti da persone che lavorano in stretto
contatto con il committente per individuarne i bisogni in relazione
al sistema da realizzare (o da migliorare, se si tratta di un redesign).
Possono essere stesi direttamente dal progettista, o da altre persone,
che non necessariamente saranno coinvolte nel progetto successivo.
Il processo di definizione dei requisiti
La fase di definizione dei requisiti può essere suddivisa in tre attività fondamentali, che possiamo chiamare esplorazione, organizzazione e revisione (Figura 12).
Nella esplorazione (in inglese si usano i termini elicitation o discovery), le persone incaricate di produrre il documento di requisiti
raccolgono il maggior numero possibile di informazioni sugli obiettivi e sulle necessità in relazione al sistema da costruire. Abbiamo
usato il termine ―esplorazione‖ per segnalare che, nella pratica,
spesso questi obiettivi e necessità sono noti allo stesso committente
in forma piuttosto vaga. I consulenti avranno quindi il compito importante e delicato di ―esplorare‖ i diversi aspetti del problema, per
mettere a fuoco o ―scoprire‖ bisogni e priorità. Come indicato nella
Figura 12, le informazioni vengono raccolte da fonti diverse. In
primo luogo, dal committente, cioè da colui che ha avviato il progetto e che ne costituisce il riferimento principale. In secondo luogo, dalle interviste con gli stakeholder del prodotto, cioè con tutti
coloro che, in un modo o nell‘altro, hanno qualche interesse nel
140
Roberto Polillo
prodotto, o la cui attività sarà influenzata, direttamente o indirettamente, da esso7. Infine, dall‘analisi dei prodotti concorrenti, ovvero
quelli con i quali il prodotto in costruzione dovrà confrontarsi e
competere. Se si tratta di un progetto di miglioramento di un prodotto preesistente, informazioni importanti saranno, ovviamente,
ricavate anche dall‘analisi del vecchio prodotto.
Figura 12. Le attività da svolgere per la definizione dei requisiti
Durante questa attività, vengono raccolti appunti e materiale informativo vario, che dovranno successivamente essere riesaminati,
selezionati e organizzati. Questo è lo scopo della successiva attività
di organizzazione (o stesura dei requisiti), indicata sempre in Figura
12. L‘obiettivo principale di questa fase è di costruire un documento
di specifica dei requisiti, condiviso e approvato dal committente.
Questo sarà il riferimento principale per tutte le attività successive
7 La parola inglese stakeholder denota gli azionisti o, più in generale, tutti coloro
che hanno qualche interesse in un‘impresa. Il termine è di uso corrente nella disciplina dell‘interaction design.
Introduzione all‘Ingegneria dell‘Usabilità
141
del progetto. Lo scopo di questo documento è quello di specificare,
nella forma più completa possibile, le richieste del committente e i
vincoli che dovranno essere rispettati nelle fasi successive del progetto. Si analizza il materiale raccolto, lo si riordina, si risolvono
eventuali contraddizioni (le persone intervistate potrebbero avere
idee molto diverse su ciò che occorre fare), e si produce una prima
bozza del documento dei requisiti.
Il redattore dovrà ricorrere a tutta la sua esperienza e creatività,
per produrre un documento che tenga conto, per quanto possibile,
dei punti di vista di tutti gli intervistati, ma che li integri in una proposta organica e coerente e che, soprattutto, sia in accordo con le
priorità indicate dal committente. È lui infatti che, in quanto referente principale del progetto, avrà l‘ultima parola, in caso di dubbi o
conflitti.
Nella fase di revisione e approvazione, la bozza del documento
dei requisiti così prodotta verrà poi presentata al committente per la
sua approvazione. Di solito, sarà necessario effettuare diversi aggiustamenti e revisioni del documento, prima che questo possa essere considerato sufficientemente consolidato e stabile per procedere alla successiva fase di progettazione.
La fase di esplorazione dei requisiti
Le tecniche principali che possono essere utilizzate, nella fase di
esplorazione, per la raccolta dei requisiti sono riassunte in Tabella
1.
Interviste individuali
La tecnica normalmente più usata è quella delle interviste individuali con il committente e i principali stakeholder del prodotto, perché permette di analizzare i singoli problemi in profondità. Gli intervistatori formulano le loro domande e raccolgono appunti, annotando esigenze, suggerimenti, desideri e lamentele. Per ottenere la
massima sincerità, di solito si garantisce agli intervistati che le loro
opinioni verranno riportate solo in forma anonima.
La scelta di chi intervistare va effettuata con cura. Occorre prevedere un numero di interviste compatibile con il budget e il tempo
disponibile, ma senza tralasciare nessuna persona che possa avere
qualcosa di importante da dire sul prodotto in progettazione. Do-
142
Roberto Polillo
vranno pertanto essere intervistati rappresentanti di ciascuna categoria di stakeholder. Poiché il committente è il referente principale
del progetto, le sue indicazioni dovranno avere la massima priorità.
Sarà lui che stabilirà gli obiettivi principali, i tempi di realizzazione
e il budget. Sarà lui che indicherà le persone da intervistare e sarà
lui che revisionerà ed approverà il documento dei requisiti finale. In
caso di conflitto fra proposte alternative, sarà lui a decidere quale
dovrà essere preferita.
Condurre bene un‘intervista può non essere facile e richiede esperienza. È necessario, infatti, concentrarsi sui problemi e non sulle soluzioni. L‘intervistatore dovrà evitare di usare termini tecnici,
cercando di parlare nel linguaggio dell‘intervistato. In molti casi ci
si accorgerà ben presto che è necessario chiarire bene il significato
di alcuni termini, che possono essere usati dagli intervistati con accezioni particolari. Ogni organizzazione sviluppa col tempo un proprio gergo, che può creare fraintendimenti con interlocutori esterni.
Può essere quindi conveniente approfittare delle interviste per definire un sintetico glossario. Cioè una lista dei termini più importanti
utilizzati nel progetto, con le loro definizioni in relazione allo specifico contesto. Questo glossario, allegato ai requisiti, permette di
stabilire una base di conoscenza comune fra gli stakeholder del
prodotto e il gruppo di progetto.
Questionari
I questionari permettono di raccogliere informazioni in forma strutturata, elaborabili con metodi statistici. Essi possono essere distribuiti ai destinatari in varie forme. Per esempio, si possono predisporre dei questionari compilabili on line, sia predisponendo apposite pagine web contenenti le domande del questionario, sia, molto
più semplicemente, con l‘uso della posta elettronica. È così possibile raggiungere una popolazione potenzialmente molto ampia di utenti, anche se, di solito, il tasso di risposta (redemption) è piuttosto
basso.
Una tecnica molto usata nei questionari destinati a raccogliere le
opinioni degli utenti è la cosiddetta scala di Likert8. Il questionario
8 La tecnica fu ideata nel 1932 dallo psicologo americano Rensis Likert, con lo
scopo di fornire uno strumento semplice per la misurazione di opinioni e atteggiamenti, ed è molto usata nella ricerca sociale.
Introduzione all‘Ingegneria dell‘Usabilità
143
è composto da una serie di affermazioni, collegate alle opinioni su
cui si vuole indagare, per ciascuna delle quali sono possibili cinque
risposte: completamente d’accordo, d’accordo, incerto, in disaccordo, in completo disaccordo. A ciascuna risposta è associato un
numero compreso fra 1 e 5. Con questi valori si potrà calcolare la
media delle risposte a ciascun gruppo di affermazioni correlate a
uno stesso argomento.
Focus group
I focus group sono discussioni di gruppo, che hanno lo scopo di
mettere a fuoco uno specifico argomento e di far emergere i diversi
punti di vista dei partecipanti o, a volte, un punto di vista condiviso
fra tutti. Vengono normalmente condotti da un animatore che guida
la discussione e un osservatore che esamina le dinamiche di relazione del gruppo e prende appunti. La conduzione di un focus
group non è compito banale e richiede esperienza. È necessario infatti evitare che il gruppo ―sfugga di mano‖. Quando emergerà il
leader naturale, tenderà a monopolizzare la discussione e a trascinare il gruppo sulle sue posizioni. Il conduttore dovrà evitare che l'incontro diventi un‘occasione di sfogo di malumori e critiche poco
attinenti al tema, o di promozione di scopi personali. Occorre fare
in modo che tutti possano esprimere le loro idee ed abbiano adeguato spazio nella discussione e che non sorgano conflitti fra i conduttori e i membri del gruppo, che potrebbero danneggiare lo svolgimento successivo del progetto.
Osservazioni sul campo
Non sempre gli utenti sono in grado di spiegare in dettaglio quali
sono le modalità di uso desiderate per il prodotto nella loro attività
quotidiana. Potrebbero anche avere una immagine distorta di come
si comportano nelle varie situazioni. Questo non deve stupire: normalmente un utente non ha interesse a conoscere in dettaglio la natura e la frequenza dei compiti che svolge quotidianamente. Uno
studio sul campo per apprendere come gli utenti si comportano nella realtà può quindi essere molto istruttivo e riservare alcune sorprese. Purtroppo questo non è facile, può essere molto costoso, considerando anche la possibile varietà delle diverse tipologie di utenti.
144
Roberto Polillo
Suggerimenti spontanei degli utenti
Queste informazioni sono preziose per una corretta evoluzione del
prodotto e dovrebbero sempre essere sistematicamente raccolte e
classificate.
Questionari
Servono per
Vantaggi
Svantaggi
Rispondere a
domande
specifiche.
Si possono raggiungere
molte persone con poco
sforzo.
Vanno progettati con grande
accuratezza, in caso contrario le
risposte potrebbero risultare
poco informative. Il tasso di
risposta può essere basso.
Interviste individuali
Servono per
Vantaggi
Svantaggi
Esplorare
determinati
aspetti del
problema e
determinati punti
di vista.
L‘intervistatore può
controllare il corso
dell‘intervista, orientandola
verso quei temi sui quali
l‘intervistato è in grado di
fornire i contributi più utili.
Richiedono molto tempo. Gli
intervistati potrebbero evitare di
esprimersi con franchezza su
alcuni aspetti delicati (per
esempio che comportino critiche
verso l‘organizzazione di
appartenenza)
Servono per
Vantaggi
Svantaggi
Mettere a fuoco
un determinato
argomento, sul
quale possono
esserci diversi
punti di vista.
Fanno emergere le aree di
consenso e di conflitto.
Possono far emergere
soluzioni condivise dal
gruppo
La loro conduzione richiede
esperienza. Possono emergere
figure dominanti che
monopolizzano la conversazione
Focus group
Osservazioni sul campo
Servono per
Vantaggi
Svantaggi
Comprendere il
contesto delle
attività
dell‘utente.
Permettono di ottenere una
visione sull‘uso del prodotto
che le altre tecniche non
danno.
Possono essere molto
difficoltose da effettuare e
richiedono molto tempo e
risorse.
Suggerimenti spontanei degli utenti
Servono per
Vantaggi
Svantaggi
Comprendere il
contesto delle
attività
dell‘utente.
Hanno bassi costi di
raccolta. Possono essere
molto specifici.
Hanno normalmente carattere
episodico.
Tabella 1. Le principali tecniche utilizzate nel‘esplorazione dei requisiti
Introduzione all‘Ingegneria dell‘Usabilità
145
I contenuti del documento dei requisiti
Un documento di specifica dei requisiti dovrebbe contenere, prima
di ogni requisito specifico relativo al sistema da realizzare, una approfondita analisi dell‘utente e delle sue necessità. In particolare,
dovrebbe coprire i seguenti temi:
Analisi dell’utente: a quali categorie di utenti è destinato il prodotto? Quali sono le loro caratteristiche? Quali categorie vanno
considerate prioritariamente?
Analisi dei bisogni: quali sono le necessità di ciascuna categoria di
utenti individuata? Quali bisogni sono prioritari?
Analisi del contesto d’uso: in quali diversi contesti il prodotto verrà utilizzato da parte delle diverse categorie di utenti individuate? Quali contesti sono prioritari?
Analisi dei casi d’uso: in quali modi i vari utenti interagiranno con
il prodotto nei diversi contesti?
La nozione di caso d‘uso, richiamata nell‘ultimo punto, merita
qualche approfondimento. In termini del tutto generali, un caso
d‘uso può essere definito come un insieme di interazioni finalizzate
a uno scopo, fra l‘utente (o più utenti) e il prodotto. Esempi di casi
d‘uso, per un sito di e-commerce, potrebbero essere i seguenti:

Ricerca prodotto

Ordina prodotto

Visualizza i dati dell‘utente

Inserisci nuovo prodotto in catalogo

Modifica i dati di un prodotto
Non bisogna confondere i casi d‘uso con le funzionalità. Un caso
d‘uso descrive un‘interazione significativa dal punto di vista
dell‘utente, una funzionalità descrive invece una funzione realizzata
dal sistema. Quindi ogni caso d‘uso sarà realizzato, di solito, attraverso più funzionalità del sistema. Ancora una volta, stiamo cogliendo il cuore della differenza fra user- e system- centered design.
Così, nell‘esempio del sistema audio-video delle pagine precedenti, potremo avere i seguenti casi d‘uso:
146
Roberto Polillo

Ascolta un CD musicale

Guarda un DVD

Guarda un programma televisivo

Modifica il volume sonoro

Modifica gli attributi dello schermo (contrasto, colore, ecc.)
Figura 13. Un esempio di descrizione del caso d‘uso ―Acquista prodotto‖
Nella identificazione dei casi d‘uso durante la definizione dei requisiti ci si pone a un livello di astrazione piuttosto elevato, come negli
esempi precedenti. Sarà poi compito delle successive attività di
progettazione decomporre ogni caso d‘uso nei compiti (task) che lo
compongono, e questi nelle azioni elementari che l‘utente dovrà effettuare. È conveniente, tuttavia, inserire nei requisiti una descrizione informale di ogni caso d‘uso, per chiarirne meglio il significato a
chi progetterà il sistema. Per questo, non esistono standard consolidati; è prassi utilizzare descrizioni del tipo di quella di Figura 13, in
Introduzione all‘Ingegneria dell‘Usabilità
147
cui viene indicato lo scenario ―principale‖ delle azioni dell‘utente, e
gli eventuali scenari alternativi (per situazioni di errore, o tutte le
volte che l‘utente debba prendere una decisione).
È consigliabile aggiungere all‘elenco e alla descrizione informale dei singoli casi d‘uso un diagramma riassuntivo, che mostra tutti
i casi d‘uso del sistema e gli ―attori‖ coinvolti (Figura 14).9
Figura 14. Un esempio di diagramma dei casi d‘uso
Un‘altra attività importante nella fase di esplorazione dei requisiti è
l‘analisi dei prodotti concorrenti, cioè di quei prodotti con i quali il
nostro prodotto dovrà confrontarsi e competere. L‘analisi della concorrenza potrà essere più o meno ampia, in funzione del numero e
della complessità dei prodotti esaminati e del livello di approfondi9 Questi diagrammi fanno parte di UML (Unified Modeling Language), un lin-
guaggio visuale standardizzato che definisce numerosi tipi di diagrammi per rappresentare i diversi aspetti di un sistema. UML è oggi di uso comune nella pratica
dell‘ingegneria del software.
148
Roberto Polillo
mento dell‘esame. Per certi settori, può essere molto complessa e
costosa. Si dovrà esaminare un certo numero di prodotti, per individuarne le caratteristiche più importanti e, soprattutto, i punti di forza e di debolezza: ciò permetterà di meglio contraddistinguere il
prodotto in costruzione in rapporto ad essi e definirne, come si dice,
la sua value proposition, cioè il valore specifico e distintivo che dovrà fornire ai suoi utenti. Inoltre, questa analisi permetterà
d‘individuare le pratiche migliori adottate dai prodotti del settore,
dalle quali trarre spunti per la formulazione dei requisiti. È utile effettuare questa analisi proprio all‘inizio del progetto; infatti, durante
le interviste di raccolta dei requisiti si potranno ottenere utili commenti sulle soluzioni adottate da altri e sulla loro applicabilità nel
contesto corrente.
Figura 15. Una possibile struttura del documento dei requisiti
Una possibile struttura del documento di specifica dei requisiti è
indicata in Figura 15, che riassume quanto detto finora. Gli ―Scenari d‘uso tipici‖ indicati nella sezione ―Generalità‖ verranno descritti
nelle pagine seguenti.
Introduzione all‘Ingegneria dell‘Usabilità
149
Requisiti impliciti e scenari d’uso
Una tecnica molto utile per aiutarci ad immaginare un nuovo prodotto, e a individuarne correttamente i requisiti, è quella
d‘ipotizzarne dei possibili scenari d’uso. Uno scenario d‘uso è una
narrazione, in linguaggio comune, di una possibile storia dell‘uso
del sistema da parte di uno specifico utente. L‘esempio che segue
riporta un possibile scenario d‘uso del sito web di un cinema multisala.
Marco è un ragazzo di 19 anni, studente universitario. È appassionato di cinema, anche se le sue possibilità economiche sono molto limitate. Sceglie i film da vedere con molta cura e preferisce vederli dalle
prime file. Però gli capita spesso che il posto gli sia assegnato
d‘autorità dal computer della biglietteria, senza possibilità di scelta.
Questo succede anche nel multisala vicino a casa sua. Per questo motivo, quando ha saputo che il cinema ha un nuovo sito Internet che
permette, agli utenti registrati, di scegliere personalmente il posto, si
è subito registrato. Ora, quando vuole andare al cinema, Marco si
collega al sito e procede velocemente con l‘operazione di prenotazione che è accessibile direttamente dalla home page. Inserisce nome
utente e password e il sistema autorizza l‘operazione fornendo come
risposta le diverse opzioni di scelta. Marco ora può scegliere tra i titoli dei film in programmazione, il giorno della settimana e l‘ora. A
questo punto gli viene presentata la mappa della sala cinematografica, nella quale sono indicati i posti liberi (in verde) e quelli già prenotati (in rosso). Marco finalmente può scegliere il posto che preferisce facendo clic sulla figura e, dopo averlo confermato, avrà un resoconto dell‘operazione, che gli sarà anche inviato con un messaggio
di posta elettronica. La sera, almeno 15 minuti prima dell‘inizio della
proiezione, Marco si presenta alle casse del multisala con un documento d‘identità. La cassiera procede a stampare i biglietti prenotati,
che Marco paga. A questo punto Marco potrà accomodarsi nella sala
cinematografica e vedere comodamente la proiezione del film direttamente dalla poltrona prescelta.
L‘impiego degli scenari d‘uso è molto utile nella progettazione di
un prodotto. Durante la definizione dei requisiti, serve principalmente come mezzo di comunicazione con i diversi stakeholder e, in
seguito, con i progettisti e gli sviluppatori. La ideazione di storie
d‘uso tipiche e concrete è, infatti, un modo molto efficace per fare
emergere le ipotesi inespresse che, inevitabilmente, ciascuno fa sul
150
Roberto Polillo
prodotto in esame e sul suo utilizzo. Ognuno di noi, infatti, tende ad
assumere dei ―sistemi di riferimento‖ che considera ovvi e che
quindi non ritiene necessario esplicitare o spiegare. Il problema nasce dal fatto che i sistemi di riferimento dei nostri interlocutori non
sono necessariamente identici ai nostri: così possono nascere fraintendimenti ed equivoci che, nella progettazione di un prodotto
complesso, possono essere molto dannosi. Equivoci nella fase di
definizione dei requisiti produrranno un prodotto con caratteristiche
diverse da quelle desiderate: è bene che emergano e siano chiariti al
più presto. Gli scenari d‘uso sono uno strumento molto efficace per
questo scopo.
Inoltre, quando progettiamo un prodotto, siamo portati inevitabilmente a considerare noi stessi come utenti tipici: tendiamo quindi
a modellare il prodotto sui nostri bisogni, abitudini e preferenze.
Questo è sbagliato, perché gli utenti ―veri‖ del prodotto avranno
normalmente bisogni, abitudini e preferenze diverse. D‘altro canto,
è molto facile cadere in questa trappola: scrivere uno scenario vissuto da personaggi dotati di una loro specifica identità, ci aiuta a
considerare un prodotto in modo più oggettivo. Pertanto, è molto
importante che i protagonisti di uno scenario siano persone concrete, anche se fittizie, dotate di una precisa identità. In caso contrario,
se pensiamo agli utenti come semplici ―ruoli‖ astratti (per esempio,
―studente universitario‖), il rischio di mancare di concretezza e di
perdere di vista le esigenze degli utenti reali è molto alto. Ai personaggi degli scenari d‘uso si dà spesso il nome di personae. La Figura 16mostra un esempio di alcune personae rappresentate su supporti di cartone. Queste rappresentazioni, tenute sulle scrivanie dei
progettisti, contribuiscono a ricordare costantemente a chi il progetto è destinato.
Introduzione all‘Ingegneria dell‘Usabilità
151
Figura 16. Mock-up di cartone rappresentanti i personaggi di uno scenario
Come si vede nell‘esempio del cinema, è opportuno che, nella formulazione di uno scenario d‘uso, venga riportata una storia completa, che non si limiti, quindi, alla pura interazione con il sistema, ma
che ne consideri il contesto complessivo. Così, la storia di Marco ce
ne descrive la motivazione principale (la possibilità di scegliere il
posto al cinema) e ci mostra le azioni compiute da Marco dopo aver
completato la transazione al computer. Tutto questo aiuta il redattore dei requisiti a non trascurare aspetti importanti e a porre la giusta
enfasi sugli aspetti chiave. Anche i progettisti ricaveranno utili informazioni dall‘esame degli scenari d‘uso. Per esempio, chi, successivamente, progetterà il sistema, comprenderà meglio il motivo
per cui le funzioni per la selezione del posto debbano risultare particolarmente flessibili ed usabili.
Naturalmente, la storia deve ―mettere in scena‖ situazioni tipiche. Per esempio, lo scenario appena visto potrebbe essere giustificato da una indagine presso gli spettatori che abbia mostrato che la
scelta del posto al cinema è importante per un numero rilevante di
persone. Durante le interviste, si potrà chiedere agli intervistati
152
Roberto Polillo
d‘immaginare gli scenari d‘uso che ritengono più tipici.
Dall‘approfondimento di questi scenari potranno emergere requisiti
che altrimenti sarebbero trascurati. A volte, intervistato e intervistatore discuteranno scenari alternativi. Si potranno chiedere, per esempio, se l‘affollamento del sabato sera nel cinema multisala possa creare delle difficoltà nel ritiro dei biglietti prenotati, e come si
possano evitare code. Queste analisi, che a volte, come in questo
caso, non coinvolgono direttamente le funzioni del prodotto, potrebbero suggerire soluzioni alternative più convenienti.
Gli scenari d‘uso possono essere molti utili, ma scegliere quelli
realmente significativi non è facile. Il rischio maggiore è quello di
introdurre dettagli o situazioni poco rilevanti per la comprensione
dei requisiti del prodotto.
4. Prototipi
Che cos’è un prototipo
Il termine deriva dal greco prototipos, che potremmo tradurre con
―primo modello‖ (da proto, primo e tipos, modello). Seguendo il
già citato standard ISO 13407, possiamo definire, infatti, un prototipo come:
una rappresentazione di un prodotto o di un sistema, o di una sua
parte, che, anche se in qualche modo limitata, possa essere utilizzata
a scopo di valutazione.
Questa definizione è molto ampia, e comprende oggetti di natura e
di complessità molto diverse. Così, un prototipo non deve necessariamente essere un sistema funzionante, spesso può essere utile anche un semplice modello ―finto‖ (mock-up). Per esempio,
l‘inventore del Palm Pilot, il primo organizer di successo, inizialmente tenne con sé un modellino in legno dello strumento, ovviamente non funzionante, fingendo di tanto in tanto di inserirvi o di
leggervi delle informazioni. Questo per meglio comprendere
l‘esperienza di portare sempre con sé un oggetto di questo tipo.
Un altro esempio, di natura molto diversa, è il prototipo del
Knowledge Navigator, realizzato mediante un video dalla Apple nel
1987. Esso mostrava un possibile scenario d‘uso di un personal
Introduzione all‘Ingegneria dell‘Usabilità
153
computer del futuro (più precisamente, secondo le indicazioni della
Apple, del 2010) basato sul concetto di agente. Nel video, un professore universitario interagiva a voce con un aiutante sintetico,
rappresentato sul video in modo antropomorfo, per raccogliere i dati necessari per la stesura di un articolo scientifico, facendosi aiutare
da una collega lontana, attraverso una rete.
Tipi di prototipi
Un prototipo è, dunque, un modello approssimato o parziale del sistema che vogliamo sviluppare, realizzato allo scopo di valutarne
determinate caratteristiche. Queste possono essere molto varie: definire lo scopo di un prototipo è l‘arte di identificare i problemi di
progettazione più critici. Ci si dovrebbe concentrare su quegli aspetti per i quali esistono più soluzioni possibili, dove i pro e i contro si bilanciano, oppure i rischi conseguenti a una cattiva progettazione siano più elevati. Poiché i gruppi di progetto per i sistemi interattivi sono spesso multidisciplinari, e coinvolgono persone con
professionalità e priorità diverse, spesso anche il termine stesso di
prototipo viene usato in modo non univoco. Per esempio, un programmatore di software potrebbe chiamare prototipo il codice di un
nuovo algoritmo di cui valutare le prestazioni, mentre il designer
della carrozzeria di una nuova automobile chiamerà prototipo un
modello dell‘auto in grandezza naturale, fatto in legno. Ciò che realmente importa nella preparazione di un prototipo, in ultima analisi, è il suo scopo.
La Tabella 2 mostra una possibile classificazione dei prototipi,
sulla base del loro scopo, delle loro modalità d’uso, della loro fedeltà, completezza funzionale e della durata della loro vita.
Dal punto di vista del loro scopo, possiamo classificare i prototipi in tre grandi categorie (Houde & Hill, 1997)10:

prototipi che servono a valutare il ruolo del prodotto nella vita
del suo utente (role prototype)
10 Disponibile online all‘indirizzo
http://www.viktoria.se/fal/kurser/winograd-2004/Prototypes.pdf (marzo 2008)
154
Roberto Polillo

prototipi che servono a valutare l‘interfaccia del prodotto, intesa in termini generali, come l‘insieme delle modalità di interazione fra utente e prodotto (look&feel prototype)

prototipi che servono a valutare aspetti tecnici relativi alla implementazione del prodotto (implementation prototype).
Scopo
Modi d’uso
Fedeltà
Completezza
funzionale
Durata
Tipo di
prototipo
Caratteristiche
Ruolo
Serve a valutare il ruolo del prodotto nella vita
del suo utente
Look & feel
Serve a valutare le modalità di interazione fra
utente e prodotto
Implementazione
Serve a valutare aspetti tecnici relativi alla
implementazione del prodotto
Statico
È una rappresentazioni statica del prodotto (es.
story board, diagrammi di vario tipo)
Dinamico
È una rappresentazione dinamica (ma non
interattiva) del prodotto, es.: video
Interattivo
Permette agli utenti di effettuare prove d‘uso
del prodotto, anche se semplificate e
approssimate
Alta fedeltà
―assomiglia‖ in tutti gli aspetti al prodotto finale
Bassa fedeltà
―assomiglia‖ alla lontana al prodotto finale
Orizzontale
Fornisce tutte le funzioni del prodotto finale,
anche se in versione limitata
Verticale
Fornisce solo alcune funzioni, realizzate in
dettaglio
Usa e getta
Non viene conservato dopo l‘uso
Evolutivo
Realizzato con la tecnologia finale del prodotto,
viene fatto evolvere fino al prodotto finale
Tabella 2. Classificazione dei prototipi
Questa distinzione raramente può essere netta, poiché spesso un
prototipo presenterà contemporaneamente più aspetti. Ruolo,
look&feel e implementazione possono quindi essere considerati
come le tre dimensioni dello ―spazio‖ nel quale possiamo collocare
ogni prototipo, e non come tre classi separate (Figura 17). Per esempio, il Knowledge Navigator di cui si è parlato più sopra può
Introduzione all‘Ingegneria dell‘Usabilità
155
considerarsi essenzialmente un prototipo di ruolo, con qualche aspetto, sia pure non approfondito, di look&feel, ma senza alcun aspetto implementativo. Pertanto, in figura, dovrebbe essere collocato nell‘area P.
Figura 17. Lo ―spazio‖ dei prototipi in relazione al loro scopo
Un‘altra possibile classificazione dei prototipi è relativa alla loro
modalità d’uso: un prototipo può essere allora statico, dinamico o
interattivo. Nel primo caso, come nell‘esempio del Palm Pilot, consisterà semplicemente in una rappresentazione statica del prodotto:
una serie di immagini, un modello tridimensionale, oppure anche
una rappresentazione che permette di valutare, per così dire, ―a tavolino‖ il funzionamento dinamico del prodotto, come nel caso di
un flow-chart o di uno story-board. Nel secondo caso, il funzionamento dinamico del prodotto potrà essere mostrato mediante un video, come nell‘esempio del Knowledge Navigator. Tuttavia, è evidente che i prototipi più utili per convalidare la usabilità di un sistema saranno di solito quelli interattivi, che consentono ai potenziali utilizzatori di interagire con il sistema in corso di progettazio-
156
Roberto Polillo
ne, per sperimentarne l‘uso (anche se in modo parziale o limitato) e
individuarne, così, pregi e difetti. Un prototipo interattivo aiuta a
chiarire i requisiti di progetto, che spesso sono espressi in forma
vaga. Permette di osservare le reazioni dell‘utente nell‘uso del sistema e di sperimentare soluzioni alternative, rapidamente e, in
molti casi, a costi contenuti.
Nella pratica corrente, a volte ci si accontenta di realizzare prototipi dinamici, consistenti in una semplice sequenza di immagini
(per esempio, una serie di slide PowerPoint), che il progettista mostra all‘utente in sequenza, simulando scenari d‘uso tipici. Questo
approccio, in realtà, non permette di valutare la usabilità di un sistema, e non dovrebbe mai sostituire la interazione vera. Quando il
progettista ci spiega, nella simulazione, come interagiremo con il
sistema, mostrandocene via via l‘evoluzione delle schermate, segue
un canovaccio già predisposto, che lui conosce bene. Ci presenta
un‘interazione ideale, preconfezionata, che non ci permette di prefigurare le difficoltà che avremo nell‘uso reale, quando saremo soli
con il prodotto e dovremo decidere quali azioni compiere, sulla base delle indicazioni disponibili ad ogni istante. Saranno sufficienti
queste indicazioni per suggerirci, ogni volta, il comportamento più
corretto? Saremo in grado di correggere con facilità eventuali azioni
sbagliate? È molto difficile poter valutare l‘usabilità di un sistema
soltanto analizzando una sequenza di immagini statiche, oppure assistendo ad una simulazione condotta da altri. L‘esperienza d‘uso,
del ―metterci le mani sopra‖ non può essere rimpiazzata dalla sua
semplice narrazione.
Non sempre è possibile – o conveniente – realizzare un prototipo
interattivo: le funzioni del sistema potrebbero essere così complicate da renderne molto complessa la realizzazione, per quanto parziale o semplificata. In questi casi, per non rinunciare alla interattività,
si può ricorrere alla cosiddetta tecnica del mago di Oz11. Essa con-
11 Il nome deriva da Wonderful Wizard of Oz (1900), un celebre romanzo per ragazzi dello scrittore statunitense L. Frank Baum (1856-1919). È la storia di Dorothy, una bambina che viene trasportata da un ciclone, con tutta la sua casa, dal
Kansas nel regno di Oz. Per tornare nel Kansas, Dorothy dovrà compiere una serie
di imprese assegnatele da un mago che controlla il regno. Alla fine, si scoprirà che
il mago di Oz non è altro che un vecchietto senza poteri, che si nasconde dietro un
Introduzione all‘Ingegneria dell‘Usabilità
157
siste nel realizzare un prototipo interattivo, in cui però le risposte –
o parte di esse – siano fornite, se possibile all‘insaputa dell‘utente,
da parte di un essere umano che operi, per così dire, ―dietro le quinte‖ come, appunto, il mago di Oz della favola.
Per esempio, nel prototipo di un sistema di query, l‘utente potrebbe formulare una interrogazione, e un esperto nascosto (il mago
di Oz) potrebbe riscrivere la interrogazione in una forma normalizzata e presentarla all‘utente per la sua approvazione, e quindi fornire, simulando l‘accesso a una base dati ancora inesistente, la risposta desiderata. Ancora, la tecnica potrebbe essere convenientemente
utilizzata nel test di interfacce basate sul linguaggio naturale, per
esempio per raccogliere indicazioni sui costrutti linguistici preferiti
dagli utenti. Altri sistemi che si prestano bene all‘uso di questa tecnica per la convalida di prototipi intermedi sono i risponditori automatici dei call center, o i cosiddetti sistemi IVR (interactive voice
response systems), in cui l‘utente effettua, a voce, delle richieste di
informazioni e il sistema (nel nostro caso, il mago di Oz) fornisce
risposte vocali a partire da script predisposti (informazioni su orari
di treni o aerei, sistemi di prenotazione, richieste di previsioni metereologi che, ecc.).
L‘impiego di queste tecniche non è banale, come potrebbe sembrare a prima vista. I compiti del mago, apparentemente semplici, si
rivelano spesso cognitivamente impegnativi. Affinché il prototipo
risulti realistico, le risposte del mago devono essere consistenti, per
quanto riguarda i contenuti e, soprattutto, i tempi di reazione. In
particolare: situazioni simili devono provocare le stesse risposte e le
risposte devono essere conformi alle aspettative dell‘utente. Per esempio, se il mago fosse troppo lento nel rispondere, l‘utente potrebbe pensare di avere fornito una richiesta scorretta, o che il sistema è sovraccarico, o che si trova in uno stato di errore. In sostanza, il mago non può essere un improvvisatore: deve essere ben preparato ed avere a disposizione una serie completa di supporti pronti
all‘uso (diagrammi di flusso, schemi di risposte, e così via). Per
semplificare questi compiti può essere opportuno, in molti casi, che
paravento per simulare le sue magie. Il primo a proporre questa tecnica, e a darle il
nome, è stato John F. Kelley, nella sua tesi (circa 1980).
158
Roberto Polillo
il ruolo del mago sia sostenuto da più di una persona: per esempio,
una persona dedicata alla simulazione dell‘input/output, e un‘altra
persona dedicata alla simulazione delle operazioni di elaborazione
delle risposte.
Come indicato nella Tabella 2, quale che sia la loro finalità e il
loro livello di interattività, i prototipi possono essere ulteriormente
classificati in base alla loro fedeltà al prodotto finale, alla loro completezza e alla loro durata:
Fedeltà al prodotto finale. I prototipi che ―assomigliano‖ in tutti
gli aspetti al sistema finale si dicono ad alta fedeltà (hi-fi prototype). Quelli che gli assomigliano poco, a bassa fedeltà (lo-fi
prototype). Questi ultimi possono essere realizzati, per esempio, con carta, cartone o legno, come il prototipo del Palm Pilot
sopra citato. I prototipi a bassa fedeltà sono normalmente oggetti semplici, economici e molto facili da realizzare, ma non
per questo meno utili, come vedremo fra breve.
Completezza funzionale. Questa distinzione riguarda l‘ampiezza e
la profondità delle funzioni realizzate dal prototipo. Un prototipo orizzontale fornisce uno spettro ampio di funzionalità, ma
realizzate con poco dettaglio. Un prototipo verticale, al contrario, realizza compiutamente un insieme limitato di funzionalità.
Con un prototipo orizzontale, se interattivo, si può provare
l‘intera interfaccia, anche se, ovviamente, in modo molto limitato. Infatti, l‘utente non potrà utilizzare nessuna funzionalità
per intero: di ogni funzionalità esisterà, per così dire, solo
l‘involucro esterno. Fornirà, quindi, una immagine completa
delle caratteristiche del prodotto, ma nessuna di esse sarà realizzata nei dettagli.
Durata. Un‘altra importante distinzione riguarda la durata della vita del prototipo. Se il prototipo, dopo la sperimentazione, non
viene conservato, esso si dice usa e getta (throw-away prototype). Se, invece, viene conservato e viene fatto evolvere o comunque integrato nel prodotto finale, si dice prototipo evolutivo. Normalmente, i prototipi a bassa fedeltà sono di tipo usa e
getta: il modello di legno del Palm Pilot del nostro esempio
non evolverà certamente nel prodotto finale dopo essere stato
utilizzato. I prototipi ad alta fedeltà, di realizzazione normal-
Introduzione all‘Ingegneria dell‘Usabilità
159
mente più costosa, vengono più di frequente fatti evolvere nel
prodotto finale.
In definitiva, nella realizzazione dei prototipi molte scelte sono possibili. Fare prototipi significa individuare di volta in volta degli obiettivi prioritari, e individuare le modalità più utili per raggiungerli, costruendo un modello parziale del nostro prodotto ed effettuandone, in qualche modo, una valutazione. Concentrando la nostra attenzione su specifici aspetti del sistema in corso di progettazione,
ne trascureremo necessariamente degli altri. In definitiva, significa
fare dei compromessi. In un processo di progettazione ben condotto, i diversi prototipi ci permetteranno di valutare, via via, aspetti
diversi e complementari del nostro sistema.
Nonostante quest‘ampio ventaglio di possibilità, nella pratica
della progettazione centrata sull‘utente è utile considerare, in primo
luogo, quei prototipi che permettono di valutare il prodotto in fase
di progettazione in rapporto con il suo utente, o con i suoi utenti.
Quindi, facendo ancora una volta riferimento alla tabella, i prototipi
di ruolo e di look&feel, e in particolare i prototipi interattivi, a bassa o ad alta fedeltà. Particolarmente importanti, in un processo di
sviluppo iterativo, sono in particolare i prototipi costruiti nelle prime fasi del progetto (detti prototipi iniziali), descritti qui di seguito.
I prototipi iniziali
L‘importanza dei prototipi iniziali deriva dal fatto che, nelle prime
fasi del progetto, molte strade sono, per così dire, ancora aperte, ed
è in genere utile esplorare più di una soluzione possibile, prima di
effettuare la scelta della soluzione che sarà sviluppata nei dettagli. I
prototipi iniziali servono proprio a questo. Essi saranno quindi quasi sempre di tipo usa e getta, ed è opportuno che si possano realizzare molto velocemente, e a costi molto contenuti. I progettisti potranno così sperimentare e valutare anche numerose soluzioni alternative. Particolarmente utili a questo scopo sono i prototipi di carta
(paper prototype) e i prototipi realizzati con strumenti ipertestuali.
I prototipi di carta
In questi prototipi, l‘interfaccia utente viene disegnata a bassa fedeltà su fogli di carta, o cartoncini, che vengono usati per effettuare
160
Roberto Polillo
una simulazione ―manuale‖ del sistema, con utenti-cavia. Per esempio, la Figura 18mostra alcuni cartoncini utilizzati per la simulazione, su carta, di un‘applicazione destinata a un palmare. Ogni
cartoncino rappresenta sommariamente una singola schermata del
palmare. Durante la simulazione, il progettista presenta all‘utente la
prima schermata, e l‘utente interagisce con essa simulando
l‘interazione (per esempio, ―premendo‖ col dito la rappresentazione
di un bottone, o fingendo di compilare un campo di input, e così via). Il progettista risponderà, in funzione delle azioni dell‘utente,
presentando la schermata successiva, e così via. Le reazioni e le difficoltà dell‘utente vengono esaminate e commentate, dopo di che
l‘interfaccia si corregge, sempre sulla carta, e si riprova.
Figura 18. Prototipo di carta
La semplicità della tecnica non deve ingannare: i prototipi di carta
sono estremamente utili, perché presentano numerosi vantaggi:

possono essere realizzati rapidamente e a costi molto contenuti

permettono di provare l‘interazione in modo semplice

le modifiche al prototipo possono essere effettuate rapidamente
(anche se, essendo fatte a mano, a volte sono piuttosto laboriose); ciò permette di provare con gli utenti diverse varianti del
progetto base.
Introduzione all‘Ingegneria dell‘Usabilità
161
D‘altra parte:

l‘interazione è lenta e quindi innaturale, perché le risposte del
sistema sono simulate a mano dal progettista che funge, anche
se non è nascosto all‘utente, da ―mago di Oz‖, con tutte le difficoltà che abbiamo discusso più sopra

la fedeltà grafica al prodotto finale è molto bassa: infatti, in
questa fase non vale la pena spendere troppi sforzi per rappresentare il sistema in modo preciso e dettagliato.
I prototipi ipertestuali
Un‘altra tecnica molto utilizzata per costruire prototipi iniziali fa
uso di strumenti per la costruzione di ipertesti. In questo caso, il
prototipo è costituito da una serie di immagini (snapshot) che rappresentano le schermate del prodotto in corso di progettazione. Le
varie snapshot sono legate fra loro da link ipertestuali, cliccando i
quali l‘utente passa da una snapshot all‘altra, ―navigando‖ fra una
snapshot e l‘altra e simulando così l‘interazione con il prodotto in
corso di progettazione. Le attività di test, in questo caso, non richiedono la presenza di un mago di Oz. L‘interazione è così più
realistica e più fluida.
I prototipi ipertestuali possono essere realizzati facilmente, a costi molto limitati, con vari strumenti. Fra gli strumenti più utilizzati
a questo scopo vi sono i prodotti per la costruzione di slide per presentazioni, che normalmente permettono di legare fra loro le varie
slide con link ipertestuali (per es. PowerPoint della Microsoft). In
questo caso:

ogni schermata del prodotto viene rappresentata su una slide

su ogni schermata vengono realizzate aree cliccabili di forma
opportuna (aree sensibili, pulsanti, ecc.), con link ad altre slide

cliccando sulle aree cliccabili, l‘utente ―naviga‖ nell‘ipertesto,
simulando l‘interazione con il prodotto.
I vantaggi di questo approccio sono evidenti:

i prototipi sono facili da realizzare e da modificare

la navigazione non richiede un mago di Oz
162

Roberto Polillo
la grafica del prodotto finale può essere simulata con un significativo livello di dettaglio.
Esistono tuttavia anche degli svantaggi. In primo luogo, questi prototipi possono supportare interazioni semplici, esclusivamente di
tipo point & click. Interazioni più complesse (come, per esempio, la
compilazione di campi di input, l‘utilizzo di menu a tendina, ecc.)
non sono realizzabili a costi ragionevoli, e dovranno quindi essere
realizzate in modo approssimativo, o addirittura immaginate. Inoltre, ci sono dei limiti pratici alla complessità degli ipertesti realizzabili, superati i quali il prototipo diventa poco gestibile da chi lo
sviluppa. Per esempio, l‘esperienza di uso di PowerPoint per la costruzione di prototipi navigabili, effettuata in numerosi progetti didattici da chi scrive, suggerisce che la ―soglia di in gestibilità‖ dei
prototipi costruiti in questo modo si colloca intorno alle 100-150
slide. Per prototipi più complessi è allora conveniente spezzare
l‘ipertesto in più ipertesti separati, ciascuno dei quali permette di
simulare specifici aspetti del sistema.
Altri strumenti per la costruzione di ipertesti sono i generatori di
pagine HTML come, per esempio, Dreamweaver della Adobe o
FrontPage della Microsoft. Questi strumenti sono particolarmente
adatti per la realizzazione di prototipi iniziali di siti web, indipendentemente dalla tecnologia utilizzata per la realizzazione del sito
finale. Sono invece sconsigliabili per la prototipazione di altri tipi di
applicazioni, in quanto gli aspetti grafici sono poco controllabili (a
costi limitati) e il loro forte orientamento alla costruzione di siti
web tende a influenzare le scelte di progetto (c‘è il rischio che il
prototipo tenda ad assomigliare a un sito, indipendentemente dalla
sua natura).
È bene, in ogni caso, evitare di utilizzare strumenti di prototipazione che creino difficoltà tecniche nella realizzazione (il progettista deve concentrare gli sforzi sulla realizzazione del prototipo e
non a risolvere problemi tecnici posti dallo strumento!) e che possano influenzare, con le loro peculiarità, le scelte di progetto per il
sistema prototipato (―questo non riesco a farlo, quindi cambio il
progetto‖).
Una soluzione spesso molto valida è costituita dall‘accoppiata
prototipo di carta / prototipo PowerPoint. Inizialmente si costruisce
Introduzione all‘Ingegneria dell‘Usabilità
163
e si sperimenta un prototipo di carta a bassa fedeltà. Quando la soluzione è abbastanza consolidata, la si realizza nuovamente ad alta
fedeltà in un prototipo PowerPoint navigabile, e si effettuano nuove
prove con gli utenti (Figura 19).
Figura 19. Dal prototipo di carta (a sinistra) al prototipo PowerPoint (a destra)
5. Valutazioni
Verifiche e convalide
Nel modello di progettazione e sviluppo per prototipi successivi descritto in Figura 9, ad ogni ciclo di iterazione si effettuano dei test
del prototipo fino a quel momento prodotto. Il termine generico
―test‖ richiede ulteriori spiegazioni, perché può denotare due tipi di
controlli molto diversi:

il controllo che il prodotto sia congruente con quanto specificato nei requisiti. Per questo tipo di controllo si usa normalmente
il termine verifica (in inglese, verification)
164

Roberto Polillo
il controllo che il prodotto soddisfi effettivamente le esigenze
per le quali è stato concepito. Per questo tipo di controllo si usa, invece, il termine di convalida (in inglese, validation).
Si comprende facilmente come le attività di convalida siano molto
più difficili e critiche delle attività di verifica. Non si tratta, infatti,
di controllare la congruenza e, per così dire, la tracciabilità, fra le
caratteristiche del prodotto e le indicazioni contenute nel documento dei requisiti, ma di controllare che il prototipo costruito soddisfi
le esigenze (espresse o, a volte, ancora inespresse) dell‘utente e del
committente. È, come dicono gli anglosassoni, la differenza fra ―to
make the thing right‖ (verifica) e ―to make the right thing‖ (convalida). Pertanto, la convalida non può essere condotta soltanto dai
progettisti (come, spesso, avviene per le attività di verifica) ma richiede necessariamente il coinvolgimento dell‘utente (e degli altri
stakeholder del prodotto).
Trascurando, in questa sede, le attività di verifica, consideriamo
nel seguito le sole attività di convalida. Fra queste, particolare importanza hanno le valutazioni della usabilità del prodotto. Per effettuare tali valutazioni possono essere impiegate svariate tecniche, fra
le quali quelle più diffuse rientrano in due grandi categorie:

valutazioni effettuate da parte di esperti di usabilità, senza alcun coinvolgimento da parte dell‘utente. Queste valutazioni
prendono collettivamente il nome di ispezioni (inspections). Le
più note sono le cosiddette valutazioni euristiche (euristic evaluations)

valutazioni effettuate con il coinvolgimento dell‘utente. Sono
le più importanti e le più utilizzate. In particolare, nel seguito
verranno descritti i test di usabilità (usability test).
Valutazioni euristiche
L‘aggettivo euristico si usa, in matematica, per denotare un procedimento non rigoroso che consente di prevedere o rendere plausibile un determinato risultato, il quale in un secondo tempo dovrà essere controllato e convalidato con metodi rigorosi. Nell‘ingegneria
dell‘usabilità, si dicono euristiche quelle valutazioni di usabilità effettuate da esperti che analizzano sistematicamente, in modo più o
Introduzione all‘Ingegneria dell‘Usabilità
165
meno dettagliato, il comportamento di un dato sistema, verificandone la conformità a specifiche ―regole d‘oro‖ (chiamate, appunto,
euristiche), correlate a principi o linee guida generalmente accettati.
Le euristiche che possono essere impiegate sono diverse. In letteratura si trovano linee guida costituite anche da molte centinaia di
regole, molto dettagliate. È evidente che valutare un sistema sulla
base di una tale quantità di regole risulta del tutto impraticabile. Si
preferisce quindi, più spesso, utilizzare euristiche costituite da pochi principi guida molto generali. Per esempio, sono molto note le
euristiche di Nielsen, costituite da dieci regole d‘oro che, sebbene
molto generali, permettono al valutatore di inquadrare i problemi
rilevati in categorie bene individuate12.
Le dieci euristiche di Nielsen, spiegate con le sue stesse parole,
sono le seguenti:
Visibilità dello stato del sistema. Il sistema dovrebbe sempre informare gli utenti su ciò che sta accadendo, mediante feedback
appropriati in un tempo ragionevole.
Corrispondenza fra il mondo reale e il sistema. Il sistema dovrebbe parlare il linguaggio dell‘utente, con parole, frasi e concetti familiari all‘utente, piuttosto che termini orientati al sistema. Seguire le convenzioni del mondo reale, facendo apparire le informazioni secondo un ordine logico e naturale.
Libertà e controllo da parte degli utenti. Gli utenti spesso selezionano delle funzioni del sistema per errore e hanno bisogno
di una ―uscita di emergenza‖ segnalata con chiarezza per uscire
da uno stato non desiderato senza dover passare attraverso un
lungo dialogo. Supportare funzioni di undo e redo.
Consistenza e standard. Gli utenti non dovrebbero aver bisogno di
chiedersi se parole, situazioni o azioni differenti hanno lo stes-
12 Jakob Nielsen è l‘autore di uno dei primi – e più noti - libri di ingegneria
della usabilità (Nielsen, 1993). Le euristiche che prendono il suo nome sono
state presentate per la prima volta in questo libro.
166
Roberto Polillo
so significato. Seguire le convenzioni della piattaforma di calcolo utilizzata.
Prevenzione degli errori. Ancora meglio di buoni messaggi di errore è una attenta progettazione che eviti innanzitutto
l‘insorgere del problema. Eliminare le situazioni suscettibili di
provocare errori da parte dell‘utente, e presentare all‘utente
delle richieste di conferma prima di eseguire le azioni richieste.
Riconoscere piuttosto che ricordare. Minimizzare il ricorso alla
memoria dell‘utente, rendendo visibili gli oggetti, le azioni e le
opzioni. L‘utente non dovrebbe aver bisogno di ricordare delle
informazioni, nel passare da una fase del dialogo a un‘altra. Le
istruzioni per l‘uso del sistema dovrebbero essere visibili o facilmente recuperabili quando servono.
Flessibilità ed efficienza d’uso. Acceleratori – invisibili all‘utente
novizio – possono spesso rendere veloce l‘interazione
dell‘utente esperto, in modo che il sistema possa soddisfare sia
l‘utente esperto che quello inesperto. Permettere all‘utente di
personalizzare le azioni frequenti.
Design minimalista ed estetico. I dialoghi non dovrebbero contenere informazioni irrilevanti o necessarie di rado. Ogni informazione aggiuntiva in un dialogo compete con le unità di informazione rilevanti e diminuisce la loro visibilità relativa.
Aiutare gli utenti a riconoscere gli errori, diagnosticarli e correggerli. I messaggi di errore dovrebbero essere espressi in
linguaggio semplice (senza codici), indicare il problema con
precisione e suggerire una soluzione in modo costruttivo.
Guida e documentazione. Anche se è preferibile che il sistema sia
utilizzabile senza documentazione, può essere necessario fornire aiuto e documentazione. Ogni tale informazione dovrebbe
essere facilmente raggiungibile, focalizzata sul compito
dell‘utente, e dovrebbe elencare i passi concreti da effettuare,
senza essere troppo ampia.
Questa tecnica di valutazione ha il vantaggio di essere relativamente poco costosa (si parla, infatti, di usabilità scontata, discount usability). Tuttavia fornisce inevitabilmente risultati molto soggettivi.
Introduzione all‘Ingegneria dell‘Usabilità
167
Quanto più le euristiche sono generali, tanto più il risultato della valutazione dipenderà dall‘esperienza, dalla sensibilità e, spesso, dalle
personali opinioni del valutatore. In effetti, le esperienze condotte
in molti progetti hanno mostrato che valutatori diversi tendono a
trovare problemi diversi. Pertanto è possibile migliorare l‘efficacia
del metodo impiegando più valutatori sulla stesso progetto, che valutino separatamente il sistema senza comunicare fra di loro. È anche evidente che i risultati saranno tanto più affidabili quanto più i
valutatori saranno esperti nella particolare tipologia di sistemi in esame.
Test di usabilità
Un test di usabilità consiste nel far eseguire a degli utenti campione
(scelti in modo da essere rappresentativi della categoria di utenti cui
il sistema si rivolge), compiti tipici in un ambiente controllato. Chi
conduce il test osserva i comportamenti di questi utenti, annota
quelli più significativi e le difficoltà incontrate (Figura 20). Successivamente, analizza questi appunti per comprendere se, dove e perché gli utenti hanno incontrato delle difficoltà.
Figura 20. Test di usabilità
168
Roberto Polillo
Un test di usabilità deve permettere a chi lo conduce di trarre concrete indicazioni per il miglioramento del sistema. Egli dovrà esaminare in dettaglio le operazioni svolte dagli utenti per capire dove
nascono le difficoltà, da che cosa sono causate e in quale modo possono essere rimosse. Per questo, è molto utile la cosiddetta tecnica
del ―pensare ad alta voce― (think aloud), che consiste nel chiedere
all‘utente di esprimere ad alta voce ciò che pensa mentre compie le
varie operazioni13.
L‘analisi del comportamento degli utenti non può essere condotta in tempo reale durante lo svolgimento del test, ma deve essere
effettuata dopo, con la necessaria tranquillità. A questo scopo, se
possibile, si effettua una registrazione della sessione di test, per poterla analizzare successivamente dedicando a tale operazione il
tempo necessario. La tecnica più completa consiste nel riprendere
con una telecamera il viso dell‘utente mentre effettua il test, e ciò
che appare sul suo video. Non occorrono apparecchiature costose e
locali appositamente attrezzati. Si può fare, semplicemente, utilizzando una webcam per la ripresa dell‘utente e un programma che
permette di registrare ciò che appare sul video. Quindi si mixano le
due registrazioni, in modo che le due immagini appaiano sovrapposte e sincronizzate. In tal modo, chi effettua il test potrà esaminare
in dettaglio, praticamente alla moviola, le azioni effettuate
dall‘utente sul video e metterle in corrispondenza con le espressioni
facciali e le parole pronunciate.
Possiamo suddividere i test di usabilità in due grandi categorie: i
test di compito e i test di scenario.
Nei test di compito, viene chiesto agli utenti di svolgere compiti
specifici, che permettano di esercitare funzioni specifiche del sistema. Per esempio, nel caso di un sito web di e-commerce: registrarsi,
ricercare un determinato prodotto nel catalogo, acquistarlo, e così
via. Nei test di scenario, invece, agli utenti viene indicato un obiettivo da raggiungere attraverso una serie di compiti elementari, senza indicarli esplicitamente. L‘utente dovrà quindi impostare una
propria strategia di azione. Per un test più realistico, all‘utente potrà
essere indicato uno scenario complessivo che definisce meglio il
13 La tecnica del think aloud, sebbene molto usata nella pratica dei test di usablità,
non è esente da alcuni problemi, come discusso nel Cap.4
Introduzione all‘Ingegneria dell‘Usabilità
169
contesto in cui dovrà fingere di muoversi. Per esempio, per un sito
web di un supermercato, lo scenario proposto agli utenti coinvolti
nel test potrebbe essere il seguente:
Domani sera hai due amici a cena, ma non hai tempo di andare al supermercato. Decidi quindi di fare la spesa on-line, pagando con la
tua Visa. Collegati al sito e ordina gli ingredienti per una cena veloce
e poco costosa, ma simpatica.
Come si vede da questo esempio, i test di scenario, se ben concepiti,
mettono alla prova l‘utente (e il sistema) in modo molto più impegnativo dei test di compito. In particolare, permettono agli utenti di
mettere in relazione l‘uso del sistema con le proprie specifiche necessità, preferenze e abitudini. Nello scenario di cui sopra, gli utenti
terranno conto delle proprie preferenze alimentari, e di quelle dei
loro amici. Così, la strategia che gli utenti seguiranno per raggiungere l‘obiettivo richiesto potrebbe essere molto diversa da quella
prevista dal progettista. Per questo motivo, i test di scenario possono essere molto utili per individuare eventuali carenze
nell‘impostazione della struttura complessiva dell‘interazione, o
mancanze di funzionalità utili. Quindi, si dovrebbe cercare di anticipare, per quanto è possibile, i test di scenario all‘inizio del progetto, usando anche prototipi parziali o a bassa fedeltà. I test di compito permettono, invece, una verifica di usabilità più fine, perché localizzata a specifiche funzioni. Quindi possono essere più utili
quando l‘architettura funzionale del sistema sia già ben consolidata,
per provare l‘usabilità di specifici servizi. Per esempio, in progetti
di redesign di un sito web che non abbiano prodotto forti interventi
di ristrutturazione del sito precedente, ma solo modifiche delle funzioni interattive.
Nel ciclo iterativo di progettazione, i test di usabilità dovranno
essere collocati in momenti ben definiti, al termine di ogni fase di
lavoro. Saranno condotti di volta in volta con modalità diverse, a
seconda degli obiettivi specifici della fase e della natura dei prototipi disponibili. Alcuni saranno molto semplici e richiederanno pochi
minuti. Altri saranno più impegnativi e dovranno essere gestiti in
modo più strutturato.
Qualunque sia la tecnica utilizzata, i test con gli utenti sono indispensabili. Infatti, le cause delle difficoltà incontrate dagli utenti
170
Roberto Polillo
possono essere moltissime. Analizzare un sistema ―a tavolino‖, come nelle valutazioni euristiche, anche se può permetterci
d‘individuare numerosi difetti, non è mai sufficiente. I problemi
possono essere nascosti e possono verificarsi soltanto con certe categorie di utenti, in funzione della loro esperienza o formazione.
Cose ovvie per chi già conosce il sistema o sistemi analoghi possono rivelarsi difficoltà insormontabili a utenti meno esperti. Un test
di usabilità ben condotto mette subito in evidenza queste difficoltà.
Figura 21. Test di usabilità: la ―regola di Nielsen‖14
In Italia i test di usabilità sono ancora poco praticati. I motivi principali sono due. Il primo è senz‘altro costituito dalla insufficiente
diffusione di una cultura dell‘usabilità, sia presso gli utenti sia presso gli stessi progettisti. La sensibilità verso questi problemi è tuttora
molto bassa, e gli esperti di usabilità, nelle scuole e nel mercato,
sono pochi. Il secondo motivo è che – si sostiene - i test di usabilità
costano troppo. Si tratta di una credenza ancora diffusa, ma sbagliata: i test di usabilità si possono fare rapidamente e con costi molto
contenuti. Un test di usabilità ben strutturato può coinvolgere anche
15-20 utenti. Non è però sempre necessario utilizzare così tanti
14 da http://www.useit.com
Introduzione all‘Ingegneria dell‘Usabilità
171
soggetti, ne bastano molti di meno. Per esempio, Jakob Nielsen
(Nielsen & Laundauer, 1993) sostiene che con 5 utenti si scopre
l‘85% dei problemi di usabilità di un sito15 (Figura 21).
In pratica, i primi 5 utenti metteranno in evidenza la maggior
parte dei problemi di usabilità più significativi: gli utenti successivi
non faranno altro che confermare gli stessi risultati, aggiungendo
ben poco di nuovo.
Questo suggerisce un modo di procedere semplice e particolarmente adatto allo sviluppo per prototipi successivi. Al termine di
ogni fase di lavoro, si effettua un test di usabilità con pochi utenti,
quindi si eliminano i problemi individuati, per condurre un nuovo
test al termine della fase successiva, e così via, iterativamente, in un
ciclo evolutivo nel quale non è mai necessario condurre test che richiedono una organizzazione impegnativa. I soggetti da utilizzare
nei test dovranno, in ogni caso, essere scelti con cura, in modo da
rappresentare utenti tipici. In nessun caso dovranno essere estranei
all‘ambito applicativo del prodotto, altrimenti i risultati non potranno essere significativi. Per poter interpretare correttamente l‘esito di
ciascun test, chi lo conduce dovrà inoltre conoscere, per ciascun
soggetto, il livello di esperienza nell‘uso di sistemi analoghi a quello in esame.
Esiste anche un terzo motivo che a volte viene addotto per non
fare test di usabilità. Si sostiene, in sostanza, che i test di usabilità
non ci danno dei risultati oggettivi, ma ci segnalano soltanto le risposte soggettive di determinati individui di fronte al sistema. Questa è la tipica reazione di autodifesa dei progettisti: la ―colpa‖ dei
problemi non è nel sistema, è di quel particolare utente, che non è
capace di usarlo come dovrebbe. Altri utenti, più ―furbi‖, non incontrerebbero difficoltà. Il ragionamento è insidioso, perché, apparentemente, difendibile. Più o meno, è questo: test ―scientifici‖, con
risultati statisticamente validi, dovrebbero coinvolgere moltissimi
utenti: molte diecine, forse centinaia. Questo non si può ovviamente
fare, sarebbe troppo lungo e costoso. I test con pochi utenti non sono significativi: le persone sono troppo diverse l‘una dall‘altra. Per-
15 Per una sintesi, si veda la nota di J.Nielsen Why You Only Need to Test With 5
Users, in http://www.useit.com
172
Roberto Polillo
ché dovremmo dar peso alle reazioni soggettive di pochi individui e
avviare costose modifiche soltanto sulla base di queste reazioni?
Il fondamento di queste obiezioni è formalmente inappuntabile:
un esperimento o è condotto con il necessario rigore, o è inutile:
non permette di trarre alcuna conclusione valida. Ma dal punto di
vista pratico non regge: un test di usabilità – a meno che non sia
condotto su una popolazione vasta di utenti e con metodi statistici
rigorosi, il che non succede praticamente mai - non è un esperimento scientifico, fatto per confermare determinate ipotesi. Il suo scopo
è quello di verificare le reazioni di certi soggetti a determinati stimoli. Queste reazioni sono un fatto oggettivo, si possono vedere e
registrare con la telecamera. Anche le reazioni di pochi individui ci
possono insegnare qualcosa, se opportunamente decodificate ed interpretate. Ed è soprattutto questa analisi e interpretazione, che ci
fornisce una comprensione migliore del nostro sistema, e di come
può essere usato, ciò che interessa, e che dà valore al test. Dai test
di usabilità possiamo scoprire aspetti che abbiamo trascurato nella
progettazione e che possiamo migliorare.
Peraltro, in un tipico test di usabilità di un sito, molto spesso il
conduttore non ha bisogno, per così dire, di ―leggere fra le righe‖.
In genere, quando ci sono dei problemi, le reazioni degli utenti sono
evidenti, a volte addirittura scomposte, e di significato inequivocabile. Per capire perché è necessario fare test di usabilità dobbiamo
vederne qualcuno. Leggerne su un report scritto può non bastare a
convincerci. Ma altra cosa è vedere con i nostri occhi una persona
in carne e ossa, che ha accettato di sottoporsi al test, e che si mostra
gentile, disponibile, interessata e volonterosa e che, dopo diversi
tentativi non riesce a portare a termine un compito, e allora si fa
rossa in viso, balbetta frasi incoerenti, e poi abbandona sbattendo,
con un gesto di stizza, il mouse contro il tavolo… Queste reazioni,
nella loro specificità certamente soggettive e individuali, costituiscono comunque un dato oggettivo, che non possiamo trascurare.
Le difficoltà macroscopiche emergono subito, anche con utenti diversi, e questo è il senso della ―regola di Nielsen‖. Diverso è il caso
dei problemi minori, in cui le differenze di esperienza fra i vari utenti possono contare molto. In questi casi possono essere necessari
molti test e molti soggetti e, soprattutto, una buona esperienza e capacità di analisi da parte degli osservatori.
Introduzione all‘Ingegneria dell‘Usabilità
173
In conclusione, i test di usabilità sono parte necessaria e ineliminabile del processo di progettazione e sviluppo di un sistema interattivo. L‘usabilità non è un optional che si possa eliminare per abbassare i costi, come gli accessori in un‘auto economica. Così come
non si possono eliminare i test per verificare il corretto funzionamento del software. Molto semplicemente, se il prodotto è poco usabile, o non funziona, gli utenti non lo useranno.
Un test di usabilità potrà poi essere completato con un‘intervista
al soggetto, per conoscere la sua opinione sul prodotto e i suoi eventuali suggerimenti. Questa intervista non potrà, in ogni caso, sostituire il test, che deve consistere principalmente nell‘osservazione
dei comportamenti dell‘utente. Infatti, le opinioni che l‘utente ha
sui suoi comportamenti nell‘uso di un sistema non sono necessariamente attendibili: come ben si sa, opinioni e comportamenti non
sempre coincidono.
Come condurre un test di usabilità
È preferibile che il team che conduce il test sia costituito da almeno
due persone. Una avrà il compito di dirigere le attività e di interloquire con gli utenti, l‘altra (o le altre) assisteranno al test, senza interferire, prendendo appunti sulle situazioni più significative, e nel
contempo verificando che le registrazioni, se vengono fatte, procedano correttamente. Un test di usabilità viene condotto in tre fasi
successive: preparazione, esecuzione, analisi dei risultati e stesura
delle raccomandazioni finali. Vediamole brevemente.
Preparazione del test
Nella fase di preparazione del test, il team di valutazione deve innanzitutto definire il numero e il profilo degli utenti campione e la
sequenza di compiti che si richiederà loro di svolgere. Sono decisioni molto delicate, poiché da esse dipenderà in larga misura la significatività del test. Queste scelte sono fra loro collegate, e dipendono dagli obiettivi che ci si propone di raggiungere con il test. Nel
caso in cui il test sia inserito nel processo iterativo di sviluppo, si
seguirà spesso la ―regola di Nielsen‖ di cui abbiamo parlato nelle
pagine precedenti.
Nel caso, invece, in cui il test di usabilità costituisca un evento a
sé stante, per esempio per valutare la opportunità di interventi mi-
174
Roberto Polillo
gliorativi in un sistema esistente, occorrerà una organizzazione più
robusta. La durata di ogni test potrà essere allungata (ma normalmente non durerà più di un‘ora, o un‘ora e mezza). Il numero degli
utenti sarà maggiore, tenendo comunque presente che normalmente
si ritiene più produttivo fare tanti test con pochi soggetti che pochi
test con molti soggetti. In questi casi anche la organizzazione del
team di valutazione dovrà essere potenziata. In un test di una certa
ampiezza si raccolgono informazioni in grande quantità, e bisogna
poi saperne trarre le dovute conclusioni. In questo caso,
l‘inserimento nel team di un esperto di usabilità è, in genere, necessario.
In ogni caso, un test ben condotto richiede utenti selezionati in
base agli obiettivi stabiliti, e in particolare agli scenari d‘uso predisposti. Li dovranno sentire come possibili, senza finzioni, indipendentemente dalla loro esperienza. Non ha senso chiedere a chi non è
mai salito su un aereo di prenotare un volo sul sito di una compagnia aerea. Rischieremmo di rilevare delle difficoltà che non derivano dal sistema, ma dalla poca dimestichezza che l‘utente ha con il
problema che gli abbiamo sottoposto. I risultati della prova saranno
probabilmente inquinati. È sbagliato, per ―fare numero‖, reclutare le
persone più facilmente disponibili, senza ulteriori accertamenti:
dobbiamo proprio selezionare dei potenziali clienti del sito.
Proseguendo nella preparazione del test, il team di valutazione
deciderà quindi le misure da raccogliere, e predisporrà tutti gli aspetti relativi alla logistica per l‘esecuzione delle prove (postazione
di lavoro, strumenti di registrazione, e così via), in modo che queste
possano avvenire, per quanto possibile, senza disturbi o interferenze. Si predisporranno infine i materiali necessari allo svolgimento
del test, ed essenzialmente:

un semplice questionario per raccogliere le informazioni sugli
utenti, soprattutto in relazione al loro livello di esperienza

l‘elenco conciso ma molto chiaro dei compiti /scenari proposti,
da consegnare agli utenti all‘inizio del test. Infatti, poiché è opportuno che tutti i test vengano effettuati nelle medesime condizioni, è conveniente che gli utenti seguano istruzioni scritte,
anche per evitare richieste di chiarimenti e spiegazioni durante
lo svolgimento della prova
Introduzione all‘Ingegneria dell‘Usabilità
175

un modulo che gli osservatori utilizzeranno per raccogliere le
loro annotazioni durante il test e, soprattutto, i dati quantitativi
relativi alla esecuzione di ciascun compito da parte di ciascun
utente. Le misure raccolte possono essere diverse da caso a caso ma, solitamente, si raccolgono i tempi di esecuzione di ogni
compito, la percentuale di compiti portati a termine con successo (success rate) e, se quantificabile, il livello di completamento di ogni singolo compito, per quei compiti che l‘utente non
riesce a portare a termine

un questionario per l‘intervista finale degli utenti, di cui parleremo fra poco.
Esecuzione del test
La fase di esecuzione del test vera e propria, se tutto è già bene organizzato e ci si limita a un test con pochi utenti, non dura in genere
più di tre o quattro ore complessivamente. Un test più ampio richiederà, al massimo, una o due giornate di lavoro.
È molto importante che, durante il colloquio di spiegazione iniziale con ciascun utente, venga chiarito molto bene che l‘obiettivo
della prova è quello di valutare il sistema, e non la capacità
dell‘utente di svolgere bene e rapidamente i compiti assegnati. È
indispensabile che il facilitatore metta ogni utente a suo agio, per
ridurre al massimo lo ―stress da esame‖ che non sarà mai del tutto
eliminabile, e che potrebbe compromettere la significatività
dell‘esperimento. Bisogna spiegare bene che quando una persona ha
dei problemi ad usare un‘interfaccia, questo avviene non perché la
persona è stupida, ma perché l‘interfaccia è progettata male. Ad ogni utente dovrà poi essere esplicitamente garantita la riservatezza
delle eventuali registrazioni che saranno effettuate, che dovranno
essere visionabili esclusivamente dai team di valutazione e di progetto.
I test dovranno essere condotti singolarmente, un utente per volta. È opportuno prevedere, per ciascun utente, un breve periodo di
familiarizzazione con il sistema, prima del test vero e proprio. Durante lo svolgimento della prova i valutatori dovranno interferire il
meno possibile: solo il facilitatore è autorizzato a parlare con
l‘utente, e i suoi interventi dovranno essere limitati allo stretto indispensabile: il suo scopo sarà esclusivamente quello di rassicurarlo
176
Roberto Polillo
in caso di difficoltà, incitandolo a proseguire con tranquillità, senza
mai suggerire le azioni da compiere e senza fornire o chiedere spiegazioni. Dovrà invece, quando necessario, ricordargli il ―thinking
aloud‖, cioè di esprimere ad alta voce dubbi o commenti su ciò che
sta facendo: che cosa sta cercando di fare, che cosa vede sullo
schermo, come pensa di dover proseguire, quali dubbi ha, e così via. Questo sarà molto utile nella fase successiva di analisi delle registrazioni audio e video.
Analisi dei risultati e raccomandazioni
L‘ultima fase del test è quella in cui si analizza il materiale raccolto
(appunti o registrazioni audio/video) e si traggono le conclusioni. È
la fase più delicata, e richiede tempo e grande cura. Anche una sessione di test breve, se riesaminata con attenzione, può fornire molte
informazioni. Ogni gesto, ogni frase, ogni esclamazione dell‘utente
è un indizio importante, che va considerato e discusso dal team di
valutazione, per individuarne cause e implicazioni.
Ci sono alcuni errori tipici dei valutatori poco esperti, che vanno
evitati. Il primo è di limitarsi sostanzialmente a riportare i giudizi
espressi dagli utenti nelle interviste successive al test. Queste sono
importanti, ma costituiscono solo una parte dei risultati di un test
ben condotto. Infatti quasi sempre l‘utente tende a limitarsi a esprimere giudizi o sensazioni di carattere generale (es.: ―la fase di registrazione dell‘utente è troppo complicata e mi chiede informazioni
inutili‖), senza essere in grado di risalire con precisione a tutte le
cause di tali giudizi o sensazioni. Se lo fa, a volte la sua analisi può
rivelarsi sbagliata: non possiamo pretendere che l‘utente sia un esperto di usabilità. Quindi il valutatore non potrà accontentarsi dei
commenti degli utenti, ma dovrà sempre effettuare un‘analisi dettagliata dei loro comportamenti, esaminando il materiale registrato o
gli appunti presi durante la sessione di prova. Il secondo errore tipico è quello di limitarsi all‘elencazione di poche difficoltà macroscopiche, senza andare oltre. Occorre, invece, elencare analiticamente tutti i problemi individuati, grandi e piccoli: solo così il test
ci darà il massimo rendimento.
Il prodotto di quest‘analisi sarà quindi un elenco dei problemi
identificati per ciascun compito svolto, descritti in modo circostanziato. Normalmente, a ciascun problema, il team di valutazione as-
Introduzione all‘Ingegneria dell‘Usabilità
177
segna un livello di priorità, sulla base di considerazioni di vario tipo: il numero di volte che tale problema è stato evidenziato nei test,
il livello d‘esperienza degli utenti che hanno sperimentato il problema, l‘effetto che il problema ha avuto sul completamento del
compito (il problema è risultato bloccante, o l‘utente ha trovato comunque una soluzione o un percorso alternativo che gli ha permesso di arrivare al risultato desiderato?).
Al termine del test d‘usabilità, è molto utile intervistare gli utenti
sull‘esperienza che hanno appena fatto. In queste interviste, il conduttore chiederà, ad ogni singolo utente, quali sono, a suo parere, i
punti di forza e di debolezza del sistema, gli aspetti che dovrebbero
essere migliorati, e quelli che ha gradito maggiormente. A tal fine
sarà utile raccogliere le osservazioni con l‘ausilio di un semplice
questionario.
Conclusioni
Questo capitolo ha presentato una visione introduttiva della disciplina della ingegneria della usabilità. La discussione è stata del tutto
indipendente dalla specifica tipologia dei sistemi da progettare, per
i quali si è fatta la sola ipotesi che si tratti di sistemi che interagiscano in modo ―sostanziale‖ con utenti umani (escludendo, quindi,
quei sistemi che controllano altri sistemi, senza significativi interventi umani), e per i quali sia richiesto un elevato grado di usabilità.
Quanto detto si può applicare, per esempio, alla progettazione di
sistemi informativi, di apparati di controllo di apparecchiature critiche, di device per uso personale, di sistemi multi-utente di varia natura, e così via.
In questo ambito, si è osservato che, negli ultimi due decenni, le
discipline tradizionali della progettazione hanno subito un completo
cambio di paradigma: da una visione sistema-centrica delle attività
e dei processi coinvolti, a una visione fortemente utente-centrica,
per la quale l‘oggetto della progettazione non sono più le funzionalità del sistema (system design), ma le modalità di interazione fra il
sistema e i suoi utilizzatori (interaction design).
Questo cambio di paradigma, apparentemente ―indolore‖, ha in
realtà profonde implicazioni su tutte le tematiche connesse alla pro-
178
Roberto Polillo
gettazione, e in particolare sui modelli del processo di progettazione
e sviluppo, sulla composizione dei team di progetto, e sulla formazione stessa dei progettisti:

i processi di progettazione e sviluppo, qualunque siano i contesti organizzativi, le metodologie, gli strumenti e gli standard
adottati, devono necessariamente essere di tipo iterativo, per
inserire l‘utente – e le prove d‘uso del sistema - lungo l‘intero
processo di progettazione e sviluppo. Le prove d’uso diventano
una componente della attività di progettazione

i team di sviluppo devono essere di necessità multi-disciplinari,
per fronteggiare la complessità e la articolazione dei problemi
posti dalla forte focalizzazione sull‘utente, con tutte le problematiche connesse (ergonomiche, psicologiche, sociali)

infine, la formazione dei progettisti – tradizionalmente di orientamento esclusivamente tecnico – deve ampliare i propri orizzonti. Un team multi-disciplinare raccoglie persone con professionalità, culture, linguaggio, valori e priorità diverse, che
devono riuscire a comunicare in modo armonico, nel rispetto
dei contributi specifici al progetto complessivo.
Anche se la inevitabilità di questo cambio di paradigma è stata riconosciuta quasi un quarto di secolo fa, nella quotidiana pratica
progettuale molta strada deve ancora essere percorsa per una sua
adozione matura e consapevole, soprattutto nel nostro Paese.
Letture Consigliate
Mary B.Rosson, John M.Carroll, Usability Engineering – Scenario-based
Development of Human-Computer Interaction, Morgan Kaufmann Publishers,
2002, pagg.xxi+422
Jennifer Preece, Yvonne Rogers, Helen Sharp, Interaction Design (Second
Edition), John Wiley & Sons, 2007, pagg.xxvi+773. La prima edizione è stata
pubblicata in Italia, con lo stesso titolo, da Apogeo (2004, pagg.xxi+503)
Soren Lauesen, User Interface Design – A Software Engineering Perspective Addison Wesley, 2005, pagg.604
Introduzione all‘Ingegneria dell‘Usabilità
179
Bibliografia
Alexander, C. [1979]. The Timeless Way of Building, Oxford University Press.
Alexander, C., Ishikawa, S., Silverstein, M. [1977]. A Pattern Language, Oxford
University Press.
Carroll, J.M., Kellogg, W.A., Rosson, M.B. [1991]. The Task-Artifact Cycle, in
J.M.Carroll (ed.), Designing Interaction – Psycology at the Human computer
Interface, Cambridge University Press.
Cockton, G. [2008]. Revisiting Usability‘s Three Key Principles, in Proceedings
CHI 2008
Good, M, Spine, T.M., Whiteside, J., George, P. [1986]. User-derived impact
analysis as a Tool for Usability Engineering, in Proceedings CHI 86.
Gould, j., Lewis, C. [1985]. Designing for Usability: Key principles and what
designers think, in Communications of the ACM, 28(3).
Houde, S., Hill, C. [1997]. What do Prototypes Prototype?, Handbook of Human Computer Interaction (2nd Ed.), M. Helander, T.E. Landauer, P. Prabhu (ed.),
Elsevier Science, Amsterdam.
Nielsen, J. [1993]. Usability Engineering, San Francisco CA, USA, Morgan
Kaufman.
Nielsen, J.; Landauer, T.K. [1993]. A Mathematical Model of the Finding of
Usability Problems, Proceedings of ACM INTERCHI ‘93 Conference,
Amsterdam, Aprile 1993, pagg.206-213
Polillo, R. [2006]. Plasmare il Web. Apogeo.
180
Roberto Polillo
Roberto Polillo è docente di Interazione Uomo Macchina e titolare del
Laboratorio di Internet per il corso di laurea in Informatica e per il corso di
laurea magistrale in Teoria e tecnologia della comunicazione dell'Università degli Studi di Milano Bicocca. In oltre 30 anni di attività nel settore
del software, ha curato progetti di sviluppo di software di ogni tipo, dai
language processors ai sistemi operativi, ai sistemi informativi, ai sistemi
di supporto alla produttività individuale, alle applicazioni web, con particolare attenzione alle tematiche del software engineering, della qualità del
software, dell'Interazione uomo-macchina e della qualità dei siti web. Recentemente ha pubblicato due libri sul Web, entrambi per la casa editrice
Apogeo: ―Il check-up dei siti web‖ (2004) e ―Plasmare il Web‖ (2006).
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Misure di Qualità:
Dall’Usabilità all’Esperienza dell’Utente
Antonella De Angeli – Manchester Business School University of Manchester
[email protected]
Abstract. Questo capitolo offre un‘analisi delle principali misure e metodo-
logie utilizzate per valutare la qualità interattiva del software. Il contributo
presenta le principali metriche di qualità con particolare attenzione alle
tradizionali definizioni operative del concetto di usabilità e alle più recenti
proposte relative al costrutto di esperienza dell‘utente. L‘usabilità definisce la qualità interattiva come amichevolezza nei confronti dell‘utente; i
suoi attributi fondamentali si riferiscono a qualità pragmatiche relative
all‘esecuzione di compiti, quali efficacia ed efficienza d‘uso. L‘esperienza
dell‘utente estende questa definizione fino ad includere anche qualità edonistiche che si riferiscono al godimento estetico, al coinvolgimento emozionale dell‘utente e al piacere derivato dall‘utilizzo di un sistema interattivo. Il contributo descrive le principali metodologie e misure di valutazione discutendone possibilità e limiti rispetto alle diverse concettualizzazioni
di qualità dei sistemi interattivi.
Keywords: metodologie e tecniche di valutazione, valutazioni analitiche,
studi con utenti, studi sul campo.
Introduzione
Nella società in cui viviamo il computer si va imponendo sempre di
più non solo come strumento di lavoro, ma anche e soprattutto come oggetto di intrattenimento. Se fino allo scorso decennio, il computer era essenzialmente uno strumento di calcolo, gestione ed elaborazione dell‘informazione, adesso le tecnologie informatiche sono diventate importanti mezzi di comunicazione, supporti
all‘autorealizzazione e all‘affermazione sociale dell‘individuo, non-
182
Antonella De Angeli
ché alla creatività individuale e collettiva. Accanto al computer inteso nel senso tradizionale come macchina di lavoro composta da
video, hardware e unità periferiche di interazione si sono venuti ad
affermare una serie di altri oggetti di uso quotidiano che incorporano complessi elaboratori elettronici, nascosti dietro semplici interfacce d‘uso (gli ultimi quatto capitoli di questo libro presentano
numerosi esempi di tali tecnologie applicate a interfacce utente
multi-dispositivi, mobile computing, realtà virtuale e tangible user
interfaces).
Questa evoluzione, che segna il passaggio da artefatti cognitivi
(sistemi finalizzati alla soluzione di compiti) a artefatti esperienziali
(sistemi progettati per coinvolgere l‘utente in attività sociali e ricreazionali) è stata elegantemente analizzata in chiave storica da Bagnara e Pozzi nel capitolo introduttivo: Fondamenti, Storia e Tendenze dell’HCI. Questo contributo si propone invece di presentare e
discutere le implicazioni di tale cambiamento sul concetto di qualità
interattiva del software e su metodologie e tecniche di progettazione
e valutazione di strumenti informatici. A questo fine introdurremo i
due concetti chiave di usabilità e esperienza dell‘utente per poi analizzare come questi concetti richiedano un approccio fondamentalmente diverso di valutazione.
1. Usabilità
Negli ultimi 20 anni, la qualità interattiva dei sistemi informatici è
stata definita come amichevolezza (user-friendliness) o, più rigorosamente, come usabilità (usability). Tale concetto è una pietra miliare nella storia dell‘informatica, che segna il passaggio da un approccio alla progettazione centrato sul sistema, a un approccio alla
progettazione più complesso dove capacità e bisogni dell‘utente diventano requisiti fondamentali di progettazione e criteri basilari di
valutazione (cfr. Capitolo 3, R. Polillo, Introduzione all’Ingegneria
dell’Usabilità). Elementi chiave nella misurazione dell‘usabilità sono variabili quali facilità di apprendimento, efficacia ed efficienza
nell‘utilizzo. Queste dimensioni possono essere misurate oggettivamente osservando gruppi di utenti durante l‘esecuzione di compiti.
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
183
L‘usabilità è un concetto di natura multidimensionale, caratterizzato in modo variabile a seconda dei modelli teorici di riferimento. Senza la pretesa di essere esaustivi, in questo capitolo ci soffermeremo su due importanti definizioni: quella elaborata da Jacob
Nielsen nel libro Usability Engineering (1993) e quella proposta
dall‘Organizzazione Internazionale per le Standardizzazioni (ISO,
1998). La prima ha il pregio di presentare un dettagliato modello
degli attributi costituenti l‘usabilità e delle sue relazioni gerarchiche
con altri concetti rilevanti per il dominio. La seconda, invece, rappresenta uno standard per la comunità degli informatici.
La proposta di Nielsen
Secondo il modello gerarchico di Nielsen, l‘usabilità è un aspetto
dell‘accettabilità di un sistema vale a dire della sua capacità globale
di soddisfare necessità e bisogni degli utenti. Tale concetto si articola in due sottocategorie: accettabilità sociale e accettabilità pratica. Da un punto di vista sociale, un sistema è considerato accettabile se coerente con alcuni valori fondamentali dell‘utente, quali per
esempio sicurezza e privacy. Tale giudizio dipende in maniera cruciale dalla cultura dell‘utente e dal contesto di utilizzo. Da un punto
di vista pratico, l‘accettabilità è invece definita da una serie di attributi quali: costo, affidabilità, compatibilità con sistemi preesistenti
e praticità. Quest‘ultimo aspetto a sua volta è composto da due attributi: utilità e usabilità. Il primo si riferisce all‘effettiva capacità
del sistema di eseguire le funzioni per cui è stato progettato, mentre
il secondo definisce la qualità dell‘interazione. L‘usabilità è dunque
il concetto chiave nel rapporto tra utente e computer. Tale concetto
è composto da cinque attributi basilari, oggettivamente ed empiricamente misurabili.
Facilità di apprendimento. Un sistema deve essere facile da imparare, in modo tale da permettere a un utente che lo utilizza per
la prima volta di raggiungere buone prestazioni in tempi brevi.
Efficienza nell’utilizzo. Una volta superata la fase di apprendimento il sistema deve garantire prestazioni altamente produttive.
Questo attributo viene solitamente misurato con utenti caratterizzati da un elevato e stabile livello di esperienza.
184
Antonella De Angeli
Facilità di ricordo. L‘utente deve potere interagire con
un‘interfaccia anche dopo un periodo di lungo inutilizzo, senza
essere costretto a ricominciare da zero il periodo di apprendimento. La memorizzazione semplice e immediata dei comandi
è particolarmente importante in applicazioni destinate ad utilizzo occasionale.
Sicurezza e robustezza all’errore. Un sistema deve essere il più
possibile sicuro, deve cioè ridurre al minimo la probabilità del
verificarsi di azioni errate. Inoltre, deve essere robusto, nel senso che il suo funzionamento non deve venire compromesso da
errori banali e nel caso del verificarsi di errori deve permettere
semplici azioni riparatorie.
Soddisfazione soggettiva. Questa è l‘unica dimensione soggettiva
dell‘usabilità e riguarda il giudizio relativo al comfort e alla
piacevolezza dell'interazione. In generale, gli utenti dovrebbero
sentirsi soddisfatti del tempo passato utilizzando il computer.
Il valore relativo dei cinque attributi costituenti l‘usabilità è variabile poiché vari vincoli inerenti alla progettazione e alla realizzazione
dei sistemi interattivi non consentono sempre di ottenere valori elevati per ciascuno di essi. Alcuni attributi, quali ad esempio facilità
di apprendimento ed efficienza d‘uso, sono spesso in opposizione,
per cui punteggi alti a un attributo tendono a implicare punteggi
bassi all‘altro. In fase di progettazione concettuale di un sistema è
quindi necessario ordinare tali attributi su una scala di importanza.
L‘ordine viene stabilito sulla base delle caratteristiche dell‘utenza e
del sistema.
Si consideri, per esempio, la differenza fra un‘interfaccia destinata all‘uso quotidiano da parte di utenti esperti del dominio e delle
tecnologie informatiche, con un‘interfaccia destinata a uso occasionale sul web, da parte di un utenza estremamente differenziata in
termini di conoscenze ed esperienza. Mentre nel primo caso la dimensione dell‘efficienza assume priorità assoluta, anche a scapito
di una maggiore complessità di apprendimento, nel secondo caso la
situazione si ribalta e la semplicità di apprendimento diventa obiettivo principale di progettazione anche a scapito di una diminuzione
nell‘efficienza nelle procedure di esecuzione del compito.
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
185
La proposta ISO
Gli standard ISO definiscono l‘usabilità come l'efficacia, efficienza
e soddisfazione con cui determinati utenti raggiungono determinati
scopi in un ambiente ben definito (ISO, 1998). La dimensione
dell'efficacia riguarda il grado di accuratezza e completezza con cui
gli utenti raggiungono i loro obiettivi. Misure chiavi di tale costrutto sono il numero di errori commessi dall‘utente, l‘adeguatezza delle strategie di soluzione, la qualità del risultato finale. La dimensione dell'efficienza misura il rapporto fra efficacia e risorse spese per
il raggiungimento dell‘obiettivo dell‘utente. La soddisfazione
dell'utente è concettualizzata in modo simile alla proposta di Nielsen e si riferisce alla valutazione del comfort e della piacevolezza
dell‘interazione.
La proposta ISO riassume ed espande le precedenti concettualizzazioni di usabilità in quanto pone l‘accento in modo fondamentale
sull‘importanza del contesto d‘uso. In questa visione, il termine
contesto si riferisce a tutti gli attributi che possono influenzare la
misurazione dell‘usabilità, come, ad esempio, caratteristiche degli
utenti, del compito, dello hardware e del software, come anche
dell‘ambiente in cui il sistema viene utilizzato. Per misurare
l‘usabilità di un sistema è necessario definire operativamente le tre
dimensioni chiave dell‘usabilità sulla base del sistema oggetto di
valutazione e del suo contesto d‘uso. Efficacia ed efficienza sono
misurate da indici oggettivi di prestazione, quali il numero di errori
nel risultato finale o il numero di correzioni. Tali indici possono essere inferiti da valutazioni basate sulla teoria o mediante sperimentazione empirica. La soddisfazione dell‘utente invece è misurata da
indici soggettivi, raccolti tramite questionari o interviste. I giudizi
spaziano da valutazioni di carattere prettamente utilitaristico, a valutazioni edonistiche e di desiderabilità del sistema.
Qualità come assenza di problemi
La metrica dell‘usabilità definisce implicitamente la qualità interattiva come ‗assenza di problemi’ ed è proprio questa visione riduzionistica e negativa che è stata recentemente messa in discussione
da un nuovo movimento di ricerca e progettazione che, nella letteratura anglosassone, si identifica sotto il termine generale di user-
186
Antonella De Angeli
experience (UX), in italiano: esperienza dell‘utente. L‘esperienza
dell‘utente è un concetto di natura multidimensionale che descrive
la complessa reazione psicologica dell‘utente di fronte
all‘interazione con strumenti interattivi.
Secondo i ricercatori e i designer che si identificano con questo
movimento, la qualità di un sistema interattivo trascende l‘assenza
di problemi e deve essere definita in modo positivo come il valore
aggiunto che un sistema offre ai suoi utenti in termini di soddisfazione di alcuni bisogni e valori fondamentali dell‘essere umano. Elementi chiave nella misurazione dell‘esperienza dell‘utente sono
reazioni soggettive, quali ad esempio, divertimento, piacevolezza,
motivazione, gratificazione, emozione, o identificazione sociale.
2. Esperienza dell’Utente
Il concetto di esperienza dell‘utente come misura della qualità interattiva di un software è un costrutto di ricerca molto giovane e ancora acerbo che si riferisce all‘insieme delle risposte comportamentali e psicologiche indotte dall‘interazione con i sistemi informatici
(Hassenzhal & Trackinsky, 2006). Tali reazioni sono causate da un
vasto numero di variabili che in combinazione e spesso anche in
contrapposizione determinano le preferenze degli utenti.
Il costrutto dell‘esperienza dell‘utente si propone come
un‘estensione del concetto di usabilità: la qualità dell‘interazione
viene definita non solo da tradizionali aspetti pragmatici, relativi
all‘esecuzione del compito, ma anche da attributi edonistici, relativi
alla gratificazione dell‘utente. In questa visione, dunque, dimensioni quali la piacevolezza estetica di un artefatto, il divertimento derivato dal suo utilizzo, reazioni emozionali, sentimenti di identificazione e autoaffermazione, vengono considerate importanti dimensioni di qualità, alla pari e forse anche di più, dell‘efficienza nello
svolgimento di un compito.
Origini
Il settore di ricerca e la filosofia di progettazione che si identificano
sotto l‘etichetta di esperienza dell‘utente possono essere collocate
all‘interno di un processo di interazione fra settori di studio diversi.
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
187
Se le prime critiche al concetto riduzionista dell‘usabilità emersero
già alla fine degli anni 80 (Carroll & Thomas 1988), ci sono voluti
almeno vent‘anni perché la comunità di Human-Computer
Interaction cominciasse ad occuparsi della ridefinizione del concetto di qualità interattiva.
La discussione è stata motivata dallo sviluppo tecnologico e dalla crescente diffusione delle tecnologie informatiche nella vita privata delle persone per cui si è giunti alla consapevolezza che la corretta esecuzione dei compiti non fosse più la sola misura di successo di un sistema interattivo. La ricerca è stimolata dal crescente riconoscimento dell‘importanza del piacere (Jordan, 2000), del divertimento (Blythe, et al. 2003) delle emozioni (Desmet, 2002; Norman, 2004), dell‘interazione sociale (De Angeli, et al. 2002) come
determinanti fondamentali del comportamento umano di interazione
con strumenti tecnologici e della loro possibilità di successo di
mercato.
Modelli
Il concetto di esperienza dell‘utente sta vivendo un momento di
estrema popolarità, ma le conoscenze disponibili per comprendere
questo complesso costrutto sono ancora frammentarie ed elementari. Un elemento comune di definizione è la natura olistica
dell‘esperienza dell‘utente che sottintende un modello di qualità
multi-dimensionale. Vari modelli sono stati presentati per cercare di
descrivere le costituenti principali dell‘esperienza dell‘utente. Tali
modelli si differenziano sulla base degli attributi discussi e delle loro interazioni.
Secondo Marc Hassenzhal (2004) l‘esperienza dell‘utente è
composta da due dimensioni principali composte da attributi di tipo
pragmatico (elementi tradizionali di usabilità) e attributi di tipo edonistico, quali ad esempio l‘arricchimento personale in termini di
apprendimento, identificazione, comunicazione sociale e capacità
evocativa. La dimensione pragmatica e la dimensione edonistica
sono concepite come misure sostanzialmente distinte ed ortogonali.
Tractinsky & Zmiri (2006) propongono invece un modello
dell‘esperienza dell‘utente che si articola su tre dimensioni fra loro
correlate: usabilità, estetica e simbolismo. Il concetto di estetica si
188
Antonella De Angeli
riferisce all‘esperienza sensoriale stimolata dalla percezione
dell‘interfaccia e viene suddivisa in una dimensione di estetica classica e una dimensione di estetica di espressione (Lavie & Tracktinsky, 2002). L‘estetica classica è composta da attributi quali
bellezza, simmetria, e chiarezza del design, mentre l‘estetica di espressione si riferisce più direttamente alla dimensione interattiva
ed è descritta da attributi quali coinvolgimento e utilizzo di effetti
speciali nell‘interazione. La dimensione del simbolismo si riferisce
al significato attribuito a uno strumento interattivo e alle associazioni da esso generate. In contrapposizione alla valutazione estetica,
che in questo modello viene concepita come una reazione sensoriale, la valutazione del simbolismo sottintende un‘elaborazione cognitiva da parte dell‘utente, per cui all‘artefatto viene associato un
significato.
L‘ipotesi di una correlazione tra le varie dimensioni
dell‘esperienza dell‘utente ed in particolare di un rapporto intrinseco fra il concetto di usabilità e quello di estetica è stato originalmente proposto da Tractinsky e colleghi nel 2000, in un importante
e pionieristico lavoro empirico intitolato ‗What is beautiful is usable (Ciò che è bello è usabile). Tali autori propongono che la valutazione dell‘estetica dell‘interfaccia di un sistema interattivo influenzi la valutazione dell‘usabilità e giustificano tale ipotesi sulla
base dell‘effetto alone. Tale effetto, ben noto nella letteratura di
psicologia sociale, implica che la bellezza di una persona influenzi
la percezione di una vasta gamma di dimensioni, fra cui ad esempio
l‘intelligenza e la capacità di relazione sociale. Sulla base
dell‘effetto alone dunque si ritiene che un‘interfaccia attraente tenda anche ad essere percepita come più usabile.
Questa ipotesi è stata recentemente messa in discussione, da vari
risultati sperimentali che hanno dimostrato un rapporto conflittuale
fra estetica di espressione e usabilità (Sutcliffe & De Angeli, 2005;
De Angeli, et al., 2006), due dimensioni che, per definizione, sono
difficilmente compatibili. Infatti, se da un lato l‘estetica di espressione tende ad enfatizzare il bisogno di coinvolgere l‘utente con
l‘utilizzo di effetti speciali, l‘usabilità raccomanda semplicità e
chiarezza. Si propone quindi che il rapporto fra estetica e usabilità
sia più complesso di una semplice relazione causale (bello allora
usabile) ed in particolare si ipotizza che se tale relazione esiste
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
189
coinvolga solamente la dimensione di estetica classica che per definizione è molto più simile al concetto di usabilità. Questa proposta
comunque non nega l‘ipotesi correlazionale nella sua interezza, in
quanto numerosi studi sperimentali hanno dimostrato che il giudizio
sulle dimensioni individuali dell‘esperienza dell‘utente è soggetto a
molteplici influenze derivate dalla valutazione di altre dimensioni,
così come dal contesto di valutazione.
Dipendenza contestuale
Un‘altro elemento comune della ricerca sull‘esperienza
dell‘utente è l‘enfasi sulla dimensione soggettiva, personale e unica
dell‘esperienza. Questa concettualizzazione rappresenta una differenza sostanziale rispetto al concetto di usabilità, che, a torto o ragione, è tradizionalmente presentata come una metrica di qualità
oggettiva. Storicamente, gli studi di usabilità hanno preferito misure
comportamentali ottenute osservando l‘utente nell‘esecuzione di
compiti, a misure soggettive, ottenute tramite metodi verbali in cui
l‘utente esprime un giudizio. Tali misure comportamentali vengono
considerate valide e affidabili in quanto si ritiene che esse siano replicabili in campioni di utenti caratterizzati da abilità cognitive e
motorie equivalenti.
L‘esperienza invece è soggettiva: varia da persona a persona,
viene influenzata dal contesto d‘uso, dalle motivazioni dell‘utente,
dalla sua cultura, personalità, stato d‘animo, dal compito e, infine,
anche dal prodotto interattivo (Hartmann, et al., 2007, 2008). Cercare di quantificare l‘esperienza è dunque un compito estremamente
difficile e secondo alcune prospettive teoriche e metodologiche impossibile se non concettualmente sbagliato. Nei prossimi paragrafi
ci proponiamo di presentare le principali metodologie di valutazione discutendone limiti e possibilità diagnostiche relativamente alla
misurazione dell‘usabilità e dell‘esperienza dell‘utente.
3. Metodi di Valutazione
Le principali metodologie di valutazione della qualità interattiva di
un software si possono raggruppare in tre paradigmi principali: valutazioni analitiche, studi di laboratorio e studi sul campo. Tali pa-
190
Antonella De Angeli
radigmi si differenziano sulla base del modo in cui i dati vengono
raccolti (con o senza il coinvolgimento di utenti; in un contesto controllato o in un contesto naturalistico), sul tipo di sistema cui possono essere applicati (prototipi più o meno evoluti o sistemi finali) e
sul tipo di risultati ottenibili (misure quantitative o misure qualitative). All‘interno di questi paradigmi principali esistono svariati metodi e molte tecniche che a partire dagli anni 80 sono state sviluppate per misurare l‘usabilità dei sistemi interattivi e più recentemente
al fine di catturare questo concetto effimero dell‘esperienza
dell‘utente.
Valutazioni analitiche
Le valutazioni analitiche si basano su conoscenze teoriche e non richiedono il coinvolgimento di utenti . Un esempio comune sono le
valutazioni euristiche eseguite da un team di esperti che esprimono
il loro giudizio sulla base di alcune direttive generali di progettazione. La valutazione mediante analisi del compito permette di
formalizzare i pattern di interazione tramite l‘analisi delle procedure di esecuzione di un compito in riferimento a una concettualizzazione astratta dell‘utente, conosciuta come utente ideale (cfr. Capitolo 5, H. Pigot, Analisi Cognitiva delle Interfacce Utente). In questo modo è possibile identificare eventuali difetti nelle strategie di
soluzione del compito. Le ispezioni di tipo cognitivo (in inglese,
cognitive walkthroughs) si basano sulla simulazione del comportamento di un utente nell‘interazione con il sistema.
Le valutazioni analitiche sono potenzialmente molto utili in
quanto permettono di verificare che la direzione della progettazione
sia congruente con i principi guida dell‘ergonomia cognitiva e
dell‘ingegneria dell‘usabilità ed evidenziare i principali problemi di
usabilità in modo veloce ed economico. A livello operativo possono
essere applicate fin dalla fase di progettazione concettuale e forniscono una buona approssimazione della qualità di alcune dimensioni dell‘usabilità‘quali efficacia ed efficienza. Possono fornire anche
degli indizi relativi alla semplicità di apprendimento. Il problema
fondamentale delle valutazioni analitiche è che il rapido cambiamento della tecnologia informatica ne limita il valore diagnostico a
sistemi interattivi di uso comune per cui sia disponibile un modello
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
191
teorico di riferimento. Inoltre, le valutazioni di tipo analitico forniscono molti pochi indizi relativi alla comprensione dell‘esperienza
dell‘utente. Recentemente sono state proposte alcune euristiche per
la valutazione del fascino di un‘interfaccia (Sutcliffe & De Angeli
2005, De Angeli, et al., 2006), ma il campo è ancora immaturo e la
natura intrinsecamente soggettiva dell‘esperienza dell‘utente fa
prevedere che un approccio di tipo analitico non sia la soluzione
migliore per la valutazione dell‘esperienza dell‘utente, almeno non
al momento attuale, poiché le conoscenze disponibili sono troppo
limitate.
Le valutazioni basate sull‘analisi del comportamento di utenti
reali permettono di sorpassare alcuni di questi problemi. A seconda
del livello di controllo che il valutatore esercita sul comportamento
dell‘utente, questo paradigma si differenzia in studi di laboratorio e
studi sul campo.
Studi di laboratorio
In generale, la valutazione basata sugli utenti implica costi maggiori
rispetto a valutazioni analitiche poiché richiede il coinvolgimento di
utenti e complesse analisi comportamentali, ma può offrire risultati
migliori in quanto permette studi approfonditi del comportamento
di interazione, come analisi dell‘errore, delle strategie di recupero e
della fase di apprendimento. Inoltre, solo coinvolgendo gli utenti è
possibile ottenere una misura dell‘esperienza dell‘utente.
Per anni, il laboratorio è stato il tipico setting degli studi di valutazione dell‘usabilità. Nel tentativo di ottenere misure oggettive di
qualità, le valutazioni sono state condotte in ambienti controllati, da
ricercatori che osservavano il comportamento di un campione di utenti nell‘esecuzione di un set di compiti. Tali studi possono essere
subordinati a due obiettivi principali, che richiedono approcci profondamente diversi. Un obiettivo è quello di verificare la qualità di
un sistema (o prototipo). Un altro obiettivo invece è quello di paragonare prototipi diversi al fine di scegliere le migliori strategie di
interazione per un dato sistema (valutazioni comparative). La distinzione è fondamentale. Le valutazioni di prototipi singoli sono
più semplici: il loro obiettivo è quello di evidenziare il massimo
numero di problemi di usabilità ed eventualmente paragonare questi
192
Antonella De Angeli
risultati a standard disponibili. In questi i case un campione piccolo,
anche di soli 5 utenti è sufficiente ad evidenziare un alto numero di
problemi di usabilità (cfr. Capitolo 3, R. Polillo, Introduzione
all’Ingegneria dell’Usabilità, in particolare il paragrafo Test di Usabilità e i relativi riferimenti). Le valutazioni comparative, invece,
richiedono esperimenti controllati, e il loro valore diagnostico è
funzione della qualità del disegno sperimentale, e del rigore di procedure e tecniche di misurazione e analisi statistica.
Studi sul campo
Un‘altra tecnica di valutazione dell‘usabilità basata sull‘analisi
del comportamento degli utenti è lo studio sul campo. A differenza
dei test di usabilità, che vengono eseguiti in ambienti controllati, gli
studi sul campo avvengono in contesti naturali osservando il comportamento degli utenti in condizioni reali. Seguendo la tradizionale
metodologia etnografica, il livello di coinvolgimento del ricercatore
può variare. In alcuni casi il ricercatore si rende invisibile e si immerge nelle dinamiche del contesto sociale e culturale dello studio
senza modificarle (ad esempio osservando a distanza l‘utilizzo di
una postazione self-service), ma più spesso, in studi di interazione,
il ricercatore dichiara i suoi intenti a degli informatori selezionati e
li segue nelle loro dinamiche quotidiane cercando di comprendere
in collaborazione con gli informatori l‘effetto delle tecnologie sulla
loro vita. In questo caso, interviste, questionari e focus group diventano elementi fondamentali di ricerca.
Gli studi sul campo stanno diventando sempre più comuni nel
settore della Human-Computer Interaction perché sono un metodo
privilegiato per comprendere l‘esperienza dell‘utente. Infatti, aumentano la validità ecologica delle osservazioni e facilitano la libera espressione di emozioni e sentimenti. Un metodo interessante
utilizzato dai designer per raccogliere informazioni emozionali e
sociali relative a situazioni naturali di utilizzo della tecnologia è
quello dei cultural probes, letteralmente indagini culturali (Gaver,
et al., 1999). Questo metodo implica una partecipazione attiva
dell‘utente che comunica al ricercatore il suo comportamento o il
suo stato d‘animo tramite una serie di ‗stimoli‘ fornitogli dallo sperimentatore. Ad esempio, il partecipante può fare foto, tenere un di-
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
193
ario o compilare delle cartoline relative ad eventi di interesse. Il ricercatore non è presente durante lo studio, ma raccoglie ed analizza
i dati forniti dal partecipante, che tipicamente vengono chiariti ed
analizzati mediante interviste.
4. Misure di Valutazione
Gli studi di valutazione raccolgono un vasto numero di variabili che
si distinguono a seconda del fatto che siano derivate da osservazioni
comportamentali o da racconti e valutazioni fornite dall‘utente.
Osservazioni comportamentali
I metodi più comuni per raccogliere misure comportamentali sono l‘osservazione diretta delle azioni dell‘utente effettuata durante
la valutazione (in laboratorio o sul campo) o tramite analisi di video, e il logging, la registrazione automatica delle azioni eseguite da
utente e computer durante l‘interazione. L‘osservazione comportamentale è uno strumento molto importante per la valutazione
dell‘interazione in quanto permette di conoscere le strategie di soluzione di un compito, e fornisce chiare indicazioni di efficienza
(tempo) e efficacia (numero di errori). Un problema fondamentale è
che le osservazioni comportamentali permettono solo di conoscere
cosa è successo in un dato momento non le ragioni di tale comportamento. La mancanza di informazione sulle intenzioni dell‘utente
rende spesso difficile la comprensione dei motivi sottostanti azioni
che hanno causato errori.
Il metodo del think aloud, letteralmente pensare ad alta voce,
permette di ottenere alcune informazioni sui processi cognitivi sottostanti le azioni degli utenti (Ericsson & Simon, 1984). Il thinkaloud viene eseguito in laboratorio richiedendo agli utenti di verbalizzare ogni loro comportamento durante l‘esecuzione del compito.
L‘interazione è registrata e in seguito sottoposta a analisi dei protocolli. Il vantaggio fondamentale di tale tecnica è la raccolta di misure qualitative relative alle strategie di soluzione del compito, che
possono essere usate in concomitanza a misure comportamentali
per ottenere un quadro complessivo della prestazione. Gli svantaggi
sono numerosi. Innanzitutto, si tratta di un metodo particolarmente
194
Antonella De Angeli
intrusivo che può aumentare anche in modo pesante il carico cognitivo dell‘utente e creare un contesto estremamente diverso da quello
naturale di esecuzione. La verbalizzazione può influenzare il modo
in cui gli utenti eseguono i compiti, modificandone le strategie di
soluzione e l‘esecuzione è complessa, sia per il partecipante, che
deve verbalizzare anche e specialmente nei momenti di difficoltà,
sia per lo sperimentatore, che deve verificare l‘effettiva verbalizzazione di ogni comportamento ed eventualmente stimolare l‘utente.
Per risolvere questi problemi il think-aloud può essere applicato
come valutazione retrospettiva. L‘utente utilizza il sistema normalmente e solo in seguito, di fronte alla videoregistrazione della sessione, è stimolato a spiegare cause e motivi di errori o procedimenti
insoliti. Il problema principale della variante è che spesso le persone non sono in grado di spiegare retrospettivamente le loro azioni.
Un‘ulteriore variante è denominata codiscovery learning o constructive interaction. Entrambe le tecniche prevedono la partecipazione di due utenti che sono incoraggiati a parlare, comunicandosi
le loro intenzioni prima di agire. Il vantaggio di tali tecniche deriva
da un setting più naturale, lo svantaggio è invece legato all‘aumento
di possibili variabili confondenti legate all‘interazione sociale.
Se originariamente il think aloud è stato utilizzato essenzialmente per studiare i processi cognitivi dell‘utente, una variante di tale
metodo può essere molto utile anche per raccogliere informazioni
dirette sull‘esperienza dell‘utente (Hartman, et al., 2007). La verbalizzazione in questo caso non è finalizzata solo alla spiegazione dei
comportamenti, ma, seguendo lo schema dell‘intervista semistrutturata, l‘utente è stimolato a riflettere su alcune variabili di tipo
edonistico, quali il suo vissuto emozionale, la valutazione estetica
dell‘interfaccia o le associazioni simboliche stimolate dall‘artefatto.
È chiaro comunque che questa variante della procedura può interferire sulla valutazione degli aspetti pragmatici di esecuzione del
compito. Il ricercatore deve avere ben chiari gli obiettivi della valutazione e alternare i due approcci in modo coerente con tali obiettivi. Le interviste contestuali sono sicuramente uno dei metodi privilegiati per raccogliere informazioni sulle variabili di natura edonistica (Pace, 2004).
L‘analisi del comportamento permette anche di raccogliere varie
informazioni relative allo stato emozionale dell‘utente. Esistono
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
195
svariate tecniche caratterizzate da un diverso livello di sofisticazione che si basano sull‘analisi del comportamento verbale spontaneo,
delle espressioni facciali (Partala, et al. 2006), della dilatazione delle pupille (Partala & Surakka, 2003) e della postura dell‘utente (De
Silva & Bianchi-Berthouze, 2004). Altri tipi di misure fisiologiche
sono comunenente ottenute tramite analisi della risposta galvanica o
misurazione dell‘attività cerebrale di un individuo (Picard, 1997).
Metodi verbali
Le misure soggettive riguardanti l‘interazione sono tipicamente
raccolte chiedendo all‘utente di rispondere a domande contenute in
questionari o interviste semi-strutturate. Numerosi strumenti psicometrici sono attualmente disponibili per la misurazione di aspetti
diversi della soddisfazione dell‘utente (Chin, et al. 1988), anche se
si sente ancora la mancanza di rigorose verifiche di validità e attendibilità di tali strumenti. Uno degli ostacoli principali allo sviluppo
di robusti strumenti psicometrici è legato al fatto che alcune dimensioni dell‘usabilità sono sistema specifiche, vale a dire soggette a
cambiamenti a seconda dell‘oggetto valutato e del compito. Questo
richiede continui adattamenti e revisioni di questionari, se non addirittura formulazioni ex novo, in contesti di ricerca il cui interesse
principale non risiede nella validazione di questionari e che necessitano risultati in tempi rapidi.
Recentemente si stanno moltiplicando le proposte di questionari
e scale per la misurazione di vari aspetti della user-experience. Fra
queste ricordiamo il questionario delle qualità edonistiche (Hassenzhal, et al. 2000) e il questionario di valutazione estetica delle interfacce (Lavie & Trackyinsky, 2002). Altri approcci alla misurazione
del vissuto emozionale si basano su stimoli visivi e tattili. PrEmo
(Desmet, 2002) è uno strumento sviluppato per misurare le emozioni elicitate dal design di un prodotto che richiede all‘utente di esprimere la il proprio vissuto emozionale scegliendo 1 emozione fra
14 alternative possibili (7 emozioni positive e 7 negative). Ogni alternativa è rappresentata dal personaggio di un cartone animato le
cui espressioni facciali e postura esprimono un‘emozione.
Un'altra proposta interessante è lo strumento per la valutazione
sensuale proposto da Isbister e colleghi (2006), che permette
196
Antonella De Angeli
all‘utente di comunicare il proprio stato emozionale toccando, indicando o maneggiando una serie di sculture astratte di pietra bianca
le cui forme sono correlate ad emozioni. Per esempio forme tondeggianti tendono a essere associate a emozioni positive, mentre
oggetti appuntiti tendono a essere associati a emozioni negative.
Conclusioni
Questo contributo ha presentato le principali tendenze di ricerca relative alla definizione di una metrica della qualità interattiva del
software. Il lavoro ha evidenziato un crescente interesse verso dimensioni di tipo emozionale ed edonistico in parallelo alle tradizionali dimensioni pragmatiche relative alla prestazione dell‘utente.
Questo interesse verso il concetto di esperienza, intesa come vissuto
soggettivo dell‘utente, pone una serie di problematiche nuove e richiede un approccio originale alla valutazione della qualità interattiva, basata meno sull‘effettivo comportamento di interazione e più
sul significato che tale interazione viene ad assumere per l‘utente.
Il settore dell‘esperienza dell‘utente è ancora molto giovane e al
momento metodologicamente debole. In questo contributo abbiamo
presentato la fase emergente di un settore di ricerca e design che secondo le previsioni dell‘autore è destinato ad affermarsi come la
principale metrica di valutazione delle tecnologie interattive.
Letture Consigliate
Nielsen, J. [1993]. Usability Engineering. San Francisco, CA, USA: Morgan
Kaufmann.
Norman, D. [2004]. Emotional Design: Why We Love (Or Hate) Everyday Things.
New York: Basic Books.
Sharp, H, Rogers, Y, & Preece, J [2007]. Interaction design: Beyond humancomputer interaction. New York: John Wiley & Sons, Inc. 2nd Edition
Cairns, P, Cox, A L Eds (2008) Research methods for Human-Computer
Interaction. Cambridge UK: Cambridge University Press
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
197
Bibliografia
Blythe, M. A., Overbeeke, K., Monk, A. F., & Wright, P. C. (2003). Funology:
From Usability to Enjoyment. Dordrecht, The Netherlands: Kluwer Academic
Publishers.
Carroll, J., & Thomas, J. C. [1988]. Fun. ACM SIGCHI Bulletin , 19 (3), pp. 21-24.
Chin, J. P., Diehl, V. A. and Norman, K. L. (1988). Development of an instrument
measuring user satisfaction of the human-computer interface. Proceedings of
the SIGCHI conference on Human factors in computing systems (pp. 213218). New York: ACM.
De Angeli, A., Lynch, P., & Johnson, G. I. (2002). Pleasure versus efficiency in
user interfaces: Towards an involvement framework. In W. S. Green, & P. W.
Jordan, Pleasure with products: Beyond usability (pp. 97-111). London, UK:
Taylor & Francis.
De Angeli, A., Sutcliffe, A., & Hartmann, J. (2006). Interaction, usability, and
aesthetics: what influences users' preferences? Proceedings of the 6th
conference on Designing Interactive Systems (pp. 271-280). University Park,
PA: ACM.
De Silva, R. R e Bianchi-Berthouze, N. [2004]. Modeling human affective
postures: an information theoretic characterization of posture features.
Computer Animation and Virtual Worlds, 15, 3-4, 269-276.
Ericsson, K. A. e Simon, H. A. (1984). Protocol Analysis: verbal Reports as Data.
Cambridge, MA: MIT Press.
Gaver, B., Dunne, T. Pacenti, E. (1999) Cultural Probes Interactions, 6,1 21-29.
Hassenzahl, M., Platz, A., Burmester, M., & Lehner, K. (2000). Hedonic and
ergonomic quality aspects determine a software's appeal. Proceedings of the
SIGCHI conference on Human factors in computing systems (pp. 201-208),
New York: ACM.
Hassenzahl, M., & Tractinsky, N. [2006]. User experience - a research agenda.
Behaviour & Information Technology , 25 (2), pp. 91-97.
Hassenzahl, M. (2004). The Interplay of Beauty, Goodness, and Usability in
Interactive Products. Human-Computer Interaction , 19, pp. 319-349.
Hartmann, J., De Angeli, A., & Sutcliffe, A. (2008). Framing the User Experience:
Information Biases on Website Quality Judgement. Proceedings of the
SIGCHIconference on Human factors in computing systems, New York: ACM
Press.
Hartmann, J., Sutcliffe, A., & De Angeli, A. (2007). Investigating attractiveness in
web user interfaces. Proceedings of the SIGCHI conference on Human factors
in computing systems (pp. 387-396). New York: ACM press.
198
Antonella De Angeli
Isbister, K., Höök, K., Sharp, M., and Laaksolahti, J. 2006. The Sensual Evaluation
Instrument: Developing an Affective Evaluation Tool. Full paper at CHI 2006,
nominated for best paper award
ISO [1998]. ISO 9241: Ergonomic requirements for office work with visual
display terminals (VDTs) - Part 11: Guidance on usability. Geneve:
International Organization for Standardisation.
Jordan, P. W. (2000). Designing Pleasurable Products: An Introduction to the New
Human Factors. London, UK: Taylor & Francis Ltd.
Lavie, T., & Tractinsky, N. (2004). Assessing dimensions of perceived visual
aesthetics of web sites. International Journal of Human-Computer Studies , 60
(3), pp. 269-298.
Pace, S. [2004]. ―A grounded theory of the flow experiences of Web users‖,
International Journal of Human-Computer Studies, 60, 327-363.
Partala, T., Surakka, V. [2003]. Pupil size variation as an indication of affective
processing. Int. J. Hum.-Comput. Stud. 59(1-2): 185-198 (2003)
Partala, T., Surakka, V. e Vanhala, T. [2006]. Real-time estimation of emotional
experiences from facial expressions - Interacting with Computers, 208-226
Picard, R. W. (1997). Affective Computing. Cambridge, MA, USA: MIT Press.
Sutcliffe, A., & De Angeli, A. (2005). Assessing Interaction Styles in Web User
Interfaces. Proceedings of INTERACT 2005 International Conference on
Human-Computer Interaction (pp. 405-417). Rome, Italy: Springer.
Tractinsky, N., & Zmiri, D. (2006). Exploring Attributes of Sinks as Potential
Antecedents of Emotion in HCI. In P. Fishwick (Ed.), Aesthetic Computing
(pp. 405-421). Cambridge, MA, USA: MIT Press.
Tractinsky, N., Shoval-Katz, A., & Ikar, D. (2000). What is beautiful is usable.
Interacting with Computers , 13 (2), pp. 127-145.
Misure di Qualità:
Dall‘Usabilità all‘Esperienza dell‘Utente
199
Antonella De Angeli è docente di Human-Computer Interaction presso la
Business School dell‘Università di Manchester. Antonella si occupa dello
studio del modo in cui le persone utilizzano e percepiscono la tecnologia,
allo scopo di utilizzare queste conoscenze per progettare sistemi interattivi
che siano non solo più semplici ed efficienti, ma anche più divertenti da
usare, coinvolgenti e piacevoli. Antonella ha ricevuto un dottorato di ricerca in Psicologia Sperimentale dall‘Università di Trieste, dove ha anche
trascorso 2 anni come ricercatore di post-dottorato. In seguito ha lavorato
come Senior HCI researcher per NCR in Gran Bretagna. Antonella ha lavorato per dei periodi con vari gruppi internazionali fra cui ricercatori
dell‘Oregon Graduate Institute di Portland (USA), del Loria a Nancy
(France) e dell‘IRST, attualmente fondazione Bruno Kessler, a Trento.
Antonella ha pubblicato circa 80 articoli nei principali giornali e conferenze di HCI, è regolarmente invitata a fare parte del comitato di programma
dei maggiori eventi del settore e presta servizio nel comitato scientifico di
vari giornali, fra cui l‘International Journal of Human-Computer Studies.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Analisi Cognitiva delle Interfacce Utente
Hélène Pigot – Università di Sherbrooke
[email protected]
Abstract. La valutazione dell'interfaccia utente richiede metodologie rigorose per assicurare che l'interazione soddisfi le specifiche di accessibilità,
usabilità e utilità; i due approcci principali oggi impiegati a questo scopo
affrontano il problema rispettivamente in modo empirico e analitico. Nel
caso di approccio analitico, piuttosto che focalizzare l'attenzione sulle performance dell'interazione, si studiano e applicano metodi automatici di analisi basati su strutture ben definite per valutare le proprietà cognitive
dell'interfaccia utente. In questo capitolo si esplorano le abilità cognitive
necessarie nella Human-Computer Interaction e vengono presentati i principali approcci analitici applicabili alla valutazione delle attività umane in
relazione alle interfacce utente. Questi approcci analizzano l‘interfaccia
secondo il punto di vista motorio (legge di Fitts), cognitivo (architettura
cognitiva ACT-R) o del task (GOMS); viene quindi presentata una loro
applicazione al design di un‘interfaccia rivolta a utenti con deficit cognitivi.
Keywords: interfaccia utente, approcci analitici, analisi cognitiva, valutazione, ACT-R, Fitts, GOMS
Introduzione
La valutazione dell‘Interfaccia Uomo-Computer sta diventando
sempre più importante e costituisce parte integrante del ciclo di sviluppo del sistema informatico. Così come lo sviluppo
dell‘interfaccia comporta delle sfide, la loro valutazione richiede
metodologie rigorose per accertare che esse soddisfino le specifiche
iniziali e i requisiti di accessibilità, usabilità, utilità (Nielsen & Phillips, 1993; Di Eugenio, et al., 2003). Due approcci sono comunemente usati per la valutazione di un‘interfaccia: analitici ed empirici. Una valutazione empirica è essenzialmente basata su misurazioni di performance o sull‘opinione personale degli utenti, raccolta in
202
Hélène Pigot
laboratorio o in una situazione sperimentale: questo tipo di approccio è focalizzato sull‘utente1. Gli approcci analitici, invece, non sono basati direttamente sulle performance dell‘utente, ma piuttosto
sull‘esame automatizzato dell‘interfaccia stessa, compiuto per mezzo di strutture ben definite e tecniche di analisi rigorose (Yen, et al.,
2005).
Gli approcci analitici sono suddivisi in formali ed esperti. Mentre questi ultimi consistono di metodi rigorosi sviluppati da esperti
per esaminare le interfacce, i primi sono basati su teorie delle capacità motorie, percettive e cognitive.
Gli approcci analitici formali possono a propria volta essere focalizzati sull‘analisi specifica del task o sulle particolari abilità che
sono necessarie per portarlo a termine (Fitts, 1954; Card, et al.,
1983; Anderson, 1993). Alcuni approcci descrivono sistematicamente il task, alcuni stimano il tempo richiesto per completarlo,
mentre altri simulano gli errori che si possono verificare nel compierlo. La validazione di un approccio analitico consiste nel confrontare i risultati della simulazione con quelli di prove sperimentali, in cui ad utenti reali viene richiesto di replicare il task in esame.
L‘interazione con il computer richiede abilità cognitive e percettive, come ad esempio l‘attenzione, la memoria, la capacità di risolvere problemi. La psicologia cognitiva mira a spiegare il modo in
cui il cervello umano trasforma gli input sensoriali e agisce sul
mondo circostante. Questo ramo della psicologia è caratterizzato da
un approccio scientifico alla validazione delle teorie, ma accetta
l‘esistenza di stati mentali interni in contrasto con il behaviorismo
(Neisser, 1967). Di conseguenza la ricerca nel campo della psicologia cognitiva costruisce teorie cognitive che spiegano il comportamento delle persone durante prove sperimentali nelle quali viene
isolato uno specifico aspetto del processo cognitivo. La tendenza
principale, information processing theory, confronta il cervello umano al computer. Questo modo di ragionare a proposito dei processi mentali spiega come gli stimoli sensoriali vengono raccolti,
processati e memorizzati dai buffer percettivi e dai processi di me1 Le tecniche di valutazione empirica dell‘interazione sono trattate nei capitoli 2
(Introduzione all‘Ingegneria dell‘Usabilità) e 3 (Misure di Qualità: Dall‘Usabilità
all‘Esperienza dell‘Utente). N.d.c.
Analisi Cognitiva delle Interfacce Utente
203
moria. Baddeley, Broadbent, Miller, Piaget sono alcuni dei più noti
cognitivisti. Newell e Anderson spingono oltre l‘analogia proponendo le architetture cognitive con il duplice obiettivo di unificare
le teorie cognitive e simulare automaticamente il funzionamento del
cervello umano (Anderson, 1993; Newell, 1990). Presenteremo
dapprima le abilità necessarie per interagire con il computer secondo l‘information processing theory. Viene dunque presentata
l‘architettura cognitive ACT-R derivata dall‘information
processing. Questo approccio cognitivo è confrontato con altri approcci analitici: vengono presi in considerazione due approcci: la
Fitts law, relativa alle abilità percettive e motorie, e il modello
GOMS di analisi dei task.
L‘information processing theory, per mezzo dell‘architettura cognitiva ACT-R è applicata su diverse interfacce allo scopo di stimare la velocità nell‘uso dei menu (St-Amant, et al., 2007; Byrne,
2001). Presentiamo dunque l‘applicazione degli approcci analitici
all‘interazione con un assistente contestuale usato in un ambiente
smart home (Chikhaoui & Pigot , 2008 a; Chikhaoui & Pigot , 2008
b).
1. Abilità Cognitive
La Human-Computer Interaction presuppone abilità percettive, cognitive e motorie. I sensi della vista e dell‘udito sono principalmente coinvolti nella percezione dello stato del computer. L‘impegno
cognitivo è diretto alla comprensione di ciò che sta avvenendo e al
reperimento delle informazioni rilevanti. L‘aspetto motorio
dell‘interazione riguarda principalmente il controllo delle mani per
manovrare mouse e tastiera. Nel seguito sono presentati i principali
componenti dell‘information processing coinvolti nell‘interazione.
Information processing theory
L‘information processing theory spiega in che modo gli esseri umani percepiscono le informazioni sensoriali, le interpretano, le memorizzano e selezionano le informazioni da richiamare alla memoria (Fortin & Rousseau, 2003). La Figura 1 illustra l‘elaborazione
dell‘informazione, da sinistra verso destra. La profondità di elabo-
204
Hélène Pigot
razione aumenta in accordo con il ritardo di memorizzazione, mentre man mano la specificità della modalità sensoriale diminuisce.
Presentiamo dapprima una panoramica dell‘elaborazione sensoriale,
per poi affrontare più in profondità l‘attenzione e l‘elaborazione
della memoria.
Figura 1. Percorso dell‘informazione nella Information Processing Theory
Sensory process
L‘informazione sensoriale è memorizzata in un buffer per un periodo molto breve, di circa 250 msec (Sperling, 1963). Tale informazione è specifica per ogni senso: informazioni visive e uditive sono
rispettivamente parte di specifici buffer e verranno elaborate ciascuna secondo la propria modalità sensoriale. Per evitare un sovraccarico sensoriale, un filtro seleziona solo le informazioni pertinenti.
Questo filtro ha un ruolo nel processo di attenzione, che sarà chiarito più avanti.
L‘informazione viene successivamente elaborata per riconoscere
dei pattern, sempre in modo specifico per il tipo di informazione
sensoriale. Le forme in un'informazione visiva vengono estratte
mettendo insieme caratteristiche isolate o confrontando le forme
con modelli predefiniti (Gibson, et al., 1969). La gestalt theory, sviluppata da Max Wertheimer nel 1920, spiega in che modo gli esseri
umani raggruppano le forme e percepiscono i modelli, guardando a
una lettera come a un tutt'uno, anche se alcuni punti risultano man-
Analisi Cognitiva delle Interfacce Utente
205
canti. Teorie simili spiegano il modo in qui vengono riconosciuti i
modelli uditivi.
Il designer dovrebbe concepire l'interfaccia utente secondo le teorie dell'elaborazione degli stimoli, per far si che l'informazione sia
prontamente accessibile.
Attenzione
L'attenzione gioca il ruolo cruciale di un filtro che riduce il carico
cognitivo e determina quale input debba essere elaborato. L'attenzione è definita da due caratteristiche: la selettività e la concentrazione. La selettività fu introdotta con la funnel theory da Broadbent
nel 1958 (Broadbend, 1958). Studi sperimentali condotti sull'ascolto
di stimoli uditivi mostrano che è possibile elaborare l'input sensoriale proveniente da un solo funnel per volta. Treisman sottolinea
come tale selettività è in relazione con la familiarità dello stimolo
(Treisman, 1960). Il modello di attenuazione aggiunge alla teoria
dei funnel un dizionario di attivazione che permette di dare attenzione a parole ben note. Kahneman propone quindi di suddividere
l'attenzione in un fattore conscio e uno inconscio (Kahneman &
Treisman, 1984). Ogni attività richiede attenzione, e l'attenzione è
una risorsa limitata anche se è possibile suddividere la propria attenzione fra diverse attività simultanee, un processo controllato comunque anche da stati inconsci. Quanto più uno stimolo viene elaborato in profondità, tanto maggiori risorse in termini di attenzione
saranno richieste da tale elaborazione.
Anche in questo caso è responsabilità del designer valutare le risorse di attenzione disponibili ed evitare di presentare una quantità
eccessiva di stimoli, sia visivi che uditivi, specialmente quando il
task è più complesso.
Memoria
Per tutta la durata della vita le persone usano la memoria per risolvere problemi e per riconoscere situazioni già occorse in passato.
Nella teoria cognitiva la memoria viene classificata secondo la persistenza delle informazioni. Negli studi sperimentali sulla memoria
a breve termine ai soggetti viene tipicamente richiesto di ricordare
elenchi di oggetti. Miller nel 1956 individuò la capacità della me-
206
Hélène Pigot
moria a breve termine in 5 - 9 elementi, definiti come gli elementi
che al soggetto viene richiesto di ricordare (Miller, 1956). Al contrario, la memoria a lungo termine è caratterizzata da capacità e persistenza nel tempo illimitate.
Teorie recenti chiariscono meglio il processo usato per immagazzinare informazioni nella memoria a breve termine. La memoria
di lavoro è composta di tre parti: il cosiddetto central executive controlla il flusso di informazioni tra i due buffer dedicati rispettivamente alle informazioni visive e uditive (Baddeley, 1990). Il visuospatial sketchpad trattiene informazioni visive e spaziali per aiutare
a ricordare dettagli relativi a spazio, colore, forma, movimenti, per
un tempo di 20 - 30 msec. Il phonological loop o articulatory loop
ha invece a che fare con l'informazione uditiva. Esso è composto di
una sezione a breve termine (short term phonological store) dove è
memorizzata l'informazione uditiva verbale, e un componente, l'articulatory rehearsal component, usato per trasformare il testo visivo
in un phonological code. Questo processo di trasformazione è inconsapevole e viene messo in evidenza dalla difficoltà incontrata da
alcuni soggetti nel ricordare un testo visivamente, laddove le funzioni dell'articulatory rehearsal component vengano inibite.
Studi sulla memoria a lungo termine mostrano in che modo le
persone codificano l'informazione e i vari metodi adottati per recuperarla. La memoria a lungo termine è divisa in memoria procedurale, chiamata know-how e la memoria dichiarativa, definita memoria dei fatti. Baddeley ha stabilizzato che la memoria a lungo termine è accessibile solo tramite la memoria di lavoro.
Data la limitata capacità della memoria di lavoro, in termini di
spazio e tempo (20 - 30 msec) il designer deve evitare un sovraccarico cognitivo nella risoluzione di problemi di interazione uomocomputer, tenendo conto che la memoria di lavoro sarà tanto più
impegnata quanto più il task è complesso.
2. Approcci Analitici
Tre approcci analitici sono presentati, ognuno focalizzato su uno
specifico aspetto dell'interfaccia. Per primo, la Fitts' law fornisce un
modello delle azioni motorie impiegate quando l'utente punta un
Analisi Cognitiva delle Interfacce Utente
207
pulsante nell'interfaccia grafica con il mouse (o con un dito sul
touch screen). Secondo, il GOMS analizza il task. Infine l'architettura cognitiva ACT-R modella il processo cognitivo coinvolto
nell'interazione uomo-computer. Dato il tema di questo capitolo si
enfatizza l'approccio ACT-R per modellare le abilità cognitive e
vengono usati gli altri due metodi per validarne i risultati.
Legge di Fitts
L'interazione uomo-computer può essere descritta come una sequenza di azioni di attivazione di pulsanti sullo schermo. Secondo
questo approccio la legge di Fitts stima il tempo necessario per raggiungere i bersagli visualizzati nell'interfaccia (Fitts, 1954). Il tempo necessario per usare un'interfaccia viene stimato come la somma
dei tempi necessari per toccare ogni pulsante. Questo tempo dipende dalla dimensione del pulsante W e dalla distanza D coperta dal
cursore (o dal dito) che si muove da un punto di partenza fino al
pulsante (Mackenzie, 1995) l'equazione generale al problema
dell'interazione uomo-computer è:
MT= a + b * log (D/W + 1)
(1)
in cui a e b sono costanti ricavate empiricamente.
GOMS
Il modello GOMS (Goals, Operators, Methods and Selection Rules)
descrive le azioni dell'utente decomponendole in sub-task fino a che
è possibile stimare il tempo richiesto per le azioni elementari (Card,
et al., 1983). L'obiettivo del modello GOMS è duplice: mostrare in
che modo l'utente compie sequenze di azioni e predire il tempo necessario per completarle. Il modello assume che l'utente formuli dei
goals e li decomponga in sub-goal. Quindi l'utente pianifica la strategia richiesta per realizzare i goal per mezzo di methods, definite
come sequenze di azioni conosciute (operators). Per esempio per
raggiungere l'obiettivo "salvare il documento" l'utente deve:
1.
selezionare il comando salva con nome dal menu File
2.
scrivere il nome del documento nel text-field
3.
premere il pulsante salva per confermare.
208
Hélène Pigot
Gli operatori sono definiti come azioni elementari di tipo percettivo, cognitivo o motorio, come ad esempio premere un pulsante, indicare con il mouse o decidere quale parola scrivere.
Spesso esistono molti modi di raggiungere un obiettivo. Nell'esempi precedente l'utente avrebbe potuto usare una combinazione di
tasti per attivare il comando. Le selection rules esplicitano le alternative che l'utente ha a disposizione. Il tempo necessario per ciascun operatore è determinato in base a risultati sperimentali per una
media di utenti, che conducono a un tempo medio di 1,1 sec. per
puntare un elemento, 0,2 sec. per premere un tasto, ecc. Il tempo
necessario per raggiungere un goal viene stimato sommando i tempi
relativi a tutti gli operatori usati per completare il goal. Il tempo necessario per completare il goal "selezionare il comando salva con
nome" viene quindi calcolato come:
Tsave-as = H + M + P + K = 2,8 sec.
(2)
dove H è il tempo necessario per raggiungere il mouse con la mano,
M il tempo di riflessione, P il tempo impiegato per puntare con il
mouse e K è il tempo necessario per premere un pulsante o cliccare
con il mouse.
Il modello presentato qui è una delle quattro varianti di GOMS
esistenti, il GOMS keystroke. Oltre il GOMS keystroke, il Natural
GOMS Language (NGOMSL) propone un modo automatico per la
scrittura dei modelli GOMS (Kieras, 2003).
ACT-R
L'architettura cognitiva ACT-R (Adaptive Control of Thought - Rational) è stata sviluppata a partire dalla Teoria dell'Adattamento del
Pensiero di Anderson nel 1993 (Anderson, 1993). Successivi sviluppi integrano il modello percettivo (Byrne & Anderson, 1997).
L'architettura ACT-R si basa su teorie psicologiche ed è diretta alla
simulazione e alla comprensione della capacità cognitiva umana.
Tra le numerose applicazioni dell'architettura ACT-R, l'analisi
dell'interazione uomo-computer sfrutta la simulazione della cognizione, permettendo una comprensione approfondita del modo in cui
le persone interagiscono con il computer, una stima del tempo necessario a completare l'interazione e una spiegazione dei possibili
Analisi Cognitiva delle Interfacce Utente
209
errori (St. Amant, et al., 2007). L'interazione è simulata per mezzo
di regole procedurali attivate a seconda del goal e delle informazioni disponibili in un certo momento. Tali informazioni sono disponibili attraverso i buffer che stabiliscono un collegamento con la memoria dichiarativa e con l'ambiente rappresentato da stimoli visivi e
uditivi. La memoria dichiarativa contiene tutti i fatti noti, mentre la
memoria procedurale contiene produzioni, cioè regole che spiegano
come eseguire un compito.
Inoltre, ACT-R aggiunge alla memoria il modulo visivo e il modulo motorio, questi moduli sono largamente usati nella modellazione dell‘interazione dell‘utente con l‘interfaccia.
L'interazione visiva è articolata in due fasi. Per prima cosa lo
stimolo viene localizzato nel visual-location buffer per simulare il
passaggio di attenzione. Successivamente lo stimolo viene identificato secondo le caratteristiche descritte nel modello. Lo stimolo è
quindi reso disponibile nel buffer visivo, confrontato con le regole
procedurali e salvato nella memoria dichiarativa. La fase di localizzazione e identificazione dura 185 msec. Il modulo motorio è responsabile dei comandi cognitivi diretti alla mano per premere un
pulsante o muovere il mouse.
Per simulare il ricordo e la dimenticanza ad ogni fatto della memoria dichiarativa si associa un livello di attivazione. Solo i fatti il
cui livello di attivazione supera una data soglia sono resi disponibili
alla coscienza. Nello stesso modo ad ogni regola della memoria
procedurale è associato un livello di utilità. Ciò può provocare
qualche volta la selezione di una regole falsa. Ogni livello di attivazione e di utilità sono calcolati ad ogni ciclo di decisione: questo ha
come risultato una simulazione non deterministica e consente molteplici modi di soddisfare un goal o il verificarsi di errori. I risultati
possono quindi essere analizzati esaminando la registrazione di una
particolare simulazione oppure il comportamento medio di numerose simulazioni.
3. Valutazione per mezzo di Approcci Analitici
Presentiamo adesso una valutazione eseguita con i tre approcci analitici spiegati sopra. L‘interfaccia scelta è parte di un assistente con-
210
Hélène Pigot
testuale progettato per aiutare un utente con deficit cognitivi. Di
conseguenza, l‘analisi cognitiva riveste un ruolo fondamentale. Il
risultato ottenuto è la stima del tempo di esecuzione effettuata con
ACT-R, GOMS e la legge di Fitts e viene confrontato con le performance di utenti reali.
Interfaccia utente di un assistente contestuale
L'applicazione assistente contestuale è stata sviluppata per aiutare le
persone con disabilità cognitive, come ad esempio pazienti con
danni cerebrali o ritardi mentali (Pigot, et al., 2008a; LussierDesrochers, et al., 2007). Lo scopo dell'assistente contestuale è di
agevolare l'autonomia nelle attività quotidiane e, in particolare, lo
svolgimento di compiti di cucina complessi quali, ad esempio, la
preparazione di una torta o la cottura degli spaghetti (Pigot, et al.,
2008b).
Il compito di preparazione del cibo viene suddiviso in tappe mostrate su un display touch-screen. Le due prime tappe della preparazione della ricetta consistono nella raccolta degli utensili e degli ingredienti necessari (Figura 2). Le tappe successive descrivono la
ricetta per mezzo di immagini e filmati sul display, come pure per
mezzo di informazioni che vengono comunicate all‘utente in vari
punti della cucina. L'assistente contestuale aiuta l'utente a completare la ricetta in modo soddisfacente e a ricordare il posto in cui gli
oggetti sono conservati. A questo scopo l'assistente contestuale fornisce una guida per trovare gli oggetti grazie all‘applicazione locate
application che visualizza gli oggetti da cercare. Quando un oggetto
viene selezionato sullo schermo l'assistente contestuale ricerca l'oggetto nell'ambiente per mezzo di tecniche di pervasive computing e
indirizza l'utente verso l'oggetto evidenziando la posizione in cui
esso si trova.
Descrizione del task
In questo studio simuliamo le due prime tappe della preparazione
degli spaghetti (Chikahoui & Pigot, 2008a; Chikahoui & Pigot,
2008b). Esse consistono prima di tutto nel conoscere la lista degli
oggetti necessari, siano essi utensili o ingredienti, e quindi nell'uso
Analisi Cognitiva delle Interfacce Utente
211
della locate application per trovare ogni oggetto. Ciascuno dei due
primi passi richiede tre sub-task
Figura 2. Interfaccia dell‘assistente contestuale (versione francese)
1.
attivare la locate application
2.
localizzare ogni oggetto, sia esso un utensile o un ingrediente
necessario in questa tappa, premendo il corrispondente pulsante nella locate application
3.
ritornare all'applicazione principale per conoscere il prossimo
passo della ricetta.
Qui sono coinvolte tre differenti interfacce dell‘assistente contestuale: l'interfaccia della locate application e le due interfacce
dell'applicazione contestuale che mostrano rispettivamente gli utensili e gli ingredienti necessari per la ricetta.
Per enfatizzare il processo cognitivo richiesto nell‘uso
dell‘assistente contestuale abbiamo progettato un task ricerca og-
212
Hélène Pigot
getti nel quale è necessario specificare uno alla volta tutti gli oggetti
da cercare. Ad ogni passo l‘utente deve:
1.
notificare che sa quale è l‘oggetto da cercare. Lo fa premendo
un pulsante su un Personal Digital Assistant (PDA)
2.
premere sull‘interfaccia dell‘assestante contestuale il pulsante
corrispondente.
Il tempo richiesto della prima fase del task corrisponde al tempo
impiegato dall‘utente per riconoscere l‘oggetto, dunque per accedere alla memoria dichiarativa.
Analisi cognitiva dell’assistente contestuale
Il processo cognitivo richiesto nell‘uso dell‘assistente contestuale è
simulato con l‘architettura cognitiva ACT-R. L‘operazione di ricerca di un oggetto e scelta del relativo pulsante da premere è suddivisa in tre fasi: la fase visiva, la fase di riconoscimento e la fase motoria.
In ACT-R la fase visiva consiste nella localizzazione
dell‘oggetto e nella sua identificazione. L‘utensile o l‘ingrediente
viene prima presentato nel visual-location buffer dove il modello
deve portare l‘attenzione.
Consideriamo che tutti i pulsanti sullo schermo sono oggetti,
tanto i pulsanti usati per cercare un utensile o un ingrediente quanto
quelli usati per la navigazione nell'applicazione. Ogni oggetto
dell'interfaccia è visualizzato in posizioni determinate (x,y) sullo
schermo. Queste coordinate specificano la richiesta fatta al visuallocation buffer il quale crea la conoscenza che rappresenta la posizione dell'oggetto. Successivamente l‘oggetto è identificato e registro nel buffer visivo.
La fase di riconoscimento inizia quando l'immagine dell‘oggetto
viene impressa nel buffer visivo. Questa fase implica il recupero del
l‘oggetto nella memoria dichiarativa. Senza questa fase l‘oggetto è
visto ma non riconosciuto e risulta impossibile fargli corrispondere
un nome, descriverlo o riconoscerne il modo d‘uso.
La fase motoria consiste nell'attivazione dei movimenti per mezzo di una richiesta al buffer motorio allo scopo di cliccare sul pulsante del‘oggetto. Questo processo in tre fasi viene applicato per
Analisi Cognitiva delle Interfacce Utente
213
ogni oggetto visualizzato sull'interfaccia per ognuna delle due tappe
della ricetta. Il modello che descrive la raccolta degli utensili e ingredienti si conclude quando l'ultimo oggetto è stato recuperato.
Il modello ACT-R è sviluppato usando l'ambiente ACT-R 6.
Questo modello è deterministico in quanto simula il comportamento
di un utente che non sbaglia mai.
Analisi dell’assistente contestuale con GOMS
Il task è composto dei due sub-goals:

raccogliere utensile

raccogliere ingredienti.
Figura 3. Decomposizione gerarchica del task
214
Hélène Pigot
Usando il metodo divide-et-impera questi sub-goals sono divisi fino
al livello degli operators. La possibilità di scegliere tra soluzioni
alternative non viene illustrata in questo studio: il sistema impone
all‘utente una procedura e non lascia alcuna scelta tra diversi possibili operatori. La Figura 3 mostra la rappresentazione gerarchica
delle due prime tappe. È sufficiente sommare i tempi degli operatori
per stimare il tempo complessivo del task.
Analisi dell’assistente contestuale con la legge di Fitts
La legge di Fitts stima il tempo secondo un punto di vista motorio.
Dato che l‘esperimento ha come obiettivo quello di mettere in evidenza il tempo di reazione dell‘utente, l‘interazione uomo-computer
è basata sull‘uso di due schermi touch screen:

lo schermo del PDA dove l‘utente preme sempre lo stesso pulsante identificando il nome dell‘oggetto da cercare
sull‘assistente contestuale

lo schermo dell‘assistente contestuale dove la posizione e la
dimensione dei pulsanti sono variabili.
L'utente sta in piedi a una distanza di circa 30 cm dallo schermo
dell‘assistente contestuale. La posizione di partenza è con le mani a
riposo vicino al PDA. I soggetti selezionano direttamente gli oggetti
visualizzati, toccandoli con il dito indice. Dopo ogni azione di puntamento l'utente ritorna alla posizione di partenza, e ripete la procedura dall‘inizio.
Nome
A
[cm]
W
[cm]
Tempo
[ms]
Pentola
30
5,8
614
Pulsante ―Suivant‖
30
7,6
553
Pulsante ―Cercare‖
30
3,8
713
Tabella 1. Stima del tempo necessario per premere un pulsante secondo la
legge di Fitts. A e W rappresentano rispettivamente la lunghezza e larghezza del pulsante.
Il tempo necessario per attivare ciascun elemento dell‘interfaccia è
stimato come la somma tra il tempo necessario per premere il pul-
Analisi Cognitiva delle Interfacce Utente
215
sante sul PDA e il tempo per premere il pulsante sull‘interfaccia
dell‘assistente contestuale. Dato che tutti i pulsanti sul PDA hanno
la stessa dimensione, il tempo necessario per premerli rimane costante quando stimato per mezzo della legge di Fitts (615 ms). Invece il tempo per premere il pulsante sull‘interfaccia dell‘assistente
contestuale dipende dalla dimensione del pulsante come appare
nell'interfaccia dell‘assistente contestuale (Tabella 1). Le variazioni
tra i tempi stimati sono dovute alle diverse larghezze dei pulsanti
ma non alla distanza tra la posizione iniziale e il pulsante, che rimane uguale. La dimensione del pulsante della pentola è uguale a
quella dei pulsanti degli altri utensili e ingredienti.
Utente
[s]
Fitts
[s]
GOMS
[s]
ACT-R
[s]
Tappa 1:
Raccogliere
utensile
28,286
13,708
29,750
24,050
Tappa 2:
Raccogliere
ingredienti
27,236
17,332
35,800
30,650
Totali
55,522
31,040
65,550
54,700
Tabella 2. Stima del tempo necessario al completamento delle due prime
tappe dell‘interazione con l‘assistente contestuale.
Confronto dei risultati delle valutazione analitiche
dell’Assistente Contestuale
I tre diversi approcci per la stima dell‘interazione sono stati valutati
confrontandone i risultati con misure sperimentali su 10 utenti reali
impegnati nelle prime due tappe dell‘esecuzione di una ricetta con
l‘aiuto dell‘assistente contestuale. Gli utenti campione erano maschi
di età compresa tra 27 e 32 anni, familiarizzati con l‘uso del computer. Ad ognuno è stato chiesto di completare 5 volte un task che richiedeva la pressione di 25 pulsanti sul PDA e di 25 pulsanti corrispondenti sull‘assistente contestuale. Il tempo medio viene calcolato sui 5 esperimenti per ognuno dei 10 utenti. La tabella 2 mostra il
tempo di esecuzione delle prime due tappe della ricetta stimato con
216
Hélène Pigot
i tre approcci in confronto a quello misurato sperimentalmente. Il
tempo stimato con la legge di Fitts è significante inferiore a quello
reale. Il tempo stimato con ACT-R è quello che approssima meglio
i risultati degli utenti.
Figura 4. Il progredire nel tempo del task di raccolta degli utensili.
La Figura 4 espone dettagliatamente i risultati relativi alla tappa di
raccolta degli utensili premessi che richiede la pressione di 11 pulsanti. I risultati seguono un andamento lineare rispetto al tempo. La
legge di Fitts sottostima il tempo per ciascun oggetto. A eccezione
dei pulsanti di navigazione dell‘interfaccia, ogni pulsante ha la stessa grandezza risultando in un tempo di attivazione uguale. Dunque
la pendenza è minore rispetto alle altre curve. I risultati stimati con
GOMS e ACT-R somigliano a quelli misurati sperimentalmente. Il
tempo per premere un pulsante è in media più alto con GOMS
(2,550s) che con ACT-R (2,100s). Durante la prima tappa la stima
di GOMS è più accurata rispetto a quella effettuata con ACT-R,
mentre è vero il contrario durante la seconda tappa. Nessuno dei
Analisi Cognitiva delle Interfacce Utente
217
metodi descritti infatti stima l‘esperienza acquisita dall‘utente
nell‘uso del sistema.
Le analisi effettuate per mezzo di GOMS e ACT-R danno risultati più conformi alla realtà rispetto alla legge di Fitts. Nel nostro
caso la simulazione con ACT-R risulta quella più interessante per il
futuro: i risultati convalidano il modello ACT-R che può estendersi
in un modello non deterministico. Questo modello simulerà gli errori umani, in particolar modo quelli dovuti alla dimenticanza e gli
errori di metodo. Questi errori sono spesso commessi da persone
con deficit cognitivi alle quali l‘assistente contestuale è dedicato.
Conclusioni
I metodi analitici di valutazione dell‘interfaccia utente permettono
di prevedere l‘impegno cognitivo dell‘utente, il modo e il tempo
d‘utilizzazione dell‘interfaccia. Concepire queste analisi fin
dall‘inizio del percorso di sviluppo dell‘interfaccia permette di confrontare diverse soluzioni senza coinvolgere gli utenti.
L‘interazione dell‘utente con il computer viene suddivisa nelle sue
componenti: l‘azione percettiva, la riflessione cognitiva e il comportamento motorio. Secondo l‘aspetto che desidera analizzare, il
designer sceglierà un diverso approccio analitico. I modelli basati
sulla legge di Fitts stimano l‘interazione come l‘azione motoria di
mirare una bersaglio. Questo modello, facile da applicare, permette
di scegliere soluzioni di interfaccia che massimizzano la velocità di
esecuzione. Basta costruire la lista delle azioni elementari e sommare il tempo richiesto da ciascuna.
Se il designer dell‘interfaccia vuole invece capire il modo di fare
dell‘utente, è necessario ricorrere al modello GOMS. Anche questo
approccio stima il tempo necessario all‘esecuzione di un task, ma in
più permette di descrivere il comportamento. La sequenza di azione
elementari è raggruppata in metodi e goals, mettendo in evidenza le
diverse possibili strategie per raggiungere un obiettivo.
Se infine il designer vuole descrivere il carico cognitivo richiesto nell‘operare l‘interfaccia, l‘interazione deve essere analizzata
per mezzo di un modello cognitivo. Abbiamo proposto
l‘architettura ACT-R che è basata sulle teorie cognitive. Questa ar-
218
Hélène Pigot
chitettura simula il tempo necessario per terminare un task, come
pure gli errori cognitivi dovuti alla dimenticanza o agli errori
nell‘uso dell‘interfaccia.
Gli approcci analitici aiutano a confrontare diverse versione della stessa interfaccia stimando e spiegando l‘efficacia di ogni soluzione nonché la facilità con qui l‘utente utilizzerà l‘interfaccia o sarà in grado di superare un problema. Abbiamo infine mostrato come
i risultati analitici si rapportano alle misurazioni reali effettuate grazie a utenti campione. Una volta appurato che l‘analisi fornisce risultati attendibili sull‘interazione diviene facile analizzare l‘impatto
del cambiamento durante lo sviluppo dell‘interfaccia. Basta cambiare i componenti o la sequenza d‘uso nel modello per stimare la
conseguenza sul tempo di utilizzazione o sulla possibile incidenza
delle errore.
Ringraziamenti: Questo capitolo non sarebbe mai esistito senza il
contributo del CRS4, di Sardegna Ricerche, e soprattutto la collaborazione di Alessandro Soro. Vorrei anche ringraziare Belkacem
Chikhaoui, senza il cui impegno non mi sarebbe stato facile spiegare in questo capitolo l‘importanza pratica degli approcci analitici.
Bibliografia
Anderson, J.R. [1993] Rules of the mind. Hillsdale, NJ :Lawrence. Erlbaum
Associates.
Baddeley, A.D. [1990] Human Memory, Theory and Practice. Lawrence Erlbaum
Associates.
Broadbend, D.E. [1958] Perception and communication. London: Pergamon Press.
338p.
Byrne, M. D. [2001] ACT-R/PM and Menu Selection : Applying a Cognitive
Architecture to HCI. International Journal of Human Computer Studies, 44, pp
41-84.
Byrne, M. D., Anderson J.A. [1997] Enhancing ACT-R's perceptual-motor abilites.
In Proceedings of the Nineteenth Annual Conference of the Cognitive Science
Society. Stanford University, p. 880. Mahwah, NJ: Erlbaum.
Card S.K., Moran T.P. Newell A. [1983] The psychology of Human-computer
interaction. Mahwah, NJ: Lawrence Erlabaum Assosciates.
Analisi Cognitiva delle Interfacce Utente
219
Chikhaoui B, Pigot H. [2008a]. Evaluation of a contextual assistant interface using
cognitive Models. In proceedings of the 5th International Conference on
Human-Computer Interaction , Venice, Italy, 29-31 October 2008
Chikhaoui B, Pigot H. [2008b] . Simulation of a human machine interaction :
locate objects using a contextual assistant. In Proceedings of the 1st
International North American Simulation Technology Conference, Montréal
Canada. 13-15 August 2008.
Di Eugenio B., Haller S., Glass M. [2003] Developpment and evaluation of NL
interfaces in a small shop. AAAI Spring Symposium on Natural Language
Generation in Spoken and Written Dialogue: 1-8.
Fitts , P.M. [1954] The Information Capacity of the Human Motor System in
Controlling the Amplitude of Movement. Journal of Experimental Psychology,
47 (6) pp 381-391.
Fortin C., Rousseau R, [2003] Psychologie cognitive. Une approche de traitement
de l’information. Presses de l‘université du Québec. Télé-université
Gibson, E. J., Shapiro, F., Yonas A. [1969] Principles of perceptual Learning and
Development. Englewood Cliffs, NJ Prentice Hall
Kahneman, D., Treisman, A. [1984] Changing views of attention and automaticity
In R. Parasuraman, D.R. Davies (eds), Variations of Attention. New York :
Academic Press.
Kieras, D.E. [2003] Goms models for tasks analysis. In D. Diaper & n.A. Stanton
(Eds), The Handbook of task analysis for human-computer Interaction,. Pp 83116. Mahwah, NJ: Lawrence Erlbaum Assosciates.
Lussier-Desrochers D., Lachapelle Y., Pigot H., Bauchet J. [2007] Apartments for
people with intellectual disbility: Promoting innovative community living
services. In 2nd International Conference on Intellectual Disabilities/ Mental
Retardation.
Mackenzie, I. S. [1995] Movement time prediction in human-computer interfaces.
Readings in Human-computer interaction, pp 483-493.
Miller G., [1956] The Magical Number Seven, Plus or Minus Two: Some Limits on
Our Capacity for Processing Information. The Psychological Review, 1956,
vol. 63, Issue 2, pp. 81-97.
Neisser, [1967] Cognitive psychology. Englewoods Cliffs, NJ: Prentice Hall.
Newell, A. 1990] Unified theories of cognition. Cambridge,Ma : Harvard
University Press.
Nielsen J. and Phillips V. [1993] Estimating the Relative Usability of Two
Interfaces : Heuristic and Empirical Methods Compared. In Proceedings of the
INTERACT ‘93 and CHI ‘93 Conference on Human Factors in Computing
Systems: 214-221.
Pigot H., Lussier-Desrochers D., Bauchet J.,Giroux S., Lachapelle Y. [2008a]. A
Smart Home to Assist Recipe Completion. In A. Mihailidis, J. Boger, H. Kautz
220
Hélène Pigot
and, L. Normie, eds. Technology and Aging, Selected Papers from the 2007
International Conference on Technology and Aging, Volume 21 Assistive
Technology Research Series. 8.
Pigot H., Giroux S. Bauchet J. [2008b]. Assistive Devices for People with
Cognitive Impairments. In Sumi Helal, Mounir Mokhtari, and Bessam
Abdulrazak, The Engineering Handbook of Smart Technology for Aging,
Disability, and Independence: Computer and Engineering Design and
Applications, John Wiley & Sons.
Sperling, G. [1963]. A model for visual memory tasks. Human Factors, 5, pp 19-31.
St Amant R.., Horton T., Ritter E. [2007] Model-Based Evaluation of Expert Cell
Phones Menu Interaction. ACM Transactions on Computer-Human
Interaction, 14 (1), pp 1-24.
Treisman, [1960] Contextual cues in selective listening. Quarterly Journal of
Experimental Psychology, 12, 242-248.
Yen B., Hu P., and Wang M. [2005]. Towards effective Web site designs: A
framework for modeling, design evaluation and enhancement. In Proceedings
of IEEE International Conference on e-Technology; e- commerce, and eService (EEE05). pp 1-6.
Hélène Pigot, docente di informatica e bachelor di terapia occupazionale è
professore presso l'Università di Sherbrooke in Québec, Canada, e ricercatrice presso il laboratorio Domotique Mobile (DOMUS) della stessa Università. I suoi interessi di ricerca riguardano gli strumenti di supporto per
utenti con indebolimento cognitivo per cause diverse (trauma cranico cerebrale, ritardo mentale, schizofrenia, malattia di Alzheimer), lo sviluppo
di protesi cognitive per facilitare l'autonomia nell'ambiente domestico e
sociale, e la verifica degli stessi strumenti supportata dall'analisi cognitiva
delle attività umane.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Interfacce Utenti Multi-Dispositivi
Fabio Paternò – Laboratorio Interfacce Utenti dell‘Istituto di
Scienza e Tecnologie dell‘Informazione del Consiglio Nazionale delle Ricerche
[email protected]
Abstract. Questo articolo mira a fornire una discussione su come ottenere
interfacce utenti che si adattano a diversi dispositivi preservandone
l‘usabilità. A questo scopo, esso analizza e discute lo stato dell‘arte in termini di approcci, criteri di progettazione e strumenti automatici; e mostra
esempi di applicazione di tali concetti. L‘obiettivo è di consentire di comprendere lo spazio delle possibili soluzioni nell‘ambito dell‘adattamento al
dispositivo sia in fase di progettazione che di esecuzione al fine di applicarle meglio e stimolare a pensare a nuove soluzioni.
Keywords: HCI, Ambienti Multi-Dispositivi, Adattamento, Ubiquitous
Computing.
Introduzione
Le motivazioni per affrontare le problematiche relative alle interfacce utenti multi-dispositivi sono sotto gli occhi di tutti. La nostra
realtà quotidiana è caratterizzata dalla presenza di un numero sempre crescente di dispositivi informatici interattivi. Nel mercato di
massa vengono proposti continuamente nuovi dispositivi con capacità di calcolo e risorse di interazione sempre maggiore. Il risultato
è una offerta tecnologia che spazia da orologi con schermi interattivi a display delle dimensioni di una parete. Quindi diventa fondamentale proporre delle soluzioni che consentano agli utenti di sfruttare questa abbondanza tecnologica. Questo implica la capacità delle interface utenti di adattarsi al variare delle risorse di interazione.
Il punto di vista di chi scrive è quello di un informatico anomalo,
ovvero una persona che ha una formazione informatica ma che è
222
Fabio Paternò
stato uno dei primi in Italia, ormai una ventina di anni fa, a capire
l‘importanza della disciplina chiamata human-computer interaction
(HCI) (Paternò, 2004). Questo implica non vedere più l‘informatica
in modo tradizionale, ovvero come una disciplina orientata essenzialmente a trovare soluzioni per fare i calcoli più velocemente, ma
vederla come una disciplina che mira a fornire ad un numero sempre più ampio di utenti la possibilità di interagire e comunicare informazioni in modo usabile ed accessibile. Il successo del Web è un
chiaro esempio di questa visione, che ora può sembrare anche un
po‘ banale ma che per molti anni non è stata facilmente recepita dal
mondo accademico italiano.
Quindi questo capitolo cercherà di fornire una discussione delle
problematiche relative ad ambienti caratterizzati dalla presenza di
vari tipi di dispositivi, in particolare sistemi desktop e mobile. Questa discussione è basata sulle esperienze maturate in vari progetti, in
particolare progetti Europei che hanno coinvolto vari gruppi sia in
ambito di ricerca che di aziende. Gruppi che spesso hanno avuto
una caratterizzazione multi-disciplinare coinvolgendo non solo informatici ma anche esperti di psicologia cognitiva, designers, esperti dei domini applicative considerati, ecc. Il mio lavoro si è svolto
nel Laboratorio Interfacce Utenti dell‘Istituto di Scienza e Tecnologie dell‘Informazione del Consiglio Nazionale delle Ricerche, che
si focalizza nello sviluppo di soluzioni software e tecnologiche per
interfacce utenti che siano accessibili nei più disparati contesti di
uso.
1. Concetti di Base
Per poter meglio seguire la discussione è utile richiamare alcuni
concetti di base. Il primo è quello relativo all‘adattamento e la prima distinzione da fare tra le tecniche dell‘adattamento è quella tra
adattabilità ed adattività. Una soluzione è adattabile quando ha la
capacità di modificare aspetti su richiesta esplicita dell‘utente in accordo a opzioni predefinite. Un tipico esempio è un‘applicazione
dove vi sono alcuni profili di accesso predefiniti (esperto, intermedio, iniziale), all‘inizio della sessione l‘utente ne sceglie uno e poi
navigherà e riceverà informazione in modo conseguente alla scelta
Interfacce Utenti Multi-Dispositivi
223
iniziale. Invece, una soluzione è adattiva quando ha la capacità di
modificare aspetti dinamicamente senza richiesta esplicita
dell‘utente. Quindi questo implica che nel sistema vi sono delle regole che a seconda di quello che viene rilevato determinano come
modificare le modalità di interazione.
Gli aspetti che si possono adattare nelle interfacce utenti sono di
tre tipologie:

le presentazioni (nella scelta di modalità, layout, attributi grafici, …)

il comportamento dinamico (nella scelta del modello di navigazione, l‘abilitazione e disabilitazione dinamica delle tecniche di
interazione, …)

il contenuto dell‘informazione che viene presentata.
Noi quindi vedremo come l‘adattamento si applica per gestire ambienti che sono disponibili a causa delle tendenze principali tecnologiche caratterizzate dalla presenza di vari tipi di dispositivi interattivi (desktop, cellulari, PDAs, TV digitale, dispositivi vocali, …).
Questo ha anche portato ad una evoluzione nei linguaggi usati per
specificare e programmare il comportamento interattivo, con una
attenzione sempre maggiore a linguaggi capaci di descrivere i principali aspetti da considerare astraendo dalla miriade di dettagli implementativi associati ai vari possibili dispositivi e relativi linguaggi di programmazione.
Quello che caratterizza gli ambienti multi-dispositivi è la variabilità del contesto di uso. Come indicato nella Figura 1 il contesto
di uso è caratterizzato da tre dimensioni principali:
utente, che è caratterizzato dalle sue preferenze, background, obiettivi, ecc.
dispositivo, che è caratterizzato dalle sue risorse di interazione
(ampiezza schermo, supporto vocale, modalità di interazione,
ecc.)
ambiente, che a sua volta può essere distinto in quello fisico (luce,
rumore, temperatura, posizione, …) e sociale, che indica chi
sono le persone che sono vicino e soprattutto che tipo di relazione abbiamo con esse perché questo può avere un impatto
224
Fabio Paternò
sulla scelta dell‘informazione che vogliamo condividere con
loro.
Figura 1. Il Contesto di Uso
2. Gli Ambienti Multi-Dispositivi
Negli ultimi anni vari approcci sono stati adottati e proposti per la
progettazione e sviluppo di interfacce utenti in ambienti multidispositivi. Una prima classificazione di questi approcci è:
Soluzioni Manuali, che implicano essenzialmente che una versione
per ciascuna tipologia di dispostivi che si vuole supportare viene sviluppata. È chiaramente una soluzione costosa in termini
di risorse umane e temporali richieste, in particolare con il crescere delle tipologie di dispositivi che si vuole supportare.
Transcoders, in questo caso viene effettuate una traduzione automatica da un linguaggio per un tipo di dispositivo ad un altro
(uno dei primi esempi erano i transcoders da HTML a WML). I
criteri che solitamente adottano sono sintattici e quindi le soluzioni che ne derivano hanno spesso una limitata usabilità, in
Interfacce Utenti Multi-Dispositivi
225
quanto cercano di forzare una progettazione per un tipo di dispositivo ad un altro che ha caratteristiche diverse.
Style sheets, essi consentono di cambiare il modo di presentare vari
tipi di informazione in base al tipo di dispositivo; rappresentano quindi un utile supporto anche se sono in realtà una soluzione parziale in quanto non consentono di modificare la struttura
dell‘applicazione interattiva (cosa che talvolta è utile per meglio supportare l‘utente tramite un dispositivo di tipologia diversa).
Information Visualization (Spence, 2007), questa è un‘area che ha
studiato varie tecniche utili per rappresentare grandi quantità di
dati in modo da poter accedere facilmente alle informazioni associate. Tali tecniche possono essere applicate utilmente quando si accede tramite dispositivi con schermi piccoli. Il problema è che spesso richiedono notevoli risorse di calcolo che piccoli dispostivi possono non avere.
Approcci basati su modelli, dove l‘idea di fondo è di evidenziare
nei modelli le scelte principali di progettazione e poi avere delle trasformazioni che le adattano ai dispositivi correnti. In questo caso un aspetto delicato è trovare un giusto equilibrio tra il
livello di astrazione e la possibilità di controllare a pieno i risultati dell‘adattamento da parte del progettista.
Un aspetto che caratterizza gli ambienti multi-dispositivi è la variabilità delle dimensioni degli schermi. I Personal Computer (PC) solitamente variano tra 800x600 e 1800x1440 pixel, i PDAs solitamente variano tra 240x240 e 480x640 pixel, i cellulari solitamente
variano tra 128x128 e 240x240 pixel. L‘IPhone, che è a cavallo tra
queste due ultime categorie, ha attualmente una risoluzione di
320x480 pixel. In genere, le dimensioni dello schermo variano più
tra dispositivi mobili che tra i sistemi desktop. É bene ricordare che
la legge di Moore cambia continuamente questi numeri! Essa infatti
dice sostanzialmente che il numero di componenti in un chip raddoppia ogni 18 mesi, quindi le capacità di memoria o di elaborazione dei sistemi informativi evolvono di conseguenza.
Quando si parla di dispositivi mobili in realtà si parla di una categoria molto variegata al suo interno. Infatti, se consideriamo i cel-
226
Fabio Paternò
lulari possiamo facilmente notare che variano in termini di softkeys
(i tasti fisici che forniscono). Un altro aspetto che può variare è la
modalità di base di interazione. Alcuni consentono di poter selezionare liberamente qualsiasi punto dello schermo senza restrizioni
(come accade con il mouse per i sistemi desktop), mentre altri danno la possibilità di fare solo 5 attività di base: spostare il cursore a
destra o sinistra, in alto o in basso, sempre sequenzialmente, senza
poter saltare liberamente da un punto all‘altro), oppure di selezionare l‘elemento corrente nell‘interfaccia utente (vedi Figura 2), quindi
mancano di un dispositivo di puntamento.
Figura 2. Esempio di cellulare con interazione a 5 vie
L‘interazione con i dispositivi cellulari deve tener conto delle loro
caratteristiche particolari. Il display è piccolo e la sua ampiezza può
variare molto. L‘input testuale è lento. Talvolta non c‘è dispositivo
di puntamento. Le softkeys sono usate per attivare i comandi ma il
loro numero e scopo varia a secondo del dispositivo. Spesso
l‘utente ha da pagare per accedere ai dati. Buoni cellulari supportano anche l‘accesso tramite WLAN diminuendo il tempo di scaricamento durante la navigazione, e migliorano continuamente in termini di caratteristiche e possibilità.
Al fine di ottenere soluzioni usabili nell‘interazione mobile c‘è
da tenere presente una serie di fattori. É importante minimizzare
Interfacce Utenti Multi-Dispositivi
227
l‘input testuale, e sfruttare gli elementi del dispositivo, come gli accesskeys. É utile mantenere un certo livello di coerenza tra le versioni di un‘applicazione per piattaforme diverse, in modo che l‘uso
di una versione per un dispositivo diverso non richieda sforzi eccessivi di apprendimento. É importante prevenire gli errori dell‘utente
in quanto un accesso sbagliato può richiedere tempo (e quindi costi)
per poter tornare ad una situazione corretta. Per questo lo scopo degli elementi dell‘interfaccia deve essere chiaro e bisogna evitare di
sovraccaricare l‘interfaccia con molti elementi. É anche utile limitare il bisogno di scrolling. In generale, c‘è da tener presente che
l‘accesso tramite dispositivo mobile è breve. Gli utenti non vogliono usare dispostivi con limitate risorse per lunghe sessioni interattive in quanto sarebbe alquanto scomodo. Quindi, l‘accesso tramite
dispositivo mobile è solitamente orientato a piccole quantità di informazioni che servono al momento.
Virpi Roto (Roto, 2006), ricercatrice di Nokia Research, nella
sua tesi di dottorato evidenzia bene come l‘usabilità nei dispositivi
mobili si differenzia da quella nei sistemi desktop perché i sistemi
desktop sono molto standardizzati in termini di hardware e software. Viceversa nei dispostivi mobili c‘è una notevole variabilità in
termini di ampiezza di schermi, tasti disponibili (sia in termini di
numero che posizione e forma) e poi come questi tasti possono essere sfruttati dai microbrowser Web che consentono la navigazione
nelle applicazioni. Questi microbrowser Web sono diversi dai
browser a cui siamo abituati nei sistemi desktop e variano sensibilmente anche tra di loro (ad esempio nel modo in cui associano i tasti del telefono a dei comandi).
In ambito W3C (W3C, 2008) c‘è stato recentemente uno sforzo
per fornire guidelines per ottenere interfacce utenti usabili per dispositivi mobili. Esse considerano vari punti:
Comportamento generale, ovvero sfruttare le capacità del dispositivo per fornire una migliore user experience (quindi fornire
una migliore user experience su dispositivi più capaci);
Navigazione e Links; Tenere brevi gli URIs delle home dei siti,
fornire minimo supporto alla navigazione in cima alla pagina;
228
Fabio Paternò
Layout e Contenuto; Cercare di limitare lo scrolling ad una sola
direzione, assicurarsi che il contenuto che è centrale alla pagina
preceda quello meno importante;
Definizione pagina; Fornire un titolo della pagina breve ma descrittivo, non usare frames, non usare tavole annidate e tavole
per il layout;
User Input; tenere al minimo il numero di keystrokes, evitare input
testuale libero quando possibile, fornire valori pre-selezionati
di default quando possibile.
3. Comprendere le Interfacce Utenti MultiDispositivi
Per poter effettuare una progettazione efficace in ambienti multidispositivi è importante aver chiaro lo spazio delle possibili scelte.
In particolare. Va considerato lo spazio che mette in relazione i
compiti (task in inglese) che gli utenti intendono svolgere e le piattaforme interattive considerate. Infatti una regola principale
dell‘usabilità e di focalizzarsi sull‘utente e le attività che intende
svolgere. Qui si intende per piattaforme gruppi di dispositivi che
hanno risorse di interazione simili (desktop, PDA, cellulari, dispositivi vocali, …)
I casi possibili sono essenzialmente quattro:
Stesso task nello stesso modo in piattaforme diverse, ad esempio
un login richiede una interazione simile per qualsiasi piattaforma si consideri;
Stesso task su piattaforme diverse ma in modo diverso, ovvero
l‘attività da svolgere è la stessa ma vi sono tecniche di interazione diverse che le supportano. Tali tecniche hanno quindi la
stessa semantica ma richiedono risorse di interazione diverse
che quindi sono più adatte per certe piattaforme che per altre;
Dipendenze tra task eseguiti su piattaforme diverse, questo implica che il fatto di aver eseguito un‘attività attraverso un certo
dispositivo abiliti o disabiliti la possibilità di svolgere un‘altra
attività attraverso un altro dispositivo;
Interfacce Utenti Multi-Dispositivi
229
Task significativi solo in un tipo di piattaforma, in questo caso ci
sono delle attività che sono significative se si utilizza un certo
dispositivo ma non con un altro e quindi se si cambia dispositivo non ha più senso supportarle.
Vediamo alcuni esempi concreti per meglio capire questa classificazione di casi. Sicuramente a nessuno viene in mente di organizzare un viaggio aereo tramite un cellulare perché questa attività richiede di accedere ai siti di diverse compagnie aeree, confrontare i
risultati, modificare le richieste per vedere se si trovano soluzioni
più vantaggiose. Queste sono attività che si fanno bene seduti con
uno schermo ampio a disposizione. Viceversa, se si è in auto e si
vuole sapere se il volo che si vuole prendere è in orario o in ritardo
l‘unica possibilità è l‘uso di un cellulare. Analogamente, in una applicazione cinematografica, la decisione di quale film vedere può
richiedere l‘accesso a critiche dei film disponibili e relativi trailer
che si fa meglio con un sistema desktop mentre verificare se ci sono
ancora posti disponibili al cinema all‘ultimo momento mentre si è
al bar con gli amici si fa decisamente meglio con il cellulare.
Figura 3. Esempio Stesso Task, Interfacce Diverse.
230
Fabio Paternò
Se torniamo alla classificazione precedente, vediamo come in
Figura 3 si fornisce un esempio del caso stesso task ma supportato
in maniera differente. Qui vediamo una versione precedente del sito
delle ferrovie italiane. Vediamo, ad esempio, come la selezione del
giorno e dell‘ora nella versione desktop avviene tramite dei pulldown menu, alcuni dei quali, quando selezionati devono mostrare
una lista di possibili valori notevolmente lunga. Siccome sul dispositivo mobile lo spazio a disposizione è scarso queste due attività
sono supportate in modo differente: la scelta del giorno viene specificata non selezionando da una lista di possibili valori ma immettendo direttamente i valori di interesse, mentre per le ore sono state
predefinite alcune fasce in numero molto limitato da cui è possibile
scegliere quella di interesse.
Figura 4. Altro Esempio di Stesso Task, Interfacce Diverse.
Un altro esempio dello stesso caso è presentato in Figura 4. In questo esempio consideriamo due versioni differenti del sito del quotidiano La Repubblica. Anche qui possiamo notare che anche se entrambi consentono l‘accesso agli stessi articoli le interfacce utenti si
differenziano consistentemente. Nella versione desktop si fa maggior uso di immagini, anche più grandi, l‘informazione è strutturata
su più colonne, con servizi aggiuntivi (come le news) e maggiori
pubblicità. Mentre il disegno della versione mobile è più sobrio e
lineare per facilitare l‘accesso da dispositivi con capacità più limitate.
Interfacce Utenti Multi-Dispositivi
231
La Figura 5 ci mostra un esempio del caso in cui entrambe le piattaforme supportano lo stesso task principale ma con un diverso livello
di decomposizione. Ovvero in un caso vi è il supporto di un numero
di task secondari che non c‘è nell‘altro caso. Nell‘esempio il task
principale è di effettuare una prenotazione alberghiera. Vediamo
come nel caso del dispositivo mobile si forniscono solo le informazioni essenziali (nome, data di arrivo e partenza, contatto telefonico) mentre nel caso di accesso desktop si rende possibile specificare
una serie di preferenze (come il tipo di stanza) e di dati personali
(come il numero del documento di identità).
Figura 5. Stesso task principale ma con diversa decomposizione.
L‘ultimo esempio di questa sezione riguarda il caso in cui vi sono
dipendenze tra task eseguiti su diverse piattaforme. In particolare,
l‘esempio mostra il caso in cui l‘utente tramite l‘interfaccia desktop
accede ad un servizio di prenotazione di un volo aereo, che quando
è andato a buon fine abilita automaticamente la possibilità di accedere tramite il cellulare ad informazioni in tempo reale relative al
232
Fabio Paternò
volo selezionato. Quindi un‘attività svolta tramite il desktop abilità
successivamente un‘attività tramite il cellulare (Figura 6).
Figura 6. Esempio di dipendenza tra attività attraverso diverse piattaforme.
Per quanto riguarda esempi di attività che hanno senso con una piattaforma ma non con altre un esempio interessante è la partita di calcio. Vi fu un tempo in cui c‘era chi era sicuro che questa poteva essere la killer application che avrebbe fatto esplodere il mercato dei
cellulari. Questo non è accaduto finora. Non è un problema tecnologico, infatti è possibile vedere partite di calcio su alcuni tipi di
cellulari ma ben pochi si sognano di farlo. Il motivo è abbastanza
semplice: le persone guardano le partite di calcio per rilassarsi e
queste durano almeno 90 minuti. Stare 90 minuti avendo attaccato
alla faccia un cellulare (anche di ultima generazione) è qualcosa di
alquanto frustrante, considerando che i giocatori che vengono mostrati sono piccolini ed il pallone quasi invisibile. Cosa ben diversa
di quando si sta seduti sul sofà con di fronte uno schermo di 40-50
pollici (e magari nel frattempo sorseggiando qualche bibita). Altra
cosa sono le radiocronache che consentono in situazioni particolari
Interfacce Utenti Multi-Dispositivi
233
(ad esempio mentre si guida) di essere informati o servizi in tempo
reale che aggiornano sullo stato del risultato. Questi sono servizi
che forniscono informazioni limitate e quindi possono essere veicolati tramite canali con maggiori limitazioni. Conseguentemente, è
chiaro che anche la TV fruita tramite cellulare richiede un ripensamento dei contenuti proposti che non possono essere quelli della
TV classica.
4. La Progettazione di Interfacce Utenti MultiDispositivi
La progettazione di interfacce utenti multi-dispositivi può seguire
quattro strategie di fondo:
Sviluppo specifico per ogni piattaforma, viene sviluppata una
versione diversa per piattaforma, questo consente di avere pieno controllo su di esse ma è chiaramente costoso in termini di
tempo e lavoro;
Sviluppo di una versione con differenti sottoversioni, quindi si
crea una versione con la possibilità di indicare piccole modifiche per piattaforme diverse;
Sviluppo di una versione generale, una unica versione generica
che poi verrà specializzata per le varie piattaforme da qualche
supporto a run-time;
Adattamento automatico, si crea la versione per una piattaforma e
poi c‘è un supporto automatico che la adatta alle altre piattaforme.
Un esempio di sviluppo specifico per ogni piattaforma è il Sito Web
di Amazon. Come mostrato in Figura 7 vi sono due versioni diverse
a seconda se si accede tramite sistema desktop o mobile1 e, come si
può ben vedere la differenza è notevole in quanto la versione mobile è alquanto essenziale, supporta il task principale (ricerca di informazioni) e non fornisce molti dettagli su contenuti ed anticipazioni.
1 http://www.amazon.com/anywhere
234
Fabio Paternò
Figura 7. Esempio di versioni diverse a seconda della piattaforma.
Un esempio diverso è proposto nel tool Damask (vedi Figura 8) sviluppato nella tesi di dottorato all‘Università di Berkeley di James
Lin (Lin 2008). L‘idea in questo caso è di avere un ambiente di editing che supporta la conversione di grafici a mano in corrispondenti
specifiche della interfaccia utente. L‘ambiente consente anche di
dire se una parte della specifica è valida per tutte le piattaforme o
solo per una specifica (vengono considerate desktop, mobile, e voce). Inoltre, sempre per facilitare l‘editing, è possibile sfruttare una
libreria di pattern predefiniti che catturano un po‘ di best practice
nella progettazione di interface utenti.
Per quanto riguarda l‘approccio basato sullo sviluppo di una versione generale esso può essere ottenuto inserendo nella specifica
indicazioni degli autori su come il contenuto si deve presentare o
tramite descrizioni basate su modelli che astraggono dalle caratteristiche specifiche delle varie piattaforme.
Per quanto riguarda l‘adattamento automatico vi sono varie strategie al suo interno:
Interfacce Utenti Multi-Dispositivi
235
Figura 8. Interfaccia Utente dell‘Ambiente Damask.
Scaling, un semplice cambiamento di scala che spesso lascia risultati poco usabili;
Transducing, converte elementi ed immagini in altri formati, e
comprime e converte immagini a seconda delle caratteristiche
del dispositivo, come AvantGo2;
Transforming, va oltre nel modificare maggiormente contenuti e
struttura.
Esempi di transforming sono:
Single column, (per esempio Opera SSR) elimina lo scrolling in
una dimensione, aumenta lo scrolling nell‘altra;
Fisheye è un fisheye Web browser che mostra un focus in una scala
leggibile e comprime le zone esterne, un esempio è Fishnet
(Baudish, 2004);
Overview + detail divide una pagina Web in sezioni multiple e
fornisce un overview with links a queste sezioni. La pagina di
2 http://www.avantgo.com
236
Fabio Paternò
overview può essere o una immagine thumbnail, o un riassunto
della pagina Web.
Nei transforming possiamo citare anche le overviews techniques,
come:
Smartview (Milic-Frayling & Sommerer, 2002) - Una vista thumbnail in zoom-out, riempie lo schermo orizzontalmente. Partiziona la pagina in regioni logiche; quando una è selezionata il
suo contenuto è mostrato in dettaglio;
Gateway (Mackay, 2004) – La vista dettagliata usa una tecnica focus-plus-context, allargando la regione selezionata;
Summary Thumbnail (Lam, Baudish, 2005)- Usa la vista thumbnail ma i testi sono più brevi e più grandi assicurando una
buona leggibilità (le font sono ingrandite ed i caratteri sono
presentati finché c‘è spazio).
5. Progettazione Interfacce Utenti basata su
Modelli
I modelli sono astrazioni della realtà. Mirano ad evidenziare gli aspetti principali di interesse senza perdersi in tanti dettagli. I modelli possono essere utili anche quando si progettano o valutano applicazioni interattive.
Nel mondo HCI l‘uso di modelli di vario genere è stato attivo fin
dai primi anni 80. Possiamo individuare tre generazioni di approcci.
La prima generazione mirava a creare dei modi dichiarativi per specificare interface utenti grafiche. Ad esempio in questa generazione
troviamo il lavoro del gruppo di Jim Foley al Georgia Tech con
UIDE (Foley, 1994) in cui si usavano pre e post condizioni associate con i vari oggetti di interazione. Un altro esempio era Humanoid
(Szekely, 1993) che mirava ad esprimere esplicitamente le scelte di
progettazione delle varie parti dell‘interfaccia utente. Nella seconda
generazione di approcci si è passati ad usare modelli di task per
supportare la progettazione e lo sviluppo di interface utenti, in
quanto questi modelli erano visti un po‘ come un punto di incontro
tra progettisti, sviluppatori ed utenti finali. Esempi di strumenti svi-
Interfacce Utenti Multi-Dispositivi
237
luppati in questo ambito erano Adept (Wilson, 1993) e Mobi-D
(Puerta, 1999). Negli ultimi anni abbiamo assistito ad un rinnovato
interesse in questi approcci in quanto sono visti come uno strumento utile per gestire la complessità derivate dal proliferare di dispositivi interattivi con i loro linguaggi di implementazione. Esempi di
approcci che cadono in questa generazione sono UIML (Abrams,
1999), TERESA (Mori, 2004)].
In generale, un sistema interattivo può essere considerato a vari
livelli di astrazione. Un possibile modo è quello di considerare i
compiti da eseguire per raggiungere gli obiettivi dell‘utente e gli
oggetti logici che vanno manipolati per il loro svolgimento. Questa
è una visione logica del sistema che può essere discussa tra le varie
persone coinvolte nella progettazione (utente finale, committente,
progettista di interfacce, sviluppatori software). Si può avere
un‘altro punto di vista, che è sempre logica ma è più focalizzata
sull‘interfaccia, ovvero considerare le presentazioni e le interazioni
che ne fanno parte e come muoversi da una presentazione all‘altra.
Le interazioni sono identificate in base alla loro semantica (i risultati che consentono di ottenere). Per esempio, si può dire che in un
certo punto si ha bisogno di una selezione, ma senza specificare il
tipo di modalità richiesta per realizzarla (che potrebbe essere ad esempio selezione grafica, vocale, o tramite un gesto). Vi è, poi, una
possibile descrizione più concreta dove si specificano le modalità e
le tecniche di interazione che si vogliono usare. Per esempio, si può
dire che in un sistema desktop grafico la selezione avviene tramite
una lista con una barra di scorrimento. Infine, si ha
l‘implementazione, che può essere in HTML, Java ecc.. Quando si
progetta, il livello di astrazione del punto di partenza può cambiare
a seconda dei casi (vedi Figura 9). Certe volte si identificano i compiti da supportare e quelli sono il punto di partenza per ottenere,
tramite raffinamenti successivi, l‘implementazione. In altri casi, si
parte da una certa implementazione che esiste e si creano le descrizioni logiche corrispondenti, ad esempio per cercare di capire se effettivamente quella è la migliore per supportare le attività
dell‘utente.
238
Fabio Paternò
Figura 9. Possibili Trasformazioni tra Livelli di Astrazione.
L‘uso di livelli multipli di astrazione ha vari vantaggi: consente di
focalizzare sulle principali scelte di progettazione; collegano informazione semantica agli elementi implementativi; e, con il supporto
di appropriate trasformazioni consentono di ottenere interoperabilità tra vari linguaggi implementativi.
Per quanto riguarda i modelli di task una notazione largamente
usata in università ed aziende è ConcurTaskTrees (Paternò, 1999).
Come mostra la Figura 10 le sue caratteristiche principali sono una
organizzazione gerarchica delle attività descritte, dove quelle generali sono decomposte in attività più dettagliate; un ricco insieme di
operatori temporali che permettono di specificare comportamenti
flessibili dove le attività possono andare in sequenza, concorrentemente, interrompersi, ecc. Vi è anche la possibilità con icone diverse di indicare come i compiti devono essere allocati: all‘utente, al
sistema od ad una loro interazione.
Per ciascun task è possibile specificare inoltre una serie di attributi, che includono anche le piattaforme per cui quel task è significativo.
Interfacce Utenti Multi-Dispositivi
239
Figura 10. Esempio di specifica in ConcurTaskTrees
Il tool che supporta l‘editing e l‘analisi di questi modelli di task è il
CTTE (ConcurTaskTrees Environment3) (Mori, 2002),. Il tool, oltre
vari strumenti di editing, consente anche una simulazione interattiva
del modello, per cui il progettista può selezionare un task ed il tool
mostra quelli successivamente abilitati a seguito del suo svolgimento.
L‘informazione contenuta nei modelli di task può anche essere
utile per la progettazione di interface concrete che sono coerenti
con le loro indicazioni. Le relazioni temporali tra i task possono
guidare la strutturazione dei dialoghi dell‘interfaccia utente, mentre
la struttura dei modelli può fornire utili indicazioni su come strutturare le interface utenti corrispondenti. Ad esempio, se vi sono dei
task che sono parte di una stessa attività più generale allora significa che sono strettamente collegati logicamente e gli elementi
dell‘interfaccia corrispondente dovrebbero essere raggruppati in
qualche modo per esprimere tale relazione logica. Inoltre la tipologia del task è utile per identificare le tecniche di interazione più idonee per supportare la sua semantica.
3 Disponibile all‘indirizzo http://giove.isti.cnr.it/ctte.html
240
Fabio Paternò
Per quanto riguarda gli altri livelli di astrazione (interfaccia astratta e concreta) diversi linguaggi XML basati su modelli per interfacce utenti sono stati proposti: XIML4 (Puerta, 2002), sviluppato da RedWhale, UIML5 (Abrams, 1999), sviluppato da Harmonia,
TERESA-XML6 (Mori, 2004), sviluppato al Laboratorio di Interfacce Utenti dell‘ISTI-CNR, USIXML7 (Limbourg and Vanderdonckt, 2004), sviluppato alla Louvain University, ed XForms8, sviluppato dal W3C.
XForms applica concetti di progettazione model-based sviluppati in ambito di ricerca. Esso separa presentazione da contenuto (i tag
per i controlli nella form sono separati dai tipi di dati e valori ritornati alla applicazione). I controlli XForms che possono stare nelle
form sono device-independent (select, trigger, output, secret, …).
Esso riduce anche il bisogno di script attraverso verifiche effettuate
lato client sui dati in formato. In pratica in XForms sono presenti
sia il livello astratto (attraverso il vocabolario dei controlli e dei costrutti) che quello concreto (attraverso gli attributi di presentazione
dei tipi di dati). Ad esempio XForms consente di specificare un elemento di selezione singola tramite il controllo select1 e poi tramite l‘attributo appearance si possono dare vari valori (full, compact,
minimal) che determinano diverse implementazioni (rispettivamente radio button, list box, drop down list) a seconda delle caratteristiche del dispositivo corrente.
Un approccio diverso è seguito in TERESA XML dove vi è una
chiara distinzione tra livello astratto e livello concreto. Più precisamente in TERESA XML vi è un linguaggio astratto e un linguaggio
concreto per ciascuna piattaforma. I linguaggi concreti hanno la
stessa struttura del linguaggio astratto ma aggiungo raffinamenti per
ogni oggetto di interazione (interattore) o operatore di composizione che indicano aspetti specifici per la piattaforma considerata. La
Figura 11 mostra una rappresentazione grafica di un esempio di interfaccia utente astratta in TERESA XML. L‘interfaccia è vista come un insieme di presentazioni, in ciascuna presentazione vi sono
4 http://www.ximl.org/
5 http://www.uiml.org/
6 http://giove.isti.cnr.it/teresa.html
7 http://www.usixml.org/
8 http://www.w3.org/MarkUp/Forms/
Interfacce Utenti Multi-Dispositivi
241
interattori ed operatori di composizione che indicano come organizzare gli interattori. Le connessioni indicano come ci si muove da
una presentazione ad un‘altra. In sostanza gli operatori di composizione hanno lo scopo di strutturare l‘interfaccia utente per indicare
elementi che sono raggruppati logicamente (e che quindi bisogna
presentare in modo che questo raggruppamento logico sia facilmente percepibile dall‘utente).
Figura 11. La Struttura di un‘Interfaccia Astratta
Quando ci si muove dal livello astratto a quello concreto si danno
ulteriori dettagli che dipendono dalla piattaforma considerata. Per
esempio a livello astratto possiamo dire che c‘è un interattore di tipo navigator (che consente di muoversi da una presentazione ad
un‘altra), a livello concreto (nel caso di piattaforma grafica) si specificherà anche se si tratta di un link grafico o testuale od un button
con associato un link (che sono tre tecniche diverse per supportare
lo stesso concetto). A livello implementativo si specificherà poi in
ulteriore dettagli a seconda del linguaggio implementativo scelto
(XHTML; Java, Windows Forms, …).
L‘approccio risultante assume che i progettisti conoscano le potenziali piattaforme (non i dispositivi) dalle prime fasi del processo
di progettazione. Il risultato principale è che il metodo consente agli
242
Fabio Paternò
sviluppatori di evitare una marea di dettagli implementativi (la trasformazione da descrizione concreta a implementazione è automatica). Inoltre è facile aggiungere supporto per nuovi linguaggi implementativi. La Figura 12 mostra un authoring tool che supporta
l‘editing di specifiche e la generazione di interface con TERESA
XML. Sulla sinistra appare la lista di presentazioni correntemente
editate, la presentazione selezionata corrisponde alla descrizione
astratta che è nella parte a destra in alto, l‘elemento correntemente
selezionato nella descrizione astratta corrisponde a quello che si
può editare a livello concreto nella parte a destra in basso. Nella
parte a sinistra in basso vi è la lista di connessioni correntemente
disponibili.
Figura 12. L‘interfaccia Utente dell‘Ambiente TERESA
6. Adattamento Automatico al Dispositivo a
Run-Time
In questa sezione discutiamo tecniche di adattamento automatico al
dispositivo a run-time, che significa mentre l‘utente sta accedendo
all‘applicazione e non in fase di progettazione.
Vi sono tre fasi principali che vanno attraversate in questo caso:
Interfacce Utenti Multi-Dispositivi

identificazione del dispositivo

identificazione delle risorse del dispositivo

adattamento.
243
In ambienti Web la tecnica che viene solitamente usata per identificare il dispositivo è il rilevamento dello User Agent nel Protocollo
HTTP. Questo consente di sapere il tipo di dispositivo corrente, il
browser, il sistema operativo ed altre informazioni correlate.
Per quanto riguarda le tecniche per l‘identificazione delle risorse
del dispositivo, possiamo citarne tre:
CC/PP (W3C), il Composite Capability/Preference Profiles
(CC/PP) è una specifica per definire capacità e preferenze (anche dette 'delivery context') dello user agent. É basato su RDF
e mira a fornire solide fondamenta per lo UAPROF.
UAPROF (OMA), descrive le capacità di un dispositivo mobile,
comprese risoluzione e capacità multimedia. I dispositivi mobili mandano un header (generalmente "x-wap-profile―) dentro a
http request con lo URL al suo UAProf. La produzione dello
UAProf per un dispositivo è volontaria da parte dei costruttori.
É un‘applicazione dello CC/PP.
WURFL, è un file XML di configurazione che può essere memorizzato localmente e contiene informazioni riguardo alle capacità e caratteristiche per una ampia gamma di dispositivi9.
Lo UAProf ha varie componenti: Hardware Platform, Software Platforms, Network Characteristics, Browser UA, WAP Characteristics, Push Characteristics. Un estratto di quello associato al Nokia
Communicator 950010, è:
<?xml version="1.0"?>
<rdf:RDF
xmlns:rdf= "http://www.w3.org/..."
xmlns:prf=http://www.openmobilealliance.org/...
xmlns:mms=http://www.wapforum.org/...
xmlns:pss5="http://www.3gpp.org/...">
<rdf:Description rdf:ID="Profile">
……
9 WURFL è un progetto open source http://wurfl.sourceforge.net/.
10 Disponibile a http://nds1.nds.nokia.com/uaprof/N9500r100.xml
244
Fabio Paternò
<prf:component>
<rdf:Description rdf:ID="HardwarePlatform">
……
<prf:PixelAspectRatio>1x1</prf:PixelAspectRatio>
<prf:PointingResolution>Pixel</prf:PointingResolution>
<prf:ScreenSize>640x200</prf:ScreenSize>
<prf:ScreenSizeChar>29x5</prf:ScreenSizeChar>
<prf:StandardFontProportional>Yes</prf:StandardFontPropo
rtional>
<prf:SoundOutputCapable>Yes</prf:SoundOutputCapable>
<prf:TextInputCapable>Yes</prf:TextInputCapable>
……
Da un punto di vista architetturale vi sono tre tipi di soluzioni per
supportare l‘adattamento automatico (vedi Figura 13). Esse si differenziano essenzialmente su dove l‘adattamento viene eseguito.
Figura 13. Possibili Soluzioni Architetturali per l‘Adattamento
Nel primo caso avviene al lato del server dell‘applicazione. Il dispositivo client manda la richiesta di accesso ed un‘indicazione delle capacità del dispositivo ed il server applicativo manda il contenuto adattato conseguentemente. Il limite di questa soluzione è che richiede che le funzionalità che eseguono l‘adattamento siano dupli-
Interfacce Utenti Multi-Dispositivi
245
cate in tutti i server applicativi. Questo viene evitato nella seconda
soluzione in cui l‘adattamento viene svolto in un proxy server. Questo riceve la richiesta di accesso e l‘indicazione delle capacità del
dispositivo client, poi gira la richiesta al server applicativo che fornisce i contenuti che vengono adattati dal proxy server prima di essere mandata al richiedente. La terza possibilità è quella in cui
l‘adattamento avviene direttamente nel dispositivo client. La più
semplice forma di client-side adaptation è rappresentata dall‘uso di
CSS. Il browser Opera è capace di fornire il narrow layout. Il problema è che molti dispositivi mobili hanno limitate capacità di calcolo, memoria ed ampiezza di banda. Tuttavia, le capacità dei dispositivi mobili sono in crescita continua
La maggior parte dei cellulari tradizionali supportano due viste:
originale e narrow. L‘originale mostra la pagina come era per il
desktop. Il vantaggio è che è più familiare ed è più facile trovare il
contenuto, lo svantaggio è che se il testo va oltre i limiti dello
schermo diventa difficile da leggere e se ci sono spazi bianchi tra le
righe è facile sentirsi persi. La Figura 14 mostra la differenza tra la
porzione dell‘applicazione che viene mostrata da un sistema
desktop e da un sistema mobile.
Figura 14. Differenze di vista tra Dispositivo Desktop e Mobile
246
Fabio Paternò
Nella versione narrow l‘ordine del contenuto segue quello del file
markup a partire dall‘alto (vedi Figura 15). Il testo è impacchettato
e le immagini sono scalate all‘ampiezza dello schermo. Il testo è
sempre visibile ed il contenuto è compattato senza spazi bianchi. Le
limitazioni della soluzione narrow sono: contenuto che deve rimanere largo come cartine e tabelle diventa impossibile da leggere; è
difficile capire dove si trova il contenuto che l‘utente cerca perché il
risultato della trasformazione è imprevedibile; certe volte non si capisce che una selezione ha cambiato la pagina perché le pagine
condividono la stessa parte iniziale; la trasformazione ha effetti imprevedibili sugli script nella pagina originale. Inoltre, questo tipo di
soluzione richiede molto scrolling verticale da parte dell‘utente per
vedere il contenuto.
Figura 15. La soluzione narrow per Dispositivi Mobili
Un browser Nokia mira a superare queste limitazioni (Roto et al.,
2006). Esso ha l‘obiettivo di fare calzare la maggior parte del contenuto allo schermo, eliminare il bisogno di scrolling orizzontale
Interfacce Utenti Multi-Dispositivi
247
per leggere il testo, e fornire abbastanza informazione di contesto
per dare un‘idea della struttura della pagina e comunicare la locazione corrente nella pagina. Fare tutto questo senza distruggere
l‘originale layout della pagina e senza introdurre interazioni modali.
La soluzione si chiama MiniMap ed è ottenuta tramite modifiche
alla formattazione delle CSS ed al processo di visualizzazione del
browser. Gli elementi non testuali diventano più piccoli e
l‘ampiezza del testo non deve oltrepassare quella dello schermo. E‘
una soluzione simile a quelle dell‘ information visualization tramite una tecnica di overview + detail. Una soluzione tipo fisheye è
stata stimata in questo caso eccessiva in tempo di elaborazione per
dispositivi mobili. La Figura 16 mostra l‘accesso al sito del quotidiano La Repubblica, sulla sinistra si vede una porzione della pagina corrente, con un apposito tasto è possibile attivare la vista sulla
destra che mostra tramite un rettangolo rosso come la porzione corrente è posizionata nella pagina complessiva.
Figura 16. Navigazione con il browser Nokia.
Una soluzione di adattamento tramite server proxy è stata proposta
anche dal motore di ricerca Google per presentare i risultati delle
248
Fabio Paternò
interrogazioni e navigare in essi(Kamvar, 2006). A seconda dello
user agent nella richiesta http si veniva ridiretti o a
www.google.com/xhtml o a www.google.com/pda. XHTML search
è usato per cellulari convenzionali con tastiere a 12 tasti. XHTML
PDA veniva usato per dispositivi che hanno tastiere QWERTY o
input con penne. Rispetto a quest‘ultima, la versione XHTML ha le
seguenti caratteristiche:

ha radio button invece di tab per accedere le varie sezioni

non ci sono pubblicità

i pezzi di testo per ogni link sono più piccoli

i risultati non contengono link cached o a pagine simili e non
indicano l‘ampiezza della pagina

l‘utente può accedere solo alla pagina precedente o successiva
di risultati.
La Figura 17 mostra un esempio dove sulla sinistra c‘è il risultato
per una interrogazione sul desktop mentre a destra c‘è sia la parte di
interrogazione che di risultato per la stessa richiesta.
Figura 17. Differenze di risultati di google a seconda del dispositivo
Interfacce Utenti Multi-Dispositivi
249
La figura successiva mostra poi come si naviga nel risultato da una
parte sul desktop, e dall‘altra tramite dispositivo mobile, e quindi si
può notare come anche il contenuto selezionato tramite il risultato
dell‘interrogazione viene adattato.
Figura 18. Differenze di navigazione tramite google a seconda del dispositivo
Un altro strumento che supporta adattamento desktop-mobile è
Skweezer11. La politica di adattamento di default supporta scrolling
piuttosto che splitting. Mira a ridurre l‘ampiezza delle pagine. Esso
include nelle pagine trasformate un CCS fisso orientato per i dispositivi mobili (per esempio: ridefinizione delle fontsize per H1, H2,
H3 etc.)
Una tecnica che supporta adattamento sfruttando le descrizioni
logiche introdotte precedentemente è Semantic Transformer (Paternò, 2008). Questa tecnica mira a preservare la semantica
dell‘interfaccia utente quando si adatta da un dispositivo desktop ad
uno mobile e dall‘altra cerca di adattarlo alle diverse risorse di interazione. L‘adattamento avviene spezzando una pagina desktop in
più pagine se non è sostenibile per le capacità del dispositivo mobi11 http://www.skweezer.net/
250
Fabio Paternò
le corrente e cambiando gli elementi di interazione se ve ne sono
che hanno gli stessi effetti ma richiedendo meno spazi (ad esempio
una scelta tra varie opzioni che nel desktop è supportato da un radio-button può diventare supportata da un pull-down menu che occupa meno spazio). L‘algoritmo che determina la divisione di una
pagina in pagine multiple analizza la descrizione logica di una pagina e valuta quanto spazio necessita per esser presentata effettivamente, se questo spazio non è sostenibile per lo schermo del dispositivo corrente allora si attiva la procedura di divisione. L‘algoritmo
va a cercare i gruppi di elementi composti tramite un operatore nella specifica logica, e che quindi sono correlati logicamente e devono restare conseguentemente nella stessa pagina mobile. In particolare va a cercare la composizione che richiede maggior spazio, la
toglie dalla pagina originaria e la associa ad una nuova pagina per
la versione mobile. Quindi crea i link per poter accedere a questa
nuova pagina per la versione mobile e per andare da questa alle altre pagine. Il procedimento continua ricorsivamente a spezzare la
pagina desktop in altre pagine mobili fino a che la pagina originaria
non è sostenibile per il dispositivo mobile.
7. Interfacce Utenti nell’Ubiquitous Computing
L‘ubiquitous computing è caratterizzato da molte persone e molti
dispositivi comunicanti dinamicamente. Diventa quindi importante
trovare soluzioni per fornire supporto continuo all‘utente mobile.
Le possibilità di accesso remoto furono introdotte dal X Window
System che consente di cambiare dinamicamente lo schermo in cui
appare un‘interfaccia utente. Nell‘ambito di ambienti multidispositivi un importante contributo fu dato da Rekimoto con la
tecnica Pick-and-Drop (Rekimoto, 1997; Rekimoto, 1998). L‘idea
era dare la possibilità di scambiare facilmente dati tra dispositivi
diversi (vedi figura 19) tramite semplici gesti: una selezione
dell‘elemento nel dispositivo sorgente che poi veniva rilasciato selezionando un punto nel dispositivo target.
Interfacce Utenti Multi-Dispositivi
251
Figura 19. Interfaccia Utente di Pick-and-Drop
Un altro contributo interessante è PUC (Nichols, 2002): esso genera
dinamicamente interfacce utenti capaci di controllare dispositivi
domestici a partire dalla loro descrizione logica. Un livello aggiuntivo (UNIFORM) (Nichols, 2006) fu aggiunto per generare interfacce utenti consistenti con le precedenti esperienze dell‘utente. Gli
autori di PUC presentarono uno studio (Nichols, 2007) che indicava
che PUC è in grado di generare interfacce utenti superiori a quelle
disponibili ad approssimativamente lo stesso costo. Tuttavia PUC
non fornisce la possibilità di supportare lo svolgimento continuo di
task muovendosi attraverso diversi dispositivi.
In generale, l‘accesso flessibile in ambienti Multi-Dispositivi
può avvenire in varie modalità:

muovere oggetti attraverso diversi dispositivi di interazione
con pick-and-drop

interfacce utenti distribuite: la logica applicativa riceve input
da diversi dispositivi

interfacce utenti migratorie: consentono il cambio di dispositivo, con migrazione dell‘interfaccia con mantenimento del suo
stato.
252
Fabio Paternò
La motivazione per questo tipo di accesso parte dalla constatazione
che la nostra vita sta diventando un esperienza multi-dispositivi,
nel senso che le persone sono sempre più circondate da vari dispositivi di interazione. Vi è quindi un bisogno di facilitare l‘accesso
continuo ai servizi interattivi attraverso diversi dispositivi. Una delle maggiori fonti di frustrazione è che dobbiamo ricominciare la
sessione ad ogni cambio di dispositivo. Le interfacce migratorie
possono trasferirsi attraverso diversi dispositivi (da dispositivi sorgenti a target) in modo da consentire all‘utente di continuare le attività che stanno svolgendo. Domini applicativi che possono beneficiare da questo tipo di interfacce sono shopping, aste on line, giochi, prenotazioni, …
I primi di studi in questa direzione furono di Bharat e Cardelli
(Bharat & Cardelli, 1995) che prevedevano la migrazione di intere
applicazioni, cosa problematica per dispositive con capacità limitata. Kozuch e Satyanarayanan (Kozuch & Satyanarayanan, 2002)
proposero una
soluzione
per la
migrazione
basata
sull‘incapsulamento di tutto lo stato di esecuzione di una macchina
virtuale (migrazione di un‘applicazione tra desktop e laptop).
Chung e Dewan (Chung & Dewan, 1996) invece hanno proposto
che quando la migrazione è attivata l‘ambiente inizia una nuova copia dell‘applicazione nel sistema target e le applica la sequenza degli input di utente salvata. Non c‘è supporto per l‘adattamento in
questa soluzione.
La migrazione può essere totale o parziale. Nel primo caso tutta
la interfaccia migra da un dispositivo ad un altro mentre nel secondo solo una parte. Un esempio di migrazione parziale è nella Figura
20 in cui dopo la migrazione i controlli restano nel dispositivo mobile mentre il contenuto si sposta nel dispositivo a schermo largo.
La migrazione può essere attivata dall‘utente o dal sistema (ad esempio perché ha rilevato che la batteria del dispositivo mobile si
sta esaurendo). La scelta del dispositivo al quale migrare può essere
fatta analogamente dall‘utente o dal sistema.
Interfacce Utenti Multi-Dispositivi
253
Figura 20. Esempio di interfaccia utente migratoria parziale
Per quanto riguarda l‘usabilità, nelle interfacce migratorie sono importanti la continuità e la facilità con cui l‘utente continua il proprio
task attraverso diversi dispositivi. Fattori che possono influenzare
sono il tempo, in particolare il tempo richiesto dalla migrazione per
attivare la nuova versione dell‘interfaccia nel dispositivo target, ed
il processo di adattamento, ovvero l‘adattamento dell‘interfaccia
utente al nuovo dispositivo deve consente all‘utente di capire facilmente come continuare il task corrente. É quindi importante anche
la prevedibilità del risultato della migrazione per l‘utente finale,
ovvero consentire all‘utente di capire facilmente come continuare i
suoi compiti, predire quale è il dispositivo a cui migrare, quale parte
dell‘interfaccia migra, su quale dispositivo verrà presentato il risultato di un‘interazione dopo la migrazione.
Conclusioni
La nostra vita quotidiana è caratterizzata dalla disponibilità di vari
tipi di dispositivi di interazione con capacità diverse. Questo pone
la necessità di cambiare il modo in cui le interfacce utenti vengono
specificate, progettate e supportate durante le sessioni interattive.
254
Fabio Paternò
Questo capitolo fornisce una descrizione e discussione delle
problematiche relative e delle tendenze correnti. Il forte impulso
tecnologico e di mercato, in particolare nell‘area dei dispostivi mobili, pone continuamente problematiche e possibilità nuove che stimolano la necessità di nuove soluzioni. Nel capitolo abbiamo visto
come l‘utilizzo di linguaggi logici, basati su XML, fornisce uno
strumento utile per gestire questa complessità, ed ambienti innovativi, come quelli in grado di supportare interfacce utenti migratorie.
Bibliografia
Abrams, M., Phanouriou, C., Batongbacal, A., Williams, S., Shuster, J. UIML: An
Appliance-Independent XML User Interface Lan-guage, Proceedings of the 8th
WWW
conference,
1999.
Available
at
http://www.harmonia.com/resources/papers/www8_0599/index.htm
Bharat K. A. and Cardelli L.[1995]. Migratory Applications. In proceedings of
User Inteface Soft-ware and Technology (UIST ‗95). Pitts-burgh PA USA.
November 15-17. pp. 133-142.
Baudisch, P., Lee, B., Hanna L. [2004] Fishnet, a fisheye Web browser with search
term popouts: a comparative evaluation with overview and linear view. AVI
2004: pp. 133--140.
Chung G., Dewan P. [1996]. A mechanism for Supporting Client Migration in a
Shared Window System, Proceedings UIST‘96, pp.11-20, ACM Press.
Foley, J., Sukaviriya, N., [1994]. History, results, and bibliography of the user
interface design environment (UIDE), an early model-based system for user
interface design and development, in: Paterno, F. (Ed.), Interactive Systems:
Design, Specification, Verification. Springer, Berlin, pp. 3–14.
Kamvar M., Baluja S.. A Large Scale Study of Wireless Search Behavior: Google
Mobile Search. Proceedings CHI 2006, ACM Press.
Kozuch M., Satyanarayanan M., Internet Suspend/Resume, Proceedings of the
Fourth IEEE Workshop on Mobile Computing Sys-tems and Applications
(WMCSA‘02) IEEE Press, 2002.
Lam H., Baudisch P. [2005] Summary thumbnails: readable overviews for small
screen web browsers. Proceedings CHI 2005, Portland, pp. 681-690, ACM
Press.
Limbourg, Q., Vanderdonckt, J., UsiXML: A User Interface Description Language
Supporting Multiple Levels of Independence, in Matera, M., Comai, S. (Eds.),
Engineering Advanced Web Applications, Rinton Press, Paramus, 2004.
Lin J., Landay J.,: [2008] Employing patterns and layers for early-stage design and
prototyping of cross-device user interfaces. Proceedings CHI 2008: 1313-1322.
Interfacce Utenti Multi-Dispositivi
255
Mori, G., Paterno`, F., Santoro, C., [2002]. CTTE: support for developing and
analysing task models for interactive system design. IEEE Transactions in
Software Engineering 28 (8), 797–813. IEEE Press.
Mori, G., Paterno`, F., Santoro, C., [2004]. Design and development of multidevice user interfaces through multiple logical descriptions. IEEE Transactions
on Software Engineering 30 (8), 507–520.
MacKay, B., Watters, C. R. Duffy, J. [2004] Web Page Transformation When
Switching Devices. In Proceedings of Sixth International Conference on
Human Computer Interaction with Mobile Devices and Services (Mobile
HCI‘04) (Glasgow, September 2004), LNCS 3160. Springer-Verlag, 228-239.
Milic-Frayling N., Sommerer R.. [2002] Smartview: Enhanced document viewer
for mobile devices. Technical Report, Microsoft Research, Cambridge, UK,
November 2002.
Nichols, J. Myers B. A., Higgins M., Hughes J., Harris T. K., Rosenfeld R., Pignol
M.. Generating remote control interfaces for complex appliances. Proceedings
ACM UIST‘02. October 27 – 30. Paris, France. Vol.4, pp.161-170.
Nichols, J., Myers, B.A., and Rothrock, B. UNIFORM: Automatically Generating
Consistent Remote Control User Interfaces, in CHI'2006, pp.611-620, ACM
Press..
Nichols, J., Chau D., Myers, B.A., Demonstrating the Viability of Automatically
Generated User Interfaces, in CHI‘2007, ACM Press.
Paternò, F. [1999]. Model-Based Design and Evaluation of Interactive
Applications. Springer, Berlin. ISBN 1-85233-155-0.
Paternò F. [2004]. Interazione Uomo-Computer: Un Introduzione, Mondo Digitale,
N.4, Dicembre 2004.
Paternò, F. [2005]. Interacting with Computers 17 291–315 315
Paternò, F., Santoro, C., Scorcia, A. [2008] Automatically Adapting Web Sites for
Mobile Access through Logical Descriptions and Dynamic Analysis of
Interaction Resources. AVI 2008, Naples, May 2008,ACM Press, pp. 260-267
Puerta, A.R., Eisenstein, J., [1999]. Towards a General Computational Framework
for Model-Based Interface Development Systems, IUI99: International
Conference on Intelligent User Interfaces. ACM Press, New York, pp. 171–
178.
Puerta A., Eisenstein J., "XIML: A Common Representation for Interaction Data",
Proceedings IUI2002: Sixth International Confer-ence on Intelligent User
Interfaces, ACM, Gennaio 2002. Available at http://www.ximl.org/documents/
XIMLBasicPaperES.pdf
Rekimoto J.. "A Multiple Device Approach for Supporting Whiteboard-based
Interactions", CHI'98, 1998.
Rekimoto J., "Pick-and-Drop: A Direct Manipulation Technique for Multiple
Computer Environments", Proceedings of UIST'97, pp. 31-39, 1997.
256
Fabio Paternò
Roto, V., Popescu, A., Koivisto, A., Vartiainen E.: [2006] Minimap: a Web page
visualization method for mobile phones. CHI 2006: 35-44.
Roto V., [2006] doctoral dissertation in Helsinki University of Technology (TKK),
Department of Computer Science and Engineering, in 2006, Web Browsing on
Mobile Phones – Characteristics of User Experience.
Spence R., [2007] Information Visualization (2nd Edition), Prentice-Hall
(Pearson), 2007, ISBN: 0132065509.
Szekely, P., Luo, P., Neches, R., [1993]. Beyond Interface Builders: Model-based
Interface Tools, Proceedings INTERCHI‘93. ACM Press.
W3C,
[2008]
Mobile
Web
http://www.w3.org/TR/mobile-bp/
Best
Practices
1.0
Wilson, S., Johnson, P., Kelly, C., Cunningham, J., Markopoulos, P., [1993].
Beyond Hacking: a Model-based Approach to User Interface Design,
Proceedings HCI‘93. Cambridge University Press, Cambridge, pp. 40–48.
XForms,
[2004].
The
Next
http://www.w3.org/MarkUp/Forms/.
Generation
of
Web
Forms,
Interfacce Utenti Multi-Dispositivi
257
Fabio Paternò, è Dirigente di Ricerca e responsabile del Laboratorio su
Interfacce Utenti dell‘ISTI-CNR. È stato uno dei pionieri del settore HumanComputer Interaction in Italia nel settore informatico. È stato anche eletto dalla
comunità nazionale italiana operante nel settore interazione uomo-macchina
Presidente dell'associazione ACM SIGCHI Italy per quattro anni (2000-2004),
oltre ad essere designato come rappresentante dell‘Italia nel Technical
Committee dell'IFIP N.13 (Interazione Uomo-Macchina) dal 1996. Fa parte del
gruppo del W3C su Ubiquitous Web Applications e, sempre in ambito W3C, è
uno dei fondatori del gruppo su Model-based User Interface Design. Ha
pubblicato oltre centosettanta articoli in riviste, libri e conferenze
internazionali con processo di revisione con esperti internazionali (una lista è
disponibile a http://giove.isti.cnr.it/~fabio/biblio.html). Ha partecipato ai
comitati di programma delle principali conferenze al mondo del settore
principale di appartenenza, l‘interazione uomo-macchina. Ad esempio è stato
paper chair della conferenza ACM CHI 2000, la più grande, importante, e
selettiva conferenza al mondo del settore Human-Computer Interaction, e
conference co-chair di IFIP INTERACT 2005 (che è considerata la seconda al
mondo per importanza e qualità nel settore) che si è tenuta a Roma. A questo
va aggiunta la responsabilità di importanti progetti internazionali: è stato
coordinatore globale di sei progetti Europei (MEFISTO, EUD-Net, GUITARE,
CAMELEON ed attualmente OPEN), in questi progetti ha coordinato l‘attività
scientifica di squadre di ricercatori e sviluppatori provenienti da accademia e
industria di diverse nazionalità.. Ha tenuto corsi in varie università in Italia ed
all‘estero e per varie conferenze ed aziende. Attualmente insegna
Progettazione di Interfacce all‘Università di Pisa.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Mobile Computing
Stefano Sanna – beeweeb technologies (Roma)
[email protected]
Abstract. Il Mobile Computing è uno degli ambiti applicativi più interessanti della computer science. Telefoni cellulari, computer palmari, navigatori satellitari, sistemi automotive racchiudono un concentrato di tecnologia di alto livello: hardware efficiente, sistemi operativi sofisticati, interfacce utente rivoluzionarie, moduli di comunicazione integrati. Il numero
sorprendente di esemplari venduti e la varietà di utenti coinvolti rendono
questo settore particolarmente interessante per le sfide che introduce
nell'interazione uomo-macchina. La progettazione di interfacce utente dei
dispositivi mobili affronta numerose specificità non presenti nell'ambito
PC. L'interazione con il dispositivo deve essere semplice ed immediata,
basata su linguaggi e comportamenti universali. Vi sono poi i vincoli di
dimensioni, di mobilità, di utilizzo in condizioni non ottimali. Le moderne
interfacce utente hanno bassa profondità di navigazione e interazione
single-hand single-finger, con un numero ridotto di passi per raggiungere
la funzionalità desiderata. Le interfacce tradizionali basate su display, tastiera, controller rotativi e schermi tattili sono oggi affiancate da sensori
installati sul dispositivo, che arricchiscono l'interazione con l'utente. Accelerometri, lettori RFID/NFC, GPS e sensori ambientali consentono di automatizzare operazioni tediose e facilitare l'accesso a periferiche e servizi.
Infine, la disponibilità di molteplici interfacce di comunicazione e di sensori a bordo ampliano i contesti di utilizzo dei terminali mobili, che diventano interfacce universali per l'accesso ai servizi interattivi di un ambiente
e al tempo stesso sistemi portatili di acquisizione di dati.
Keywords: Mobile Computing, device sensor, UI navigation.
Introduzione al Mobile Computing
Il Mobile Computing è il dominio applicativo dei dispositivi mobili
personali quali telefoni cellulari, smartphone, palmari (PDA),
260
Stefano Sanna
Internet tablet, terminali industriali. Più precisamente, nell'industria
del software il Mobile Computing si realizza nella progettazione e
nello sviluppo di applicazioni per oggetti personali programmabili e connessi di supporto alla mobilità delle persone. Entro certi
limiti, dunque, anche i navigatori satellitari portatili e veicolari, le
console di gioco portatili e altri oggetti possono essere compresi in
questo dominio (purché siano in grado di accedere alla Rete e caricare software custom). Non ne fanno parte i computer portatili, meglio classificabili all'interno del nomadic computing, che per essere
utilizzati necessitano di una posizione di lavoro assimilabile ad una
scrivania e, viceversa, sono del tutto inadatti all'uso quotidiano per
strada, in fila ad un supermercato, durante una passeggiata al parco.
Questo capitolo, dunque, tratta del dominio applicativo costituito da
software per telefoni cellulari e smartphone ad uso personale, accesso alla rete Internet, capacità di interfacciamento e comunicazione a dispositivi locali.
Si tratta di oggetti, dunque realtà tangibili, le cui dimensioni, ergonomia e autonomia di utilizzo hanno impatto diretto sulla userexperience e possono condizionare fortemente il successo o la totale
disaffezione dell'utente rispetto ad essi. È importante sottolineare il
carattere personale di questi oggetti. Rispetto, infatti, al computer
desktop, che in taluni casi può essere condiviso tra colleghi di lavoro o all'interno della famiglia (anche se magari ciascuno dispone del
proprio computer), il telefono cellulare costituisce un canale di comunicazione riservato e, per così dire, intimo tra il suo proprietario
e i contatti. L'interazione tra il dispositivo e il suo utilizzatore non è
saltuaria, ma costituita da una continuità di piccole interazioni rapide (una chiamata, un SMS, la verifica di un appuntamento in agenda), che durano tutta la giornata.
La possibilità di essere sempre raggiunti, in qualsiasi momento e
in qualsiasi luogo, rappresenta l'elemento di continuità rispetto alla
Rete e le funzioni di connettività (possibilmente su reti di tipo diverso) sono funzionali e indispensabili per poter parlare di Mobile
Computing. I computer palmari privi di connettività non sono interessanti in tal senso e il loro utilizzo, già estremamente ridotto negli
ultimi anni, diventerà nullo in breve tempo. La possibilità di programmare i terminali mobili, ovvero di potervi installare applicazioni dedicate a compiti specializzati, rientra nel carattere personale
Mobile Computing
261
sopra esposto: il dispositivo è personale per possesso, per capacità
di comunicazione e per ambito operativo, poiché svolge le funzioni
che l'utente ha deciso di attribuirgli. Infine, si tratta di strumenti di
supporto, cioè svolgono una funzione di utilità che li rende sempre
più compagni imprescindibili nel lavoro ed in tutte le attività quotidiane degli individui. Non, dunque, mero accessorio di intrattenimento. Nessun altro prodotto elettronico ed informatico ha raggiunto questo grado di pervasività nella vita delle persone ed è per questo che le problematiche di interazione uomo-macchina hanno una
importanza strategica.
Figura1. Il trend di mercato dei telefoni cellulari
Quello dei terminali mobili è un mercato immenso: le ultime statistiche pubblicate da Gartner Group (vedi Figura 1) indicano una
crescita costante degli esemplari venduti ogni anno, che hanno superato la soglia del miliardo di pezzi nel 2007 (nello stesso anno
sono stati venduti meno di 400 milioni di personal computer). Considerare, dunque, il software per cellulari come un ―settore di nicchia‖ è quanto mai errato. Inoltre, la ―vita media‖ di un terminale
262
Stefano Sanna
cellulare, ovvero l'intervallo di tempo superato il quale l'utente sostituisce l'esemplare in suo possesso con uno nuovo, è di circa 23
mesi, dunque anche la velocità di rinnovamento dei modelli in circolazione è estremamente rapida.
Questo rinnovamento avviene in tre direzioni: funzionalità, prestazioni e integrazione con i servizi Internet. L‘uso massivo e sistematico della Rete e dei terminali mobili di nuova generazione
costituisce la base per la realizzazione di scenari applicativi alwayson e pervasivi: Internet sempre accessibile, da postazione fissa e da
terminale mobile; informazioni in tempo reale, eventualmente georeferenziate; possibilità di comunicare con diversi mezzi: SMS, email, voce, instant messaging, video conferenza; controllo e automazione di procedure senza necessità di presenza: acquisti, prenotazioni, verifica intrusioni.
Il potenziale in termini di servizi e di utenti attivi è enorme, ma
appare ancora inespresso. Gli utenti adoperano il telefono cellulare,
oltre che per effettuare telefonate, per inviare e riceve SMS ed
MMS, scattare fotografie, giocare. Gli utenti più smaliziati installano applicativi per utilizzare il terminale come navigatore satellitare,
mentre altri acquistano piani tariffari flat per l'accesso alla Rete, potendo quindi leggere la posta elettronica e navigare sul web con il
browser fornito con il sistema operativo. Più recentemente i servizi
di Mobile TV e di telefonia VoIP hanno incoraggiato l'acquisto di
terminali con prestazioni multimediali avanzate e connessione a
larda banda HSDPA, ma si tratta comunque di una frazione dei possessori dei terminali mobili.
Il Mobile Computing appare dunque come un iceberg, in cui solo una piccola parte emersa è oggi sfruttata, mentre tutto il sommerso è ancora da esplorare e promuovere presso gli utenti (Figura 2).
L'uso dei sensori installati a bordo dei dispositivi, della capacità di
riconoscimento dei tag visuali con la fotocamera, di accesso ai servizi di ticketing e object tagging con RFID e NFC, di controllo di
dispositivi ambientali periferici è tuttora estremamente limitato e
circoscritto a pochi progetti pilota, ma nessuna di queste tecnologie
appare, per esempio, tra le offerte di servizi dei maggiori operatori
di telefonia mobile. La mancanza di queste offerte, infatti, è il riscontro oggettivo della scarsa consapevolezza che gli utenti hanno
Mobile Computing
263
delle potenzialità dei propri terminali: l'operatore non promuove ciò
che l'utente non percepisce come valore.
Figura 2. Il potenziale inespresso del mobile computing
Effettivamente, la mancata percezione del potenziale dei dispositivi
mobili ha delle cause tecnologiche e operative evidenti: l'uso dei
servizi e delle applicazioni è piuttosto complesso, i costi di connettività non sono chiari ed è difficile orientarsi tra tariffe a tempo e a
traffico, specie per chi non ha dimestichezza con l'uso del PC. Manca inoltre quella interoperabilità che invece è abbastanza consolidata tra i computer desktop: gli accessori e le applicazioni progettati
per un modello sono spesso incompatibili con altri modelli, anche
della stessa marca e della stessa fascia di prezzo. Inoltre, le problematiche di porting tra diverse piattaforme, evidenziate nel paragrafo
seguente, rendono onerosa (per tempi e costi) la realizzazione di
applicazioni di qualità: le software house sono costrette a scegliere
tra massimo sfruttamento del dispositivo, ma limitata possibilità di
porting, o massima portabilità a costo di qualche sacrificio in termi-
264
Stefano Sanna
ni di usabilità e sfruttamento delle funzionalità di ciascun modello.
La conseguenza è che quel passaparola virtuoso che ha portato alla
formidabile diffusione del personal computer e alla sensibilità nel
cercare il software migliore per svolgere un certo compito manca
quasi totalmente in ambito Mobile Computing. Superata una fase
pionieristica, però, il Mobile Computing sta raggiungendo una maturità in termini di hardware, software, servizi e soprattutto di utenza, che presenta nuove esigenze e necessita di strumenti opportuni
per soddisfarle. In questo senso, accanto ad aspetti puramente tecnologici, la HCI sui terminali mobili è fondamentale affinché questi
strumenti possano diventare di reale supporto alla mobilità di tutti
gli individui.
1. Sistemi Operativi e Ambienti Applicativi
Lo studio dell'interazione con il dispositivo mobile non può prescindere da una ricognizione di quanto attualmente presente o annunciato sul mercato. Non trattandosi più di un settore di nicchia o
di una tecnologia pionieristica, può infatti essere fuorviante riferirsi
a modelli totalmente teorici o prototipi che non abbiano un riscontro concreto in terminali commerciali. Allo stesso tempo, però, il
presente non deve diventare un ostacolo nella progettazione del futuro e, dunque, impedire che i modelli attuali vengano messi in discussione, rielaborati o sostituiti da concetti totalmente nuovi.
In questa sezione, dunque, si offre una panoramica delle piattaforme software e dei modelli hardware attualmente disponibili e dei
gradi di libertà che consentono allo sviluppo nell'implementazione
di applicazioni complesse ed eventualmente nella riscrittura di porzioni di interfaccia utente delle funzionalità native del terminale.
Prima di tutto occorre tenere presenti alcune specificità non formalmente dichiarate dai produttori dei terminali ma ormai assodate
quali caratterizzanti tutti gli ambienti operativi:
1.
salvo casi particolari, ogni ambiente dispone di un unico ambiente di programmazione nativo che permette il massimo grado di integrazione tra l'applicazione custom e il sistema operativo
Mobile Computing
265
2.
talvolta l'ambiente nativo è accessibile solo al produttore del
dispositivo e alle terze parti coinvolte nello sviluppo del terminale; le software house e gli sviluppatori indipendenti possono
utilizzare solo ambienti cosiddetti managed (Java, .NET...) con
evidenti limitazioni in termini di accesso alle funzionalità native (ad esempio, i framework di comunicazione o di lettura del
filesystem)
3.
numero e tipo di ambienti operativi di un terminale sono statici
e raramente sono disponibili runtime alternativi; quando possibile, l'installazione del runtime opzionale sottrae preziose risorse alle applicazioni e solitamente richiede una procedura
piuttosto complessa
4.
la retrocompatibilità tra nuove e vecchie versioni di sistemi
operativi e piattaforme è spesso assente: le applicazioni esistenti, per poter essere eseguite sui nuovi terminali, devono essere adattate se non totalmente riscritte (si pensi, ad esempio,
alla totale incompatibilità tra le diverse edizioni del sistema
operativo Symbian).
Quanto appena elencato evidenzia che l'attività di porting da un dispositivo ad un altro può richiedere la riscrittura totale del codice,
specie se si vogliono sfruttare appieno le funzionalità del dispositivo. Rispetto al mondo desktop, consolidato su tre sistemi operativi
(Windows, Mac OS X, Linux), e da un vasto insieme di framework
cross-platform, in ambito mobile vi è una elevata frammentazione
di sistemi operativi e piattaforme applicative. Accanto a sistemi operativi open, vi sono numerosi sistemi proprietari; accanto ad alcuni runtime multipiattaforma, ve ne sono altrettanti legati ad una
sola piattaforma. Esistono attualmente quattro sistemi operativi con
Application Programming Interface (API) aperte:
1.
Symbian OS, declinato sui frontend Series 60 e UIQ, tra loro
incompatibili, sopportato principalmente da Nokia
2.
Windows Mobile, sviluppato da Microsoft e utilizzato da produttori hardware indipendenti
3.
iPhone OS, realizzato ed utilizzato da Apple per iPhone e iPod
Touch
266
4.
Stefano Sanna
Linux, supportato da diversi consorzi di produttori.
In realtà, il mondo Linux è abbastanza variegato e specializzato in
diverse piattaforme tra loro incompatibili, tra cui Android (Open
Mobile Alliance), MOTOMAGX (Motorola), OpenMoko, ALP
(Access), LiMo ed altri. Vi sono poi i sistemi operativi proprietari
NokiaOS, MotorolaOS ed altri, usati dai rispettivi produttori per i
terminali di fascia bassa. Sopra questi sistemi operativi, vi è un ampio insieme di ambienti applicativi:
1.
Symbian C++, basato su una API comune del sistema operativo Symbian OS e librerie dei framework grafici e applicativi
Series 60 e UIQ
2.
Linux C++, basato su kernel e libreria standard di Linux più
framework grafici e applicativi specifici di ciascuna implementazione (ad esempio, Qtopia e GTK)
3.
.NET Compact Framework, basato sul linguaggio C# e su un
sottoinsieme del Compact Framework della piattaforma
Windows
4.
Java Micro Edition (Java ME), suddivisa in due piattaforme
CLDC/MIDP e CDC/PP, destinate rispettivamente ai terminali
entry level e a quelli di fascia alta), non è legata ad uno specifico sistema operativo, ma attualmente le migliori Virtual Machine (VM) sono realizzate sulla Series 60 Nokia e sulla Java
Plaftorm 8 di Sony-Ericsson (parte dei propri sistemi proprietari)
5.
Android, la piattaforma sviluppata da Google basata su kernel
Linux e ambiente operativo costituito da un subset di Java
Standard Edition ed un insieme di librerie specializzate
6.
Cocoa Touch, l'application framework di iPhone OS programmabile in Objective-C
7.
Flash Lite, come Java ME non è legata ad un particolare sistema operativo; basata sul linguaggio Actionscript e su una libreria di classi specializzata per i dispositivi mobili
Mobile Computing
8.
267
Python, supportato in ambiente Linux, Windows Mobile e
Symbian OS, è utilizzato principalmente per la prototipazione
rapida di applicazioni.
I tre elenchi appena mostrati evidenziano che non esista una piattaforma software o l‘ambiente di programmazione universale: ogni
progetto in ambito Mobile Computing implica uno o più compromessi sul tipo di dispositivo, sul sistema operativo, sul linguaggio
di programmazione e, dunque, sulla diffusione che un applicativo
per un sistema/piattaforma può avere. Numerosi progetti falliscono
inesorabilmente perché non tengono conto di questa specificità, assumendo che basti un ―po‘ di abilità‖ a superare le limitazioni imposte dal sistema operativo o dall‘ambiente di programmazione. I
requisiti di progetto ed eventuali vincoli sull‘hardware determinano
la piattaforma da usarsi e i compromessi a cui occorre sottostare.
Pertanto, nell'esplorare i canoni della HCI su dispositivi mobili
descritti nella prossima sezione sarà opportuno ricordare che alcune
soluzioni non sono realizzabili su alcune piattaforme e che, viceversa, la scelta di una piattaforma di riferimento può vincolare le possibili scelte implementative disponibili.
2. HCI su Dispositivi Mobili
La Human-Computer Interaction sui dispositivi mobili investe numerosi ambiti, sia prettamente tecnologici che legati all'ambito applicativo e all'esperienza dell'utente (Figura 3).
Un primo aspetto riguarda l'interfaccia di interazione e la combinazione dell'hardware (display, tastiera, elementi tattili, sensori) e
software (componenti grafici, interpretazione dei gesti, gestione dei
flussi informativi asincroni). Hardware e software, a loro volta, presentano specializzazioni e declinazioni più o meno sofisticate. Ergonomia, robustezza, autonomia di utilizzo e qualità di visualizzazione determinano la progettazione dei componenti fisici e la loro
corretta integrazione. La mobilità implica la capacità di interagire a
distanza e, dunque, la possibilità di comunicare su rete geografica
attraverso trasporto wireless, di tipo telefonico, WLAN o su reti ad
hoc. A sua volta, la disponibilità di risorse di connettività introduce
le problematiche di continuità tra i servizi normalmente accessibili
268
Stefano Sanna
su desktop e i frontend su terminali mobili. Ecco, dunque, che le
problematiche di multimodalità e multicanalità si intersecano con
quelle di adattamento dei contenuti, nel rispetto dei canoni di usabilità e accessibilità. Temi, questi ultimi, che richiamano quelli di ergonomia appena accennati.
Figura 3. Le variabili che determinano l‘interazione su dispositivi mobili
Salendo a livello applicativo, il passaggio da sistemi stazionari a dispositivi mobili pone in evidenza esigenze completamente originali
e non riscontrabili nei primi. Ad esempio, durata della batteria e
possibilità di utilizzo in condizioni di luminosità sfavorevoli sono
problematiche specifiche del dominio del Mobile Computing. Tra le
applicazioni più importanti di ausilio alla mobilità degli utenti vi
sono quelle di assistenza alla guida e, più in generale, vi sono i servizi georeferenziati (Location-based Services), basati su apposite
estensioni hardware e software che consentano la localizzazione automatica del terminale (attraverso GPS o triangolazione sulle celle
della rete telefonica). Per il mercato consumer ricoprono grande
Mobile Computing
269
importanza le applicazioni multimediali, essenzialmente legate alla
riproduzione di contenuti audio e video residenti sul terminale o accessibili in streaming attraverso reti 3G e superiori. La capacità di
memorizzare grandi quantità di dati e sincronizzare la base multimediale dell'utente con repository remoti costituisce un punto chiave per la condivisione dei contenuti esistenti e l'attivazione di canali
distributivi di nuovi. In questo ambito particolare, la facilità di utilizzo e la qualità dell'interfaccia grafica svolgono un ruolo fondamentale.
Meno legato all'aspetto prettamente estetico e di intrattenimento,
ma non meno articolato in termini di funzionalità, è il settore delle
Enterprise Application, in cui il terminale mobile costituisce appendice e, in senso lato, ―realtà aumentata‖ nella capacità di fruire in
maniera ubiqua di risorse e servizi localizzati presso l'azienda. L'accezione di ubiquità portata all'estremo conduce all'Ubiquitous
Computing (o Pervasive Computing), in cui il terminale mobile,
non più legato solamente all'utente, interagisce con il computer invisibile che abilita l'ambiente circostante dandogli la capacità di
percepire e attuare.
La trattazione completa di tutti questi ambiti (hardware, software, interfacce grafiche, usabilità, accessibilità, ergonomia, networking, multimodalità e multicanalità, mobilità, contesti applicativi,
navigation, entertainment, enterprise mobility e pervasive
computing) richiederebbe più di un testo e, probabilmente, svierebbe l'attenzione da alcuni aspetti pratici che, come si vedrà nel seguito, costituiscono le sfide più attuali della Human-Computer
Interaction in ambito mobile. Nel seguito di questo capitolo l'attenzione è focalizzata su tre ambiti particolari: interfaccia grafica,
hardware e controller (con dettagli sull'uso di sensori di bordo) e
pervasive computing.
User interface
I canoni tradizionali, ―classici‖, di definizione delle caratteristiche
dei dispositivi mobili vedono solitamente una mesta enumerazione
delle inevitabili limitazioni hardware che tali oggetti possiedono.
Display dalle dimensioni ridotte (QCIF, QVGA nei casi migliori)
su diagonale inferiore ai 2‖, modesta potenza di elaborazione e ri-
270
Stefano Sanna
dotta quantità di memoria, input attraverso digitazione particolarmente difficoltoso, ampiezza di banda ridotta e connettività discontinua, autonomia limitata, capacità multimediali limitate sono l'epitaffio del Mobile Computing così come è stato concepito finora,
ovvero com'era tecnologicamente possibile realizzarlo.
Il perfezionamento dei componenti e il progressivo abbassamento dei prezzi ha portato ad un ridimensionamento (verso l'alto!) di
tali canoni. I display arrivano a risoluzioni 320x480 e 800x480, su
superfici superiori ai 3‖. Il taglio minimo della frequenza di clock
della CPU va oltre la soglia dei 400MHz, mentre la memoria flash a
bordo può arrivare a 16GB su alcuni modelli. I sistemi di input sono
stati notevolmente perfezionati: tastiere, elementi grafici sul
display, riconoscimento della scrittura e sistemi di predizione del
testo rendono la digitazione molto più agevole che in passato.
Componenti a basso consumo energetico e batterie di maggiore capacità hanno aumentato notevolmente l'autonomia di utilizzo, ormai
misurata in ―giorni‖ anziché in ―ore‖. Le funzionalità multimediali
consentono la memorizzazione di archivi musicali considerevoli e
la riproduzione audio di qualità. Anche la fruizione di contenuti video, grazie al supporto a protocolli di streaming, è di buona qualità
e sono sempre più frequenti i servizi di live TV e video-on-demand.
Vi è però una anomalia temporale. Malgrado le attuali prestazioni dei dispositivi rappresentino, per così dire, un apparente segno
di maturità della tecnologia, in realtà hardware e software sono nettamente sfasati cronologicamente. Mentre la diffusione e la progressiva innovazione dei servizi Internet nel mercato consumer è
avvenuta quando il mercato PC era ormai consolidato sulle interfacce a finestre (principalmente sul sistema operativo Microsoft
Windows), la diffusione dei terminali mobili, telefoni cellulari in
primis, avviene mentre i paradigmi di interazione sono ancora in via
di sperimentazione e ricerca. È sufficiente utilizzare le funzioni
principali dei modelli di fascia intermedia di diversi produttori per
trovare interfacce utente completamente diverse e l'uso di approcci
spesso in contraddizione tra loro (ad esempio, nell'uso dei servizi di
messaggistica o della rubrica). Gli utenti, dunque, subiscono questa
anomalia, potendo disporre di oggetti estremamente sofisticati ma
sostanzialmente ―isolati‖ in termini di usabilità e sopratutto compatibilità con modelli di marche diverse.
Mobile Computing
271
In realtà, non potrebbe essere altrimenti. Mentre, infatti, i PC
sono ancora un prodotto per una clientela specializzata (o che, comunque, deve in qualche modo specializzarsi per poterli utilizzare),
i telefoni cellulari sono destinati ad un mercato molto più ampio, ad
ogni individuo, senza distinzione di età, professione, estrazione sociale. Nel momento in cui un prodotto di massa (il telefono) diventa
personalizzato (forme e funzionalità) e personalizzabile (applicazioni e temi) diventa difficile quel processo di standardizzazione e
omologazione che invece si ritrova nel mondo PC. È sufficiente osservare il divario tra i terminali austeri dello standard iDen venduti
negli Stati Uniti (e apprezzati per le caratteristiche miste di telefono
cellulare e walkie talkie) e quelli con grafica manga aderenti allo
standard iMode venduti in Giappone: impensabile scambiare questi
prodotti tra i due mercati, gli utenti hanno aspettative ed esperienze
di utilizzo talmente diverse che il tentativo di scambio sarebbe un
fallimento. Appare dunque estremamente difficile pensare un layout
fisico e una esperienza di utilizzo comune, ―globale‖, per uno strumento così intimo qual è un telefono cellulare, sia esso di fascia
bassa che di elevata sofisticazione.
Attualmente, i dispositivi proposti sul mercato presentano tre tipi
di form factor fisico e UI layout, che saranno descritti nel seguito.
L'estrema varietà di utenza possibile e le combinazioni di layout fisici e UI rappresentano una sfida per l'industria del software per dispositivi mobili. Come si vedrà a breve, ciascun layout ha precise
implicazioni sulla user experience e l'intersezione tra requisiti applicativi, destinatari e vincoli dei terminali commerciali può talvolta
non essere possibile.
I terminali telefonici sono realizzati in tre possibili forme: brick,
flip e slide.
Nella forma brick (―monoblocco‖, ―a mattoncino‖, altrimenti
detto ―candy bar‖, data la somiglianza con una barretta di cioccolato, vedi Figura 4), il terminale non ha parti in movimento ed è costituito da un unico blocco che contiene il display e l'eventuale tastiera. Un terminale di questo tipo ha tutti gli elementi funzionali immediatamente accessibili; opzionalmente, alcuni pulsanti dedicati
posti lateralmente attivano funzioni accessorie (accensione/spegnimento, regolazione del livello del volume, fotocamera).
272
Stefano Sanna
Figura 4. Telefoni cellulari con chassis di tipo ―brick‖
Questa forma comporta importanti conseguenze per le applicazioni.
In primo luogo, l'applicazione (o meglio, il designer che ha ne ha
progettato l'interfaccia grafica) sa di poter sempre disporre di tutti i
componenti per l'interazione: tutti i pulsanti del dispositivo sono
presenti in qualunque momento e non è richiesta alcuna operazione
da parte dell'utente per potervi accedere in caso di necessità (ad esempio, inserire dei dati in una finestra di dialogo). Poiché il
display è sempre visibile, una applicazione in background può attirare immediatamente l'attenzione dell'utente ponendosi in primo piano (eventualmente facendo lampeggiare la luce di retroilluminazione del display). È evidente, però, che la privacy dell'utente può
essere facilmente compromessa: ogni messaggio inviato dall'applicazione sul display del terminale, magari nel momento in cui questo
è rivolto verso l'alto su un tavolo di riunione, può essere facilmente
letto anche da persone diverse dal proprietario del terminale.
Una seconda forma, particolarmente apprezzata per le dimensioni compatte risultanti in condizioni di riposo, è quella denominata
flip (―a cerniera‖, altrimenti detta ―fold‖, ―a portafogli‖, oppure
―clamshell‖, ―a cozza‖, vedi figura 5), in cui il display e la tastiera
Mobile Computing
273
sono incernierati l'uno sull'altro, permettendo la chiusura del terminale prima di essere riposto in una tasca. I terminali a flip sono generalmente dotati di tastiera e, quando aperti, sono funzionalmente
identici ai brick con medesima componentistica. L'utente deve ―aprire‖ il terminale per poterlo utilizzare. Per ovviare a questo svantaggio, già da tempo i terminali di questo tipo sono dotati di un secondo display posto esternamente ed in grado di visualizzare le informazioni essenziali sullo stato operativo (numero/nome del chiamante, eventuali messaggi non letti, data e ora, funzionamento del
lettore di file audio).
Figura 5. Telefoni cellulari formato ―flip‖
Quando chiuso, la forma a guscio garantisce una maggiore protezione a display e tastiera rispetto alla forma brick. Le implicazioni
per il software applicativo alternano aspetti positivi e negativi. La
privacy è certamente garantita rispetto alla forma flip: in condizione
di riposo (chiuso) il display principale è inaccessibile e non leggibile da occhi indiscreti. D'altro canto, però, l'applicazione perde qual-
274
Stefano Sanna
siasi possibilità di attirare l'attenzione dell'utente ponendosi in primo piano sul display. L'unica soluzione è un segnale con vibrazione; in tal caso, però, l'utente è costretto ad aprire il terminale, anche
solo per dare un colpo d'occhio allo stato dell'applicazione.
Figura 6. Terminali in formato ―slide‖
La terza forma è denominata slide (―a scorrimento‖) ed è caratterizzata da due strati sovrapposti che scorrono uno sull'altro nel senso
della lunghezza (telefoni cellulari) o della larghezza (smartphone e
PDA phone). Lo strato superiore, sempre visibile, contiene il
display e qualche pulsante per le funzioni principali (gestione chiamate, softbutton e joypad); lo strato inferiore rivela all'occorrenza
un tastierino numerico o una tastiera QWERTY completa (vedi Figura 6). Il ―feeling‖ per l'utente è pressoché identico alla forma
brick, per le operazioni più frequenti non è necessario estrarre la tastiera. Le considerazioni di privacy sono le medesime a quelle espresse per la prima forma, mentre sul fronte dell'interazione
hardware e software occorre qualche accortezza. Le applicazioni,
infatti, potrebbero non sapere lo stato della tastiera (estratta o ritratta) e pertanto dovrebbero richiederne l'utilizzo solo a seguito di una
operazione esplicitamente compiuta dall'utente.
Oltre alle tre forme appena descritte, vi sono quattro possibili
layout di display e tastiera sulle superfici del terminale. Portait con
Mobile Computing
275
tastierino numerico, landscape con tastiera QWERTY, touch con
pennino (ed eventuale tastiera) e touch gestuale sull'intera superficie sono i principali layout oggi utilizzati.
Figura 7. Differenti layout di display e tastiera
Il layout portrait (Figura 7A) prevede il display in posizione verticale e alla base un tastierino numerico arricchito da un joypad e altri tasti accessori. Questo layout è utilizzato su tutte le forme viste
in precedenza (brick, fold, slider). Di recente, su terminali con questo layout sono state proposte applicazioni da utilizzarsi in modalità
landscape, ovvero con il display in posizione orizzontale (Figura
7B). La rotazione di 90° però pone un evidente problema di usabilità: le serigrafie sulla tastiera, infatti, risultano di difficile lettura
poiché orientate verticalmente rispetto al punto di vista dell'utente e
la disposizione dei tasti, anch'essa ruotata rispetto alla norma, rende
più complessa la digitazione sfruttando sistemi di input di testo rapido come il T9.
276
Stefano Sanna
L'utente, infatti, abituato a trovare lettere e simboli sulla matrice
3x3 del tastierino numerico, deve inevitabilmente prestare maggiore
attenzione durante la digitazione, poiché ciascun tasto (escluso il
5!) si troverà in posizione diversa da quella attesa. Così, ad esempio, la tripla ABC anziché trovarsi in posizione centrale della prima
riga si trova in prima posizione della prima riga, la tripla DEF non è
alla fine della prima riga ma all'inizio della stessa e così via. Tutti i
processi automatici di digitazione, basati sull'esperienza d'uso quotidiano, sono inevitabilmente compromessi. I softbutton risultano
posizionati lateralmente anziché alla base del display e devono essere accompagnati da etichette disegnate verticalmente, rendendo
l‘interfaccia ―anomala‖.
Il layout landscape (Figura 7C) prevede il display in posizione orizzontale e alla base una tastiera QWERTY completa, più il solito
joypad e gli altri pulsanti accessori. I dispositivi con form factor
brick non prevedono la rotazione in portrait; i terminali slide, invece, possono avere layout portrait quando la tastiera è chiusa e layout
landscape quando la tastiera è aperta, se quest'ultima corre orizzontalmente anziché verticalmente.
I vincoli dei layout portrait e landscape vengono meno se il display
è di tipo touch-screen, che è possibile considerare quasi come un
layout a sé stante (Figura 7D). Il display occupa l'intera superficie
del dispositivo e l'interazione avviene attraverso un pennino. L'interfaccia grafica riproduce pulsanti e tastiera (eventualmente non
presenti fisicamente sul dispositivo) e può essere adattata dinamicamente a seconda dell'orientazione del dispositivo. In caso di presenza di una tastiera estraibile, il cambio di orientazione portraitlandscape dipende dal suo stato.
L'evoluzione del layout touch-screen è quello gesture-based (Figura 7E), in cui non esiste alcun componente fisico di input se non il
display, la cui interfaccia grafica riproduce, quando necessario, i
componenti assenti (pulsanti e tastiera), ma offre all'utente un'interazione basata sui tratti (gesti) eseguiti con le dita sulla superficie
tattile. Mancano i concetti di menù contestuale: la contestualità è
data dall'azione, dal gesto compiuto sull'oggetto mostrato sul
display (un contatto, un messaggio, un'immagine). Tap (tocco),
double-tap, drag (trascinamento), double-drag (trascinamento a due
dita), consentono rispettivamente selezione, ingrandimento, scorri-
Mobile Computing
277
mento e rotazione che, di volta in volta, sono interpretati dal sistema operativo e tradotti in azioni sulle applicazioni. Attualmente,
l'unico ambiente totalmente gesture-based è iPhone OS, mentre esistono frontend simili per Windows Mobile (limitati, però, solo ad
alcune funzionalità).
Forme e layout determinano le modalità di interazione tra utente
e applicazione; applicazioni progettate per un certo layout (ad esempio, landscape anziché portrait) possono diventare inutilizzabili
su uno diverso. Forme, layout, sistema operativi e ambienti applicativi non sono combinabili in maniera indipendente ma la scelta di
uno di essi vincola inevitabilmente gli altri. Il vincolo è puramente
commerciale, ovvero legato a ciò che effettivamente è disponibile
sul mercato.
Pertanto, se in ambito PC è scontato trovare su qualunque postazione (e qualunque sistema operativo) schermo, tastiera e mouse
con tastiere assolutamente standardizzate, la raccolta dei requisiti e
la progettazione di una applicazione per dispositivi mobili non può
prescindere dalla selezione del tipo di terminale a cui è destinata. O,
alternativamente, scelto un modello come target, alcuni tipi di applicazioni potranno essere inevitabilmente escluse dalla fattibilità.
Lo stesso dicasi della scelta di un particolare sistema operativo o un
ambiente applicativo.
Navigazione e animazioni
Di tutti gli aspetti che riguardano la modellazione delle interfacce
grafiche dei dispositivi mobili, l'organizzazione della navigazione
tra le viste e le animazioni sono tra i più importanti. Entrambe sono
state finora sottovalutate e solo di recente hanno ricevuto maggiore
attenzione da parte dei designer di user interface. In particolare, le
animazioni, considerate in passato ―graziosi abbellimenti‖ della UI,
oggi svolgono un ruolo fondamentale nel fornire feedback delle azioni compiute dall'utente. Strutturare correttamente la navigazione
è fondamentale per superare una delle limitazioni intrinseche delle
interfacce dei dispositivi mobili: ogni vista è full screen e non esistono floating windows, l‘applicazione in primo piano nasconde
qualsiasi altra applicazione in esecuzione. Inoltre, i comandi principali si limitano al joypad più i softbutton o agli elementi grafici
278
Stefano Sanna
(touch-screen), raramente sono presenti shortcut. Mancano, dunque,
i componenti di contorno delle interfacce desktop, in grado di visualizzare la dipendenza delle diverse finestre (attraverso la sovrapposizione vincolata di dialog modali) o la notifica di operazione in
background attraverso barre opportunamente collocate lungo i bordi
dello schermo.
La quasi totalità delle interfacce grafiche si basa sul paradigma
di selezione di un elemento da una lista, che provoca il cambio di
vista (dettaglio sull'elemento) ed un comando ―indietro‖ che riporta
alla vista precedente. Quando più selezioni avvengono in successione accade che il sistema passi il controllo tra diverse applicazioni
(ad esempio, il dettaglio su una data all'interno di una applicazione
può portare all'apertura dell'utility Calendario per visualizzare l'elenco degli appuntamenti presi per tale data) e il comando che ripercorre all'indietro la navigazione sia costituito dal binomio ―esci/indietro‖ senza che però l'utente sia pienamente consapevole
della differenza delle due azioni. In altre parole, mentre il passaggio
da una vista all'altra su applicazioni diverse è un dettaglio implementativo e tecnico, per l'utente si tratta sempre di una navigazione
avanti e indietro che prescinde dalla suddivisione in applicazioni.
Figura 8. Navigazione tra viste e applicazioni
Ecco, dunque, che la discesa di quattro livelli può vedere l'alternanza ―esci‖ e ―indietro‖ senza che le due azioni abbiano effetti sostanzialmente differenti (vedi Figura 8). Su interfacce grafiche dotate di
navigazione ―a tab‖, ovvero con etichette che raggruppano funzio-
Mobile Computing
279
nalità o sottoinsiemi di dati, come le cartelle dove sono memorizzati
i messaggi, il comando ―indietro‖ diventa fuorviante: l'utente non sa
se ―tornare al passo precedente‖ corrisponda alla visualizzazione
del gruppo precedentemente selezionato oppure se si abbandona la
vista corrente per passare al menù principale.
Figura 9. Interfaccia utente con barra di navigazione
Una possibile soluzione a questo problema è la visualizzazione nella parte alta del display di una barra di navigazione, simile a quella utilizzata sui filesystem browser più recenti implementati su
Windows Vista, Mac OS X e Gnome. Ad ogni passo della navigazione, la vista corrente mostra il percorso che conduce dal menù
principale ad essa (ad esempio, MENU-SETUP-TELEFONOGENERALE). In questo modo l'utente può verificare immediatamente a quale contesto si riferisce la vista attuale e dove conduce
l'azione ―indietro‖ (l'immagine in Figura 9 è un concept grafico basato sulla Nokia Series 60 3rd Edition).
L'interfaccia grafica fornita da Cocoa Touch in ambiente iPhone
OS va in questa direzione e consente all'utente di orientarsi facilmente nella navigazione delle viste. Anziché indicare un generico
―indietro‖ sulla UI, ogni vista mostra una freccia verso sinistra, la
cui etichetta è il nome della vista che precede. L'elemento grafico
(la freccia verso sinistra) indica la semantica dell'azione (tornare
alla vista precedente) mentre il testo ne contestualizza l'esito (specifica qual è effettivamente la vista risultante).
280
Stefano Sanna
Figura 10. Supporto alla navigazione in iPhone OS
Quattro viste in sequenza sono concatenate l'una con l'altra grazie
all'etichetta di testo del titolo e del pulsante di ritorno alla vista precedente (vedi Figura 10). La direzione della freccia è correlata alle
animazioni che notificano la transizione da una vista all'altra: la discesa in profondità nell'albero delle viste provoca uno scorrimento
verso destra (la vista corrente slitta verso sinistra, dunque l'utente ha
percezione di spostare il proprio punto di osservazione verso destra), mentre la risalita verso le viste precedenti avviene verso sinistra, che è appunto il senso indicato dalla freccia. È evidente l'analogia con la lettura di un libro, che avviene sfogliando le pagine
ruotandole da destra a sinistra.
Le animazioni diventano parte integrante dell'esperienza interattiva sul dispositivo, non semplice abbellimento dell'interfaccia grafica. Le transizioni orizzontali (right-to-left e left-to-right) evidenziano la navigazione tra le finestre, mentre quelle verticali notificano la presenza di finestre modali che richiedono un'azione dell'utente prima di poter procedere con il funzionamento normale dell'applicazione. Ulteriori animazioni notificano altri cambi di contesto:
un effetto di fade-out segnala il passaggio ad una vista scorrelata da
quella corrente, mentre una rotazione sull'asse verticale indica la
Mobile Computing
281
visualizzazione di funzionalità accessorie (generalmente le impostazioni o informazioni dettagliate) sulla vista corrente.
Figura 11. Un effetto di rimbalzo indica l‘impossibilità di effettuare uno
scorrimento
Le animazioni possono svolgere un ruolo importante per dare riscontro delle azioni dell'utente sulla vista corrente (ovvero, non correlate ad una transizione). Cocoa Touch, ad esempio, utilizza un effetto rimbalzo per indicare all'utente che lo scorrimento in una direzione non è possibile. Anziché, dunque, inibire ogni movimento a
fine corsa, la vista ―rimbalza‖, come se fosse tenuta da un elastico,
segnalando all'utente che l'input (il trascinamento) è stato ricevuto
ma non ha avuto effetto sulla visualizzazione (vedi Figura 11). L'obiettivo è dare sempre e comunque un riscontro all'utente, anche se
negativo. Attraverso l'uso sapiente della correlazione tra le viste durante la navigazione e le animazioni, la qualità della userexperience migliora notevolmente.
282
Stefano Sanna
3. Mobile Sensor: l'Evoluzione della Mobile HCI
Quanto descritto finora rappresenta la modalità di interazione consolidata, comune a PC e dispositivi mobili, basata su tastiere e
display opportunamente disposti nelle forme degli chassis e nei
layout dei componenti. Si è anche visto che le dimensioni dei
display non consentono (o meglio, non incoraggiano) l'uso di interfacce multifinestra, mentre è preferibile arricchire la presentazione
con elementi che consentano all'utente di orientarsi nella navigazione tra le viste dell'applicazione. Si tratta comunque di una rivisitazione di canoni tradizionali (tastiere e display) mediati dal mondo
desktop a quello mobile. Quest'ultimo, però, ha contesti di utilizzo
imprevedibili, legati alla molteplicità di situazioni e luoghi in cui
può trovarsi l'utente. Non solo casa o ufficio, e non solo in condizione più o meno stazionaria (si veda nell'introduzione la differenza
tra mobile computing e nomadic computing), ma in situazione di
totale mobilità e libertà di azione: per strada, in auto, al gate di imbarco di un volo, durante un concerto, in un meeting di lavoro, in
barca o durante una escursione.
In queste condizioni, l'interazione non si limita all'accesso esplicito al dispositivo attraverso la sua UI, ma è legata al movimento,
alla posizione, all'ambiente, al dispositivo stesso, che possono essere considerate sorgenti di input automatiche. Il dispositivo (device), l'utente (user) e l'ambiente (ambient) sono tre contesti di esecuzione che possono essere esplorati attraverso opportuni sensori. Le
grandezze fisiche rilevate attraverso questi ultimi costituiscono un
flusso continuo di dati di input con cui una applicazione può attivare in autonomia una o più funzioni:
1.
nel device context i sensori forniscono informazioni sullo stato
del dispositivo, come il livello di carica della batteria e del segnale ricevuto o l'inclinazione nello spazio (attraverso un giroscopio o più accelerometri)
2.
nello user context i sensori forniscono informazioni sullo stato
dell'utente (considerato solidale con il dispositivo): posizione,
altitudine, velocità, nonché dati biologici quali pressione arteriosa, pulsazioni cardiache e tasso alcoolico
Mobile Computing
3.
283
nell'ambient context i sensori a bordo del dispositivo rilevano
grandezze fisiche relative all'ambiente quali umidità, pressione
atmosferica, direzione del campo magnetico terrestre, intensità
luminosa o sonora, oppure rilevano la presenza di oggetti attraverso l'uso tag e reader RFID.
La presenza di sensori embedded arricchisce notevolmente le possibilità di utilizzo del terminale mobile. I dati relativi allo stato del
dispositivo, alle attività dell'utente e alle caratteristiche dell'ambiente possono essere utilizzati per contestualizzare la comunicazione
con servizi remoti, per rilevare automaticamente condizioni di emergenza, per fornire dati ambientali in maniera capillare e distribuita (si pensi, ad esempio, ad ogni terminale mobile come ad una
stazione di rilevamento dell'inquinamento). Tutto questo avviene
senza che l'utente debba inserire manualmente delle informazioni
ed è proprio questo ―arricchimento automatico‖ che rende questa
evoluzione dei terminali mobili particolarmente interessante.
L'industria rende disponibile una grande quantità di sensori miniaturizzati (dunque adatti ad essere integrati all'interno dei dispositivi mobili) in grado di rilevare numerose grandezze fisiche. Attualmente, i sensori più diffusi rilevano luminosità e prossimità di
oggetti, la posizione geografica attraverso la rete dei satelliti GPS,
accelerazione e rotazione attraverso accelerometri, giroscopi e bussole digitali. Sensori più sofisticati permettono la rilevazione esatta
di oggetti dotati di NFC o decodificare datamatrix attraverso la fotocamera. Accanto alle funzionalità fornite dall'hardware, i sistemi
operativi e gli ambienti di programmazione si sono arricchiti di librerie e moduli software per l'interfacciamento ai sensori, fornendo
procedure automatiche di inizializzazione e conversione dei dati rilevati.
Il sensore di luminosità non interviene direttamente nel comportamento dell‘applicazione ma migliora la qualità della user experience sul dispositivo. In caso di illuminazione ambientale intensa,
infatti, aumenta la luminosità del display (affinché sia ben visibile)
e spegne la retroilluminazione della tastiera (per risparmiare batteria). Viceversa, in caso di utilizzo al buio, esso diminuisce la luminosità del display (affinché non dia fastidio alle pupille dilatate) e
accende la retroilluminazione della tastiera (che altrimenti sarebbe
284
Stefano Sanna
invisibile). Applicazioni intelligenti potrebbero utilizzare questo
sensore per adattare il proprio comportamento, ad esempio, disattivando gli effetti sonori se il dispositivo è al buio. Il sensore di prossimità permette di rilevare la presenza di un corpo (una mano, il viso) nelle immediate vicinanze del dispositivo. Il Nokia 7650 è stato
il primo telefono cellulare a disporre di questo tipo di sensore e ad
utilizzarlo per passare automaticamente dalla modalità vivavoce a
quella normale quando si porta il telefono all‘orecchio. L‘iPhone
utilizza il sensore di prossimità per spegnere il display durante la
telefonata e risparmiare carica della batteria.
Il ricevitore GPS (brevemente ―il GPS) consente alle applicazioni di determinare automaticamente posizione e velocità del dispositivo. Inizialmente era disponibile come espansione CompactFlash/PCMCIA o modulo Bluetooth esterno per palmari e cellulari
di fascia alta. Il crollo dei prezzi dei chip GPS ne ha consentito l'integrazione in dispositivi consumer, e tale componente è sempre più
presente nei nuovi modelli di telefoni cellulari, anche di prezzo non
elevato. Numerosi modelli di recente produzione includono un ricevitore A-GPS (Assisted GPS), che utilizza un assistance server remoto per i calcoli più onerosi. L‘A-GPS è più rapido all‘avvio, consente di risparmiare CPU e batteria, ma necessita di una connessione wireless attiva. La presenza di un GPS integrato consente la realizzazione di interessanti scenari applicativi. In primo luogo, vi sono i Location-based Service (LBS), attraverso i quali le informazioni richieste o inviate ai servizi remoti e gestiti dall‘applicazione sono elaborate in base ai dati di localizzazione (vedi Figura 12).
L'utente, dunque, non deve inserire manualmente la propria posizione o proporre delle chiavi di ricerca contestuali con il luogo in
cui si trova. Oltre a questa attività di automatizzazione, il GPS consente di determinare la direzione del moto dell'utente e, dunque, attivare meccanismi di pre-caricamento dei dati in funzione delle destinazione impostata (o presunta). Nel settore del mobile gaming, la
localizzazione dei giocatori consente di verificare la loro presenza
in un luogo specifico e, in questo senso, i georeferenced-games offrono una esperienza di gioco combinata reale-virtuale. Le prime
applicazioni basate su GPS si interfacciavano direttamente allo
stream seriale NMEA proveniente dal GPS e dovevano provvedere
alla decodifica dei dati. I moderni sistemi operativi ed ambienti di
Mobile Computing
285
programmazione offrono API di alto livello per la lettura di posizione, altitudine, velocità e direzione goniometrica. I framework più
evoluti come la Location API di Java ME offrono la possibilità di
registrare una applicazione al sistema di localizzazione, affinché
venga automaticamente segnalato l‘ingresso in una zona di interesse.
Figura 12. Location-based service su iPhone
Sempre più diffuso nei terminali di nuova generazione, l'accelerometro permette di misurare le accelerazioni a cui è soggetto il dispositivo (compresa, ovviamente, l‘accelerazione di gravità). Sono
disponibili modelli a 2 e 3 assi, con range ±1g, ±2g, ±6g. Introdotto
dalla console Nintendo Wii e dalla prima generazione di iPhone,
l‘accelerometro è utilizzato per rilevare sia i movimenti corrispondenti ad accelerazioni repentine del dispositivo sia l'inclinazione rispetto alla direzione della forza peso. Nei giochi, i movimenti degli
oggetti sul video sono scatenati da movimenti fisici nello spazio;
nei multimedia player, invece, l'accelerometro è utilizzato come
shaker control, per cambiare il brano in riproduzione o per mixare
in tempo reale e casuale diversi campioni audio. Infine, l'accelerometro agisce come interface controller, permettendo la commutazione automatica in modalità landscape quando si ruota il dispositi-
286
Stefano Sanna
vo rispetto al piano di terra. I sistemi di sviluppo e gli ambienti di
programmazione stanno rapidamente integrando librerie per la lettura dei dati dell‘accelerometro. Apposite estensioni sono già disponibili su Symbian OS in C++ e Python, mentre per la piattaforma Java ME la Mobile Sensor API (JSR 256) implementata sulla
JP-8 di alcuni device Sony-Ericsson consente di accedere all'accelerometro ed ad altri eventuali sensori installati sul dispositivo. Su iPhone OS, le applicazioni possono accedere direttamente ai valori
di accelerazione rilevati dall‘accelerometro o lasciare che il sistema
operativo ruoti i componenti dell‘interfaccia grafica (notificando
comunque la rotazione).
La presenza dell'accelerometro consente la sperimentazione di
nuove modalità di interazione con il dispositivo mobile. In particolare, il suo utilizzo come inclinometro, in grado cioè di rilevare la
posizione rispetto alla direzione della forza peso, permette di inferire l'attività corrente dell'utente e, dunque, attivare opportune funzioni. È l'idea di base del prototipo Graviter (presentato a Frontiers
of Interaction IV1), utilizzato per inviare automaticamente su Twitter lo stato dell'utente. Osservando il comportamento degli utenti si
è visto che durante una comune giornata di lavoro, il telefono cellulare è solitamente collocato sulla scrivania o accanto al piano di lavoro con il display rivolto verso l'alto; questo consente all'utente, in
caso di necessità (ad esempio, una chiamata in arrivo) di dare
un‘occhiata al terminale per vederne lo stato. Viceversa, se disturbati durante una riunione, l'atteggiamento comune è quello di rovesciare il terminale con il display verso il piano del tavolo, affinché il
lampeggìo del display stesso non distragga gli altri partecipanti e
soprattutto i presenti non possano leggere il nome del chiamante
mostrato dal terminale (si veda la sezione precedente dedicata alle
forme dei terminali e alle conseguenze che queste hanno sulla
privacy dell'utente). Mentre si cammina, il cellulare è solitamente
posto in posizione verticale, nella tasca di una camicia o dei pantaloni, con il display rivolto verso l'alto affinché sia possibile darci
un'occhiata senza che sia necessario estrarlo del tutto. Viceversa, se
durante il movimento il cellulare non è in tale posizione, è possibile
che sia stato messo in tasca distrattamente o con noncuranza. Gravi1 http://frontiers.idearium.org
Mobile Computing
287
ter, dunque, rileva ciascuna di queste condizioni attraverso la lettura
dell'accelerazione di gravità e indicando lo stato dell'utente su Twitter. Se l'accelerazione di gravità ha componente massima ortogonale al display nel verso entrante, Graviter segnerà lo stato ―available‖, corrispondente all'utente non impegnato, seduto alla propria
postazione di lavoro. Se invece tale componente avrà verso opposto, significa che l'utente è impegnato e il dispositivo è stato ruotato
con il display verso il basso, condizione notificata con lo stato
―busy‖ su Twitter. Allo stesso modo, la posizione verticale sarà associata alla componente massima del campo parallela all'asse Y del
display (―walking‖) e tutte le altre su uno stato ―unknown‖. Graviter ha solo una valenza sperimentale, poiché non è pensabile riassumere gli stati di un individuo a sole quattro possibilità, ma come
prototipo evidenzia quali sono gli scenari che possono realizzarsi
utilizzando i sensori di bordo e analizzando i comportamenti degli
utenti nell'uso dei dispositivi mobili.
Meno diffusi degli accelerometri ma attesi nel mercato di consumo nei prossimi anni, i moduli NFC (Near Field Communication) consentono ai terminali mobili e alle applicazioni installate di
rilevare la presenza di oggetti dotati di tag RFID in un raggio di alcuni centimetri. NFC è una specifica standard per comunicazioni
radio sicure a corto raggio che estende la tecnologia RFID per la
lettura e scrittura di tag, il riconoscimento di oggetti, l'autenticazione utente e la mutua autenticazione degli utenti. Il telefono cellulare
diventa contemporaneamente lettore e scrittore di tag, tag esso stesso, e motore crittografico. L'utilizzo più semplice è quello del riconoscimento di un oggetto attraverso un identificatore univoco e la
possibilità di ottenere informazioni aggiuntive su di esso effettuando una ricerca presso un servizio remoto indicando tale identificativo. Negli scenari più complessi, invece, il terminale mobile diventa
esso stesso tag attivo, in grado di essere rilevato da altri terminali o
da altri sistemi (ad esempio, un controllo varchi) e scambiare dati
cifrati utilizzando la SIM dell'utente per firmare digitalmente le informazioni in transito. Come RFID da cui deriva, NFC si presta a
numerose applicazioni, tra cui instant ticketing by touch, controllo
accessi, annotazione digitale. La prima piattaforma che supporta nativamente lo standard NFC è Java ME, attraverso la Contactless
288
Stefano Sanna
Connection API (JSR 257) disponibile sui terminali commerciali
Nokia 6131 NFC e Nokia 6212 Classic NFC.
Quando si parla di sensori su dispositivi mobili, si pensa solitamente agli accelerometri e a tutti gli altri componenti che sono stati
citati all'inizio di questa sezione. In realtà, uno dei più potenti sensori installati a bordo dei terminali è la fotocamera digitale, in grado
di acquisire immagini in alta risoluzione (sino a 8Megapixel) anche
in condizioni di luce sfavorevoli. Le fotocamere digitali consentono
l'acquisizione di tag visuali (DataMatrix, Semacode, QRCode), più
economici dei tag RFID (anche se rispetto a questi ultimi sono utilizzabili evidentemente solo in lettura!) e stampabili immediatamente su qualsiasi supporto cartaceo.
Figura 13. Esempi di Visual Tag
I visual tag consentono la creazione di link web su oggetti fisici,
come un articolo di un giornale, un manifesto pubblicitario o indumenti, permettendo l'attivazione automatica di applicazioni o di pagine web correlate all'oggetto (vedi Figura 13).
4. Ambient Interaction e Capillary Computing
Il Mobile Computing sta conoscendo una crescita rapidissima in
termini di prestazioni, varietà di servizi offerti, complessità dei dispositivi e numero di utenti. È possibile considerarlo come una dilatazione del mondo PC nella direzione della mobilità, a supporto di
ogni individuo. Il Mobile Computing non è un punto di arrivo, ma
Mobile Computing
289
un settore di transizione verso una adozione massiva e pervasiva di
sistemi di calcolo elementare e acquisizione dati distribuiti.
Figura 14. Oltre il pervasive computing
La miniaturizzazione dei componenti a semiconduttore e la rapida
diminuzione dei costi di produzione ha portato alla progettazione e
realizzazione di microcalcolatori in grado di accedere comunicare
su rete IP, eseguire software personalizzato ed essere collocati in
vending machine, POS, sistemi di intrattenimento, stampanti, antifurto. Laddove c'era un sistema elettronico preprogrammato, si è
sostituita la logica automatica con una applicazione interattiva, in
grado di connettersi alla rete ed adattare il funzionamento dell'oggetto in base a informazioni provenienti da remoto o alla ―storia‖ di
utilizzo. La penetrazione del computer e della Rete come parti integranti dell'ambiente ha portato alle definizioni ―Pervasive
Computing‖, ―Ubiquitous Computing‖ e alla più recente ―Internet
of Things‖, nella quale gli oggetti fisici partecipano la Rete come
risorse attive. Sono evoluzioni estremamente interessanti, che rafforzano tecnologie diffuse in ambito client/server portandole sui si-
290
Stefano Sanna
stemi embedded. Si tratta comunque di apparati in grado di utilizzare nativamente uno o più protocolli standard di Internet, come
HTTP (con web service SOAP o REST), XMPP, SMTP e altri, o in
grado di accedere ad una macchina gateway dedicata in grado di
comunicare con tali protocolli. Per quanto la potenza dei sistemi
embedded sia in continua crescita, è evidente che per supportare
appieno tali protocolli e garantire buone prestazioni e sicurezza è
necessario disporre di calcolatori piuttosto evoluti.
Vi è però
una classe di sistemi ulteriormente miniaturizzati e con bassissimo
consumo energetico i quali, benché non in grado di accedere ai servizi di Internet, possono svolgere localmente funzionalità di raccolta dati, elaborazione, avvio di attuatori (motori, luci, automatismi) e
comunicazione con esemplari omologhi attraverso sistemi di networking specializzati. Non una ―Internet of Things‖ ma una
―Internet of Sensor Networks‖, dove ciascuna rete vive di vita propria, utilizzando tecnologie specializzate e protocolli ad hoc. Si prospetta un nuovo modello di networking, di acquisizione dati e attivazione di output fisici che è possibile definire ―Capillary
Computing‖ (vedi Figura 14). Questa felice espressione, coniata da
Gavino Paddeu dell'Area NDA del CRS4 nell'ambito del progetto
DART, rappresenta perfettamente, grazie all'analogia con il sistema
cardiocircolatorio umano, lo scenario applicativo che si prospetta
per i prossimi anni: alla periferia dei vasi principali(le dorsali della
Rete e i collegamenti domestici a larga banda) si sviluppano delle
connessioni periferiche estremamente ramificate e localizzate - capillari, appunto - in grado di raggiungere qualsiasi punto dello spazio fisico dove sia necessario leggere dati ambientali o azionare degli attuatori. I nodi periferici della Rete, dunque, non sono più i
computer ma oggetti più piccoli e specializzati: telefoni cellulari nel
caso più evoluto, ma anche sistemi embedded dotati di interfaccia
IP. C'è però un elemento che segna una rottura rispetto ai sistemi
tradizionali: l'elemento periferico della Rete Internet (il sistema
embedded, ad esempio) diventa gateway verso reti dedicate, ad esempio ZigBee, costituite da decine, centinaia di nodi connessi in
maniera eterogenea.
L'evoluzione delle wireless sensor network, in termini di affidabilità e economicità, faciliterà la realizzazione di scenari applicativi
complessi, in cui porzioni dello spazio fisico saranno controllate da
Mobile Computing
291
nodi intelligenti connessi tra loro attraverso reti wireless dotate di
un nodo gateway in grado di accedere alla rete Internet senza soluzione di continuità. Piattaforme quali SunSPOT di Sun Microsystems o JCreate di Sentilla, dotati di virtual machine Java, sensori
on-board, di uno stack di networking wireless integrato e soprattutto di ingressi ed uscite analogici e digitali per il collegamento di
sensori e moduli addizionali, sono esempi concreti di tale evoluzione. Moduli, sensori e reti wireless sono la base del Capillary
Computing, sul quale si prospettano scenari applicativi di ambient
interaction: domotica, automazione industriale e sicurezza negli
spazi chiusi, monitoraggio ambientale, automazione delle aree urbane e sicurezza in spazi aperti. Dati provenienti da reti capillari installate su un'area definita potranno azionare sistemi gestiti da un'altra rete, con una granularità finora riservata solo ad attività umane.
I dispositivi mobili svolgono un ruolo fondamentale in questo
scenario, nella duplice veste di sistemi di acquisizione dati ubiqui
(grazie ai sensori installati a bordo) e di sistemi di controllo locale
sulle reti capillari. In altre parole, grazie alla molteplicità di interfacce di comunicazione (reti telefoniche, WLAN, Bluetooth, ZigBee, NFC) si prospetta la possibilità di utilizzare il proprio terminale, di qualunque tipo esso sia, con il sistema di pervasive/capillary computing fornito dall'ambiente (sia esso l'ufficio, una
stazione della metro o un'autovettura presa a noleggio), accedere ai
suoi servizi e fornirne di nuovi ad esso (ad esempio, indicare al veicolo lo stato di salute di chi guida). La rete capillare amministra il
suo dominio (la cucina di una abitazione, l'impianto di irrigazione
di un orto botanico) in maniera indipendente, fornendo servizi direttamente sul dispositivo mobile dei frequentatori del dominio stesso.
Conclusioni
Il Mobile Computing rappresenta una delle più importanti rivoluzioni del mondo ICT dopo l'avvento del personal computer e della
Rete. Rispetto alle precedenti rivoluzioni, però, il numero di persone potenzialmente coinvolte è incredibilmente più ampio fin dall'inizio: non più una tecnologia per ―addetti ai lavori‖ che diventa per
tutti, ma un prodotto di massa (il telefono cellulare) che si arricchi-
292
Stefano Sanna
sce di nuove funzionalità. Da mezzo di comunicazione vocale (più i
servizi di messaggistica di base), diventa oggetto personale programmabile e connesso di supporto alla mobilità. E lo è per ogni
individuo, a prescindere dalla collocazione geografica, dall'età,
dall'estrazione sociale, dalla cultura, dalla lingua.
Realizzare strumenti che siano efficaci per funzionalità e per usabilità è una sfida importante che coinvolge interaction designer,
sviluppatori, grafici, progettisti hardware. Mentre il mondo PC è
maturo e consolidato su paradigmi di interazione collaudati e universali, nel Mobile Computing è ancora marcata una frammentazione negli approcci, sia della progettazione hardware che in quella
software. Un elevato numero di sistemi operativi e ambienti applicativi rendono difficoltosa la realizzazione di prodotti in grado di
funzionare su un vasto set di dispositivi, con inevitabili conseguenze in termini di costi e compromessi di usabilità riscontrabili da una
piattaforma all'altra. D'altro canto, tanta varietà costituisce una importante risorsa per il settore, che raccoglie i frutti della sperimentazione, dell'accettazione e del rifiuto da parte degli utenti delle soluzioni proposte dall'industria.
L'interazione uomo-macchina su dispositivo mobile si va però
razionalizzando e nel futuro a medio termine si intravedono le interfacce touch/multi-touch su un display che occupa l'intera superficie
del terminale quali candidate ideali a sostituire forme e layout attualmente presenti. Parallelamente, nuovi approcci alla navigazione
delle viste e l'uso sapiente delle animazioni stanno portando ad una
notevole semplificazione delle interfacce utente, a tutto vantaggio
dell'usabilità dei dispositivi e delle applicazioni, che si traduce rapidamente in una propensione degli utenti ad utilizzare i terminali per
funzionalità avanzate, come accesso a Location-based service, servizi di comunicazione integrata ed interfacce a sistemi di ambient
intelligence.
I sensori rappresentano la nuova frontiera dell'interazione: accelerometri, GPS, lettori RFID arricchiscono le occasioni e le modalità di utilizzo del dispositivo mobile, permettendo scenari applicativi
quali il gesture control, il riconoscimento automatico di oggetti, la
permeabilità tra Rete e mondo reale attraverso i servizi georeferenziati. L'incontro tra Mobile Computing e Pervasive Computing è la
rivoluzione successiva, in cui i dispositivi mobili costituiranno le
Mobile Computing
293
interfacce universali verso una moltitudine di reti capillari di sensori distribuiti nell'ambiente.
Letture Consigliate
School of Management [2008] Il Mobile diventa Web. Il Web diventa Mobile,
Politecnico di Milano
Norman, D. [2005] Il computer invisibile, Apogeo, Milano
Sterling, B. [2006] La forma del futuro, Apogeo, Milano
Wood, D. [2005] Symbian for Software Leaders: Principles of Successful
Smartphone Development Projects, John Wiley & Sons, Chichester
Moggridge, B. [2006] Designing Interactions, The MIT Press, Cambridge
Sanna, S. [2007] Java Micro Edition, Sviluppare applicazioni network-oriented per
telefoni cellulari e PDA, Ulrico Hoepli Editore, Milano
Apple [2008] iPhone Human Interface Guidelines (e-book), Apple Inc, Cupertino
Saffer, D. [2007] Designing for interaction, New Riders, Berkeley
Stefano Sanna è Senior Engineer e Java ME Tech Lead presso beeweeb
techologies (Roma), dove si occupa di sviluppo di applicazioni di Mobile
TV. In precedenza è stato Expert Software Engineer nell‘area Network Distributed Applications del CRS4, dove ha partecipato a numerosi progetti
di ricerca industriale nel campo del mobile computing, sistemi distribuiti e
sistemi georeferenziati. È autore del libro ―Java Micro Edition Sviluppare
applicazioni network-oriented per telefoni cellulari e PDA‖ (Ed. Hoepli,
2007), di oltre 50 articoli e pubblicazioni tecniche. Ha tenuto numerosi
seminari su Java e tecnologie di mobile computing in Italia e all'estero.
Scrive regolarmente sul suo blog raggiungibile all'indirizzo
http://www.gerdavax.it ed è possibile contattarlo via email all'indirizzo
[email protected] e su Skype con l'account ―gerdavax‖.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Interfacce Uomo-Macchina nella Realtà
Virtuale
José A. Iglesias Guitián – Visual Computing Group, CRS4
[email protected]
Marco Agus – Visual Computing Group, CRS4
[email protected]
Abstract. Questo capitolo fornisce una descrizione dei principali elementi
che influenzano l‘interazione uomo–macchina in riferimento alla realtà
virtuale, per come si configurano attualmente, e per come si prevede si svilupperanno in un prossimo futuro. Il capitolo è organizzato nel modo seguente: l‘introduzione presenta il concetto di realtà virtuale soprattutto in
relazione alle possibilità offerte per quanto riguarda l‘interazione tra uomo
e macchina, ed alle applicazioni di nuova generazione. La sezione successiva descrive i principali requisiti ed i vincoli che un sistema di realtà virtuale deve soddisfare per riuscire a fornire all‘utente un‘impressione convincente e delle esperienze realmente immersive. Viene quindi presentato
l‘hardware per il feedback sensoriale principale, descrivendo le principali
tecnologie di nuova generazione per la realizzazione di dispositivi in grado
di fornire delle sensazioni visive e tattili estremamente realistiche. Infine si
descrivono brevemente alcuni esempi di applicazioni di realtà virtuale realizzate dagli autori, nel campo della simulazione chirurgica, dei musei virtuali e dei sistemi di visualizzazione autostereoscopici multiutente, e, da
ultimo, si discute brevemente la situazione attuale ed il potenziale futuro
della disciplina.
Introduzione
Realtà virtuale (in inglese virtual reality, abbreviato VR) è il termine utilizzato comunemente per indicare una realtà sintetica simulata
attraverso l‘ausilio del computer. A livello teorico, la realtà virtuale
dovrebbe essere realizzata attraverso un sistema totalmente immer-
296
José A. Iglesias Guitián, Marco Agus
sivo in cui tutti i sensi umani sono coinvolti (più specificamente realtà virtuale immersiva o RVI). Tuttavia, allo stato attuale il termine
è applicato solitamente a qualsiasi tipo di simulazione virtuale creata attraverso l‘uso del computer, dai videogiochi che vengono visualizzati su un normale schermo, alle applicazioni che richiedono
l‘uso di appositi sensori. Da un punto di vista commerciale si può
dire che già a partire dagli anni 80, la VPL Research, fondata da Jaron Lanier, vendeva prodotti e dispositivi specifici per la realtà virtuale.
La realtà virtuale, per sua stessa definizione, simula il più realisticamente possibile la realtà effettiva. In pratica però, per problemi
tecnologici (tra cui la limitata capacità di calcolo degli attuali sistemi informatici) non è ancora stato raggiunto un livello di realismo così elevato da rendere indistinguibile l‘ambiente simulato da
quello reale. La quasi totalità di questi ambienti virtuali rimangono
prevalentemente limitati ad esperienze visive e sonore. Dal punto di
vista delle applicazioni, gli ambienti virtuali vengono al momento
programmati per alcune categorie di utenti, come ad esempio i piloti di aerei che utilizzano questa tecnologia per prepararsi al volo,
oppure i chirurghi che fanno pratica su determinate procedure operatorie. Alcuni prevedono che una vera e propria commercializzazione di massa della realtà virtuale immersiva si avrà ottimisticamente nel corso del XXI secolo. Nel corso di questo capitolo vengono descritte le origini del concetto di realtà virtuale, e quali sono i
vari problemi affrontati dalla comunità scientifica ed ancora da risolvere soprattutto in relazione agli aspetti legati all‘interazione
uomo-computer.
Background e motivazione
Per quanto riguarda le origini del concetto di realtà virtuale, esse
possono essere fatte risalire alla pubblicazione dell‘articolo ―The
Ultimate Display‖ (Sutherland, 1965), nel quale Ivan Sutherland
(vedi Figura 1) per primo introdusse i concetti chiave di immersione in un mondo simulato, e di scambio sensoriale completo, che
rappresentano la base dell‘attuale ricerca nel campo della realtà virtuale. All‘interno dell‘articolo in questione, la sfida di ricerca venne
lanciata attraverso la seguente metafora:
Interfacce Uomo-Macchina nella Realtà Virtuale
297
Lo schermo è una finestra attraverso la quale si può vedere un mondo virtuale. La sfida è fare in modo che quel mondo appaia reale, si
comporti in modo reale, emetta suoni reali, e si senta reale. (Sutherland, 1965).
Tale affermazione, che può essere interpretata come una sfida a trovare metodi per simulare la presenza degli utenti che funzionino
come metafore di interfaccia verso un mondo sintetico, è diventata
punto di riferimento per la ricerca da parte di una comunità crescente di ricercatori e industrie. La motivazione per tale direzione di ricerca è duplice. Da un punto di vista evolutivo, la realtà virtuale è
considerata come un modo per superare le limitazioni delle interfacce standard uomo–computer; mentre da un punto di vista rivoluzionario, la tecnologia realtà virtuale apre la porta a nuovi tipi di
applicazioni che sfruttano le possibilità offerte dalla simulazione di
presenza.
Figura 1. Il primo prototipo di setup per realtà virtuale, creato da un team
guidato da Ivan Sutherland. Fonte: www.flickr.com con licenza Creative
Commons1
1 http://creativecommons.org
298
José A. Iglesias Guitián, Marco Agus
Figura 2. Evoluzione delle interfacce. Sinistra: metafora desktop popolare
nei PC. Centro: iphone della Apple. Destra: interfaccia Wii della Nintendo. Fonte: www.flickr.com con licenza CC.
Nuovi metodi di interazione
Nel corso degli ultimi decenni si è assistito ad un‘enorme crescita
dell‘utilizzo del computer come strumento d‘ausilio e di supporto
per quasi tutte le attività umane. Una delle principali ragioni di tale
sviluppo è stata l‘introduzione di interfacce human-friendly che
hanno reso i computer facili da usare e da apprendere. Attualmente
sempre più device incorporano interfacce piuttosto complesse che
abilitano l‘utente ad evidenziare, spostare e modificare i contenuti
semplicemente attraverso movimenti delle dita su uno schermo. A
titolo di esempio, lo smart phone Apple iPhone2 possiede
un‘interfaccia in grado di simulare la fisica di oggetti 3D reali ed il
display è inoltre collegato a diversi sensori: un sensore di vicinanza
per spegnere il display ed il touch-screen in modo da risparmiare
energia e prevenire input involontari, un sensore di luce ambientale
per regolare la luminosità del display, ed infine un accelerometro a
3–assi per misurare l‘orientazione del telefono e modificare il contenuto visualizzato in modo appropriato. D‘altra parte, queste nuove
interfacce sono delle naturali evoluzioni del paradigma di interfaccia utente che maggiormente ha avuto successo nel corso degli anni: ovvero la metafora desktop ideata da Xerox Parc che è stata poi
resa popolare tra gli utenti dei PC dalla Macintosh. In ogni caso,
mentre la metafora desktop è sicuramente appropriata per
l‘interazione con mondi bidimensionali, inizia a mostrare limitazio2 http://en.wikipedia.org/wiki/Apple_iPhone
Interfacce Uomo-Macchina nella Realtà Virtuale
299
ni quando la si utilizza per interagire con mondi tridimensionali. Infatti, i maggiori difetti di questa soluzione sono l‘assenza di correlazione tra manipolazione ed effetto ed allo stesso tempo il grado
elevato di separazione cognitiva tra gli utenti ed i modelli con cui
stanno interagendo (Conner, et al., 1992; Gobbetti & Balaguer,
1993; Gobbetti & Balaguer, 1995).
Allo stato attuale, prodotti come iPhone della Apple o la console
Wii della Nintendo hanno reso comune l‘utilizzo di accelerometri e
misuratori di orientazione come nuovi dispositivi di input che arricchiscono le possibilità di interazione tra l‘uomo e il computer (Figura 2). Il feedback fornito agli utenti rappresenta però anche un
problema: le limitate informazioni sulla struttura del mondo tridimensionale che vengono ricostruite a partire da un‘immagine visiva
fissa costringono spesso l‘applicazione ad utilizzare molteplici viste
per poter fornire informazioni di profondità aggiuntive. Questo fatto
porta gli utenti a combinare viste separate per crearsi un‘immagine
mentale di oggetti complessi, ed aggiunge ulteriore complessità a
questa spesso molto difficile operazione (Herndon, et al., 1992) in
quanto costringe gli utenti a concentrarsi su come ottenere quello
che desiderano piuttosto che sull‘operazione stessa.
La ricerca sulla realtà virtuale, che parte dal presupposto che gli
esseri umani sono ben equipaggiati per interagire col mondo dove
vivono, dovrebbe sforzarsi di fare in modo che gli utenti interagiscano con i mondi virtuali allo stesso modo nel quale interagiscono
con i mondi reali, in modo da rendere l‘interazione la più naturale
possibile e da ridurre i tempi e le fasi di addestramento. Il potenziale dei sistemi di realtà virtuale come metafora intuitiva per
l‘interazione uomo–computer è pertanto enorme, dal momento che
l‘utente può sfruttare le sue abilità cognitive e sensoriali per interagire con il mondo con una grande varietà di modalità sensoriali.
Applicazioni di nuova generazione
La realtà virtuale consente agli operatori di compiere operazioni su
mondi reali remoti, su mondi sintetici generati al computer, o una
combinazione di entrambi. Una definizione di questo tipo rende
quasi qualsiasi area di attività umana adatta ad una rappresentazione
300
José A. Iglesias Guitián, Marco Agus
mediante realtà virtuale (Gobbetti & Scateni, 1998). Nel seguito,
descriviamo brevemente le più diffuse.
Prototipazione Virtuale
Quando si parla di progetti ingegneristici a larga scala, la fase più
importante è quella di design, ed anche la più delicata a causa dei
possibili drammatici effetti sui risultati finali. La Prototipazione
Virtuale consente ai progettisti di testare e migliorare i propri progetti con la stessa precisione che si potrebbe ottenere utilizzando
dei plastici, ma in modo più rapido e con maggiore flessibilità anche per quanto riguarda le collaborazioni in remoto, ed inoltre con
una notevole riduzione dei tempi e dei costi (Balaguer & Gennaro,
1996).
Figura 3. Visualizzazione del modello CAD del Boeing 777 attraverso
tecniche di multi-risoluzione sviluppate dal CRS4.
Da questo punto di vista, l‘esplorazione di costruzioni architettoniche ha rappresentato nel corso degli ultimi anni una delle applicazioni di realtà virtuale dal maggior successo. Questo tipo di sistemi
consente all‘architetto di prototipare un edificio e di scambiare informazioni ed opinioni con il cliente in modo tale da affinare i dettagli del progetto ed inserire gli elementi desiderati (Brooks , 1986;
Airey, et al., 1990). In un tentativo di migliorare i sistemi CAD tradizionali, grossi progetti ingegneristici si sono spesso accompagnati
con lo sviluppo di strumenti di prototipazione virtuale (Ellis, 1996).
Esempi di questo tipo sono il dimostratore ISS VR utilizzato da
Rolls Royce per dimostrare la facilità di assemblaggio e di manu-
Interfacce Uomo-Macchina nella Realtà Virtuale
301
tenzione di un motore (Haines & Akenine-Moller, 2002) ed il sistema di visualizzazione ad alte prestazioni della Boeing, utilizzato
per il design del modello 777 (McNeely , 1996), si veda in Figura 3
una visualizzazione del modello CAD del Boeing 777 attraverso un
dimostratore realizzato al CRS4 (Gobbetti & Marton, 2005). Inoltre, l‘agenzia spaziale francese (CNES) e CISI hanno congiuntamente lanciato il progetto di ricerca PROVIS nel 1995 per sviluppare soluzioni per i progettisti di satelliti per creare, manipolare e studiare i loro modelli utilizzando plastici digitali, mentre il CRS4 ed
il CERN hanno congiuntamente sviluppato il sistema i3d per supportare il design del Large Hadron Collider del CERN (Balaguer &
Gobbetti, 1995, 1996; Gobbetti & Balaguer, 1995, Gobbetti, et al.,
1995). Tutti questi sforzi mostrano l‘interesse nei confronti della
prototipazione virtuale interattiva come strumento di testing iniziale
dei progetti. Nel corso degli ultimi anni, gli sforzi di ricerca e sviluppo per la costruzione di sistemi di prototipazione virtuale hanno
avuto origine dalle esigenze di progetti specifici. Studi in corso al
centro Fraunhofer per la ricerca in Computer Graphics hanno come
oggetto l‘integrazione di strumenti esistenti per fornire caratteristiche di prototipazione virtuale ai sistemi CAD (Jasnoch, 1996).
Figura 4. Stampanti di prototipazione 3D che utilizzano gesso e resina (ZCorporation e Stratasys).
302
José A. Iglesias Guitián, Marco Agus
Proprio di recente, compagnie come ZCorporation3 o Dimension4
hanno immesso sul mercato nuove soluzioni rapide per la prototipazione (si veda Figura 4). Per esempio, stampanti 3D a colori ad alta
definizione, che creano prototipi fisici tridimensionali attraverso la
solidificazione mediante un legante liquido di strati di polvere di
gesso depositata.
Figura 5. Esempi di modelli stampati con una stampante 3D.
Altri dispositivi che vengono comunemente usati per la prototipazione virtuale rapida sono gli scanner real-time, che usano tre camere CCD ad alta velocità ed un‘unità di proiezione laser per triangolare le posizioni degli oggetti a partire da una serie di target posizionati in modo casuale. In Figura 5 vengono mostrati alcuni modelli prototipati attraverso una stampante 3D dopo essere stati scannerizzati con uno scanner laser. Infine, un esempio recente di applicazione della Prototipazione Virtuale è rappresentato dalla progettazione della nuova Nissan Micra CC convertibile. La creazione
dell‘automobile ha riguardato la realizzazione di nuovi paraurti anteriori e posteriori e portiere, ed una ri-decorazione delle parti esistenti. Per la creazione delle nuove parti, la compagnia inglese Ogle
Models and Prototypes5ha avuto a disposizione i dati completi della
superficie ed ha fatto un certo numero di tentativi prima che i dati
finali per la lavorazione fossero rilasciati. I risultati furono presentati in tempo utile e secondo la stima iniziale di spesa al Motor
Show di Francoforte del 2008. La stessa compagnia ha inoltre in
3 http://www.zcorp.com
4 http://www.dimensionprinting.com
5 http://www.oglemodels.com/.
Interfacce Uomo-Macchina nella Realtà Virtuale
303
passato partecipato alla manifattura di canoe in composito ed alla
realizzazione dell‘apparecchio aereo TriStar C Mk 2.
Simulatori e addestramento
Uno degli aspetti principali della realtà virtuale è che l‘utente può
sfruttare le abilità cognitive o motorie per interagire con il mondo
attraverso una certa varietà di modalità sensoriali e, in molti casi,
l‘esperienza ottenuta negli ambienti virtuali può essere direttamente
trasferita al mondo reale. Questi aspetti sono stati sfruttati a pieno
nella realizzazione di diversi simulatori e sistemi di addestramento.
A tal proposito, esistono molte applicazioni di ricerca ed industriali in diversi ambiti come la simulazione di volo, la simulazione
di guida (Moroney & Moroney, 1991; Mueller, 1995; Pisanich,
1995) e la simulazione chirurgica (Yagel, et al., 1996; Zajtchuk &
Satava, 1997; Agus, et al., 2002, 2006). In questo capitolo verranno
descritti con maggior dettaglio gli aspetti riguardanti la simulazione
chirurgica, con riferimento ad alcuni sistemi sviluppati dagli autori.
Telepresenza e teleoperazione
Ambienti ostili (ad esempio impianti nucleari danneggiati o altri
pianeti) rendono difficile o impossibile agli esseri umani le operazioni di esplorazione o manutenzione. D‘altra parte, per quel che si
può prevedere del futuro, i robot non saranno abbastanza intelligenti ed evoluti da operare in completa autonomia, ma richiederanno
l‘intervento dell‘operatore per compiere operazioni in situazioni
mutevoli o impreviste.
La telepresenza ha lo scopo di simulare la presenza di un operatore in un ambiente remoto per supervisionare il funzionamento di
una determinata piattaforma remota e compiere delle operazioni attraverso il controllo di robot remoti. Nelle modalità di controllo di
supervisione, un‘interfaccia di realtà virtuale fornisce all‘operatore
diversi punti di vista dell‘ambiente di lavoro remoto in un formato
multi display che può essere riconfigurato a seconda delle esigenze
del momento. L‘operatore può investigare il sito remoto sia attraverso delle tecniche di volo libero che attraverso delle camere montate sul telerobot. Per compiere delle operazioni remote che non
possono essere fatte autonomamente dai robot, l‘operatore può ri-
304
José A. Iglesias Guitián, Marco Agus
correre al controllo interattivo. In questa modalità di telepresenza,
all‘operatore viene dato un sufficiente feedback sensoriale per approssimare la sua presenza effettiva nel sito remoto. Ad esempio il
display stereoscopico dell‘operatore è direttamente collegato al sistema della camera 3D del robot ed il suo braccio è reso spazialmente coerente rispetto al braccio del robot. I primi lavori in
quest‘area includono l‘applicazione prototipale di telepresenza
NASA Ames, dove l‘operatore interagisce con un ambiente dove si
svolge un‘operazione telerobotica simulata (Fisher, et al., 1986).
Una delle applicazioni maggiormente avanzate di questa tecnologia
è la chirurgia remota (Crawford, 1993; MacKenzie & Booth, 1996).
Realtà aumentata
La nuova frontiera della tecnologia della realtà virtuale è la cosiddetta realtà aumentata. In tale sistema il mondo virtuale è sovraimpresso al mondo reale, con lo scopo di fornire utili informazioni aggiuntive, come per esempio, una guida nella realizzazione di operazioni nel mondo reale. Soltanto di recente le potenzialità
dell‘elaborazione video in tempo reale, i sistemi di computer graphics e le nuove tecnologie di display hanno trovato una direzione
di convergenza per rendere il display di un‘immagine grafica virtuale registrato il più possibile in modo corretto rispetto ad una vista
dell‘ambiente 3D. I ricercatori che lavorano nei sistemi di realtà
aumentata, propongono soluzioni in molti domini applicativi, compreso l‘addestramento militare (Urban, 1996), i sistemi medici (State, et al., 1996; Rosen & Laub, 1996; State, et al., 1996), la
progettazione ingegneristica (Ahlers & Kramer, 1995), la robotica (Drascisc, 1996), e la manifattura, la manutenzione e la riparazione (Gold, et al., 1993; Feiner, et al., 1993).
1. Caratteristiche e Requisiti
L‘obiettivo della realtà virtuale è quello di inserire l‘utente
all‘interno di un sistema a retroazione rappresentato da una applicazione in tempo reale, in modo che si trovi immerso all‘interno di un
mondo che può essere sia autonomo che influenzabile dalle sue azioni. I requisiti per le applicazioni di realtà virtuale sono definiti
Interfacce Uomo-Macchina nella Realtà Virtuale
305
attraverso le analisi delle necessità in termini di canali di input ed
output per il simulatore del mondo virtuale.
Feedback sensoriali principali
I canali di input di un‘applicazione di realtà virtuale sono quelli attraverso i quali gli utenti emettono informazioni ed interagiscono
con l‘ambiente. Noi interagiamo con il mondo principalmente attraverso la locomozione e la manipolazione, e comunichiamo informazioni principalmente attraverso la voce, la gestualità e le espressioni facciali (Balaguer & Mangili, 1992).
Percezione visiva
La vista è generalmente considerata il senso dominante, ed è unanimemente accettato che la percezione umana è orientata attorno
alla visione (Kosslyn, 1994). Gli aspetti principali del senso visivo
che hanno un impatto sui requisiti del display sono i seguenti:
percezione di profondità: la visione stereoscopica è un meccanismo visuale umano primario per la percezione della profondità.
Tuttavia, dal momento che gli occhi dell‘uomo si trovano distanziati in media di 6.3 cm, i benefici geometrici dovuti alla
stereopsi vengono persi per oggetti più distanti di 30 metri. La
percezione della profondità è molto più efficace per oggetti a
distanze molto più vicine. Altri aspetti primari (convergenza
degli occhi ed accomodazione) ed aspetti secondari (ad esempio visione prospettica, parallasse, dimensione, tessitura, illuminazione ed ombre) sono essenziali per oggetti lontani e di
importanza variabile per quelli vicini;
accuratezza e campo di vista: il campo di vista orizzontale di entrambi gli occhi umani è di circa 180 gradi senza muovere occhi o testa e di 270 gradi con la testa fissata e muovendo gli occhi. Il campo di vista verticale è tipicamente oltre i 120 gradi.
Mentre il campo totale non è necessario ad un utente per sentirsi immerso in un ambiente virtuale, un intervallo tra 90 e 110
gradi viene considerato necessario per il campo di vista orizzontale (Youngblut, et al., 1995); quando si considera
l‘accuratezza, la fovea centrale di un occhio umano possiede
una risoluzione di circa 0.5 minuti di arco (Jain, 1989);
306
José A. Iglesias Guitián, Marco Agus
frequenza critica di fusione: le simulazioni visive generano
l‘illusione di animazione attraverso la presentazione rapida
successiva di una sequenza di immagini statiche. La frequenza
di fusione critica è la frequenza sopra la quale gli uomini non
sono in grado di distinguere tra successivi stimoli visivi. Questa frequenza è proporzionale alla luminanza ed alla dimensione dell‘area dell‘immagine coperta sulla retina (Davson, 1994;
Landis, 1954). Valori tipici per scene normali sono tra i 5 ed i
60 Hz (Youngblut, 1995). Una regola pratica comunemente accettata dall‘industria della computer graphics suggerisce che,
sotto i 10–15 Hz, gli oggetti non appaiono in movimento fluido,
causando
distrazione
o
fatica
da
parte
dell‘utente (McKenna & Zeltzer, 1992). Applicazioni ad alta
velocità, come simulatori di volo professionali, richiedono frequenze visive di feedback di oltre 60 Hz (Bryson & Johan,
1996).
Percezione sonora
La vista è il nostro mezzo di percezione privilegiato, mentre l‘udito
viene principalmente utilizzato per la comunicazione verbale, per
ottenere informazioni da parti invisibili del mondo o quando la visione non fornisce abbastanza informazioni. Negli uomini,
l‘apparato uditivo è più efficiente tra i 1000 ed i 4000 Hz, con una
caduta di efficienza al salire o scendere della frequenza (Youngblut,
et al., 1995).
Percezione della posizione, del tatto, e della forza
Mentre i sistemi visivo ed uditivo sono solo in grado di percepire, il
senso del tatto è in grado sia di sentire cosa sta succedendo attorno
all‘essere umano, ma anche di agire all‘interno dell‘ambiente. Questo fatto lo rende una parte indispensabile di molte attività umane e
così, per fornire il realismo necessario per applicazioni efficienti, i
sistemi di realtà virtuale devono fornire input di tipo tattile e devono poter riflettere gli output del sistema tattile. Le variabili primarie
di input/output per il senso tattile sono spostamenti e forze. Due aspetti importanti nella simulazione di forza che hanno un impatto
sui requisiti di un sistema di realtà virtuale sono la massima forza
ottenibile e la frequenza del ritorno di forza. Questi due valori dipendono pesantemente dall‘applicazione, ed il settore di ricerca ri-
Interfacce Uomo-Macchina nella Realtà Virtuale
307
guardante i fattori umani legati a questi argomenti è attualmente
molto battuto (Youngblut, et al., 1995). Valori tipici per simulare
l‘interazione con una buona varietà di oggetti è almeno 10 N a 1000
Hz. Un‘altra importante variabile da tendere in considerazione negli
ambienti di realtà virtuale è la capacità umana di percepire il movimento e controllare la postura (orientazione e bilanciamento).
Realismo spazio-temporale e rendering in tempo reale
Le applicazioni di realtà virtuale tipicamente offrono molteplici
modalità di input/output, e per ognuna di queste modalità ci sono
vincoli temporali che devono essere rispettati per fare in modo che
queste applicazioni siano utilizzabili (ad esempio la frequenza di
ritorno delle immagini deve essere superiore ai 10 Hz, o la frequenza di ritorno di sensazioni tattili deve essere superiore a 1000 Hz). I
vincoli di feedback visivo introducono il concetto di rendering in
tempo reale, che riguarda la costruzione rapida di immagini attraverso il computer. Questa è l‘area di maggiore fermento nel settore
della computer graphics e l‘obiettivo principale consiste nel produrre una sequenza di immagini e le reazioni conseguenti da fornire
all‘utente ad una velocità abbastanza elevata da fare in modo che
l‘osservatore non veda immagini singole ma piuttosto si senta immerso in un processo dinamico. Questa frequenza limite viene generalmente tollerata quando non è inferiore ai 15 Hz, ma il frame
rate desiderato per simulatori complessi può superare i 60 Hz. Per
un approfondimento sul rendering in tempo reale, il lettore può consultare il libro Real Time Rendering di Möller ed al (Haines & Akenine-Moller, 2002).
Vincoli aggiuntivi di performance nelle applicazioni di realtà
virtuale derivano dal fatto che output multimodali devono essere
integrati in un singolo sistema come espresso da Wloka (Wloka,
1995). L‘immersione all‘interno di ambienti di realtà virtuale si è
dimostrata causa di problemi di disorientamento e nausea simili ai
sintomi del mal d‘aria o mal d‘auto, ed è stato dimostrato che i ritardi ed i problemi di sincronizzazione sono i fattori che maggiormente causano questi fastidi (Cobb, et al., 1996; Regan & Price,
1993; Kennedy, 1995; Wloka, 1995). Il realismo spazio-temporale,
e la capacità di soddisfare i vincoli di sincronizzazione, ritardo e
308
José A. Iglesias Guitián, Marco Agus
accuratezza sono requisiti fondamentali per tutti i sistemi di realtà
virtuale. Un workshop ACM CHI sui problemi irrisolti relativi
all‘interazione 3D (Herndon, et al., 1994) ha identificato cinque tipi
di requisiti che le interfacce utente 3D devono possedere per sfruttare appieno le abilità percettive e di coerenza spaziale degli utenti.
Questi requisiti possono essere riassunti come segue:
Modalità di input ed output multiple ed integrate. Le interfacce
utente dovrebbero essere in grado di sfruttare non solo il canale
visivo per le comunicazioni.
Fedeltà funzionale. Considerate nel complesso, le varie informazioni sensoriali fornite da un‘interfaccia devono essere adeguate per l‘operazione in esecuzione.
Velocità di risposta. Le interfacce utente 3D devono essere molto
rapide nel rispondere alle azioni dell‘utente in modo che dei
comportamenti di tipo esplorativo possano verificarsi in modo
naturale. Questo fatto introduce degli importanti vincoli temporali sulle applicazioni.
Affordance. La affordance consente la creazione di oggetti che
hanno delle proprietà ricche di significato e forniscono informazioni su come interagire con gli oggetti stessi ed all‘interno
degli ambienti 3D.
Attrazione rispetto alla rappresentazione mentale. Le interfacce
utente devono essere organizzate in modo che siano riconoscibili dall‘utente. Metafore di comportamento all‘interno di un
mondo reale e tecniche di simulazione fisica sono specialmente
utili in questo contesto.
Questi requisiti pongono dei problemi da risolvere sia dal lato
hardware, in termini di dispositivi che devono essere usati per comunicare con gli utenti, sia dal lato software, in termini di tecniche
che devono essere sviluppate per supportare in modo efficiente
l‘interazione multimodale in un contesto time-critical. Nella sezione
seguente di questo capitolo si considerano gli aspetti relativi
all‘hardware per il feedback sensoriale legato alla vista ed al tatto.
Interfacce Uomo-Macchina nella Realtà Virtuale
309
2. Hardware per il Feedback Sensoriale
Una volta definiti i vincoli ed i requisiti per la creazione di sistemi
di realtà virtuale, in questa sezione vengono presentati i dispositivi
di nuova generazione che consentono un feedback sensoriale realistico. Particolare riguardo viene dato ai sistemi per la visualizzazione autostereoscopica multiutente, e per il ritorno di sensazioni tattili, che sono considerati i sensi dominanti per avere l‘impressione di
essere realmente immersi all‘interno di uno spazio virtuale.
Ritorno di sensazioni visive
Gli esseri umani si orientano principalmente in relazione al loro
senso visivo: essi danno sempre precedenza al sistema visuale nel
caso esistano degli input in conflitto provenienti da altre modalità
sensoriali. L‘obiettivo principale della realtà virtuale per quanto riguarda gli stimoli visivi è quello di fornire la sensazione di una visione stereo. A tal proposito, i display visivi correntemente utilizzati forniscono visione stereoscopica attraverso molte tecniche differenti: display a caschetto (head mounted displays o HMDs), occhiali ad otturatore, occhiali passivi e display olografici autostereoscopici. Un esempio di nuovo tipo di HMD che utilizza varie immagini
per occhio è stato di recente proposto da Kim e Son (Kim, et al.,
2004).
Sistemi autostereoscopici
Negli ultimi anni hanno avuto grande sviluppo i sistemi autostereoscopici multi-utente in cui osservatori ad occhio nudo sono in grado
di percepire gli oggetti come se galleggiassero in uno spazio virtuale tridimensionale. Allo stato attuale, la tecnologia dei display ad
alta risoluzione è matura ed in grado di riprodurre dei campi di luce
naturali (Balogh, et al., 2005; Jones, et al., 2007). Il problema principale per questo tipo di display resta il rendering, che comporta la
generazione di un numero elevato di fasci luminosi aventi adeguata
origine, direzione e colore, e questa operazione è allo stato attuale
complicata e computazionalmente onerosa. Oltretutto, le caratteristiche ottiche variabili dei display impongono dei metodi di visualizzazione particolari e specializzati. L‘elemento chiave caratteriz-
310
José A. Iglesias Guitián, Marco Agus
zante i display 3D autostereoscopici è dato dalla possibilità di emettere luce in modo selettivo per quanto riguarda la direzione, e questo viene ottenuto in generale attraverso tre approcci principali: volumetrico, olografico, o multi-view. I display di tipo volumetrico
sintetizzano i light field attraverso la proiezione di fasci di luce su
mezzi rifrangenti o riflettenti posizionati o mossi nello spazio, come
ad esempio (McKay, et al., 2000; Favalora, et al., 2001; Roberts &
Slattery, 2000).
Figura 6. Display autostereoscopici di nuova generazione. Alcune immagini di modelli visualizzati su un display di tipo lightfield con parallasse
orizzontale basato su tecnologia a proiettori (Balogh, et al., 2005).
Esistono anche dei display commerciali, ad esempio quello proveniente da Actuality Systems. In questo tipo di display i principali
problemi sono legati alla limitata scalabilità, ed alla difficoltà nel
rappresentare effetti di occlusione. Quest‘ultimo problema è stato di
recente risolto nei display presentati da (Jones, et al., 2007)
e (Cossairt, et al., 2007), che sfruttano un diffusore anisotropico che
ricopre uno specchio rotante ad altissima velocità e sincronizzato
con un video proiettore che ne illumina la superficie. Un setup di
questo tipo permette una visione di 360, ma, a causa dei vincoli
meccanici, risulta di pratico utilizzo soltanto per dimensioni di immagini limitate e modelli poco complessi. Tecniche puramente olografiche sono invece basate sulla generazione di pattern olografici
per ricostruire il fronte d‘onda luminoso che si origina a partire
dall‘oggetto visualizzato, ad esempio, utilizzando materiali acustoottici (St.-Hillaire, et al., 1995), oppure modulatori spaziali di luce
(Stanley, et al., 2000), oppure ancora dispositivi digitali a microspecchi (Huebschman, et al., 2003).
Interfacce Uomo-Macchina nella Realtà Virtuale
311
Nonostante questi approcci possano in teoria fornire le immagini
più attraenti, il principio stesso su sui si basano impone una serie di
limitazioni sulle dimensioni delle immagini e sulla risoluzione, con
conseguente restringimento del campo di vista, ed al costo di una
enorme potenza di calcolo richiesta per raggiungere delle accettabili
velocità di aggiornamento durante l‘interazione. Nei prototipi attualmente a disposizione, ancora confinati all‘interno di laboratori
di ricerca, la parte hardware del display è molto ingombrante in relazione alla dimensione dell‘immagine visualizzata (che è tipicamente di pochi centimetri in ciascuna direzione). Infine i tipici
display multi-view, spesso basati su una maschera ottica o un array
di lenti lenticolari, mostrano molte immagini 2D in molte zone dello spazio. Essi permettono l‘utilizzo a molti utenti simultaneamente,
purché si trovino all‘interno di un determinato angolo di vista. Le
maschere ottiche utilizzate introducono una significativa perdita di
luce quando ci sono più di due viste. Oltretutto, la struttura a barriera diventa visibile man mano che il numero di viste aumenta.
D‘altro canto, i display lenticolari ingrandiscono la matrice dei
pixel dei dispositivi di proiezione creando delle zone oscure tra le
posizioni di osservazione. Il display multi-view di Cambridge è un
classico esempio di progetto di questo tipo (Dodgson, et al., 2000),
ed un numero di case produttrici (Philips (van Berkel, et al., 1996),
Sharp (Woodgate, et al., 2000), Opticality (Relke & Riemann,
2005), Samsung, Stereographics, Zeiss) realizzano monitor basati
su variazioni di questa tecnologia. I display tipici allo stato dell‘arte
usano in genere 8–10 immagini al costo di una limitata risoluzione.
Matusik ed al. (Matusik & Pfister, 2004) hanno presentato un prototipo basato su questa tecnologia ed assemblato con 16 proiettori di
risoluzione 1024x768 ed uno schermo lenticolare. L‘effetto stereo
3D è ottenuto quando l‘occhio sinistro e l‘occhio destro vedono
immagini differenti ma corrispondenti. Il numero limitato di viste
dei sistemi multi-view basati su maschere o lenti lenticolari produce, tuttavia, delle interferenze e delle discontinuità rispetto al movimento dell‘utente (Dodgson, 1996). Nel seguito verrà descritto un
sistema di visualizzazione autostereoscopico multiutente basato su
tecnologia a proiettori che permette di ricostruire fedelmente un
campo di luce con una parallasse orizzontale (Balogh, et al.,
312
José A. Iglesias Guitián, Marco Agus
2005) (si vedano in Figura 6 alcune immagini di modelli volumetrici visualizzati su tale display).
Ritorno di sensazioni tattili
A partire dall‘inizio di questo secolo, sistemi meccanici programmabili ed intelligenti diventano sempre più presenti ed importanti
nella vita di tutti i giorni. A tal proposito, un‘area di particolare interesse è quella costituita da sistemi meccanici utilizzabili direttamente dall‘uomo; tali sistemi condividono uno spazio di lavoro ed
interagiscono con l‘uomo per completare specifiche operazioni.
Nello specifico, molti di questi dispositivi consistono di un meccanismo che viene manipolato fisicamente da un operatore per posizionare una particolare estremità del dispositivo. Il sistema meccanico può semplicemente registrare il percorso dell‘estremità o restringere un movimento dell‘operatore su un precorso pre–
programmato, possibilmente in modo da fornire assistenza allo
sforzo dell‘operatore.
Tali dispositivi sono chiamati interfacce aptiche. La parola aptico sta ad indicare qualcosa che è collegato o proviene dal senso
del tatto. Un interfaccia aptica è un dispositivo che permette ad un
utente di interagire con un computer ricevendo delle sensazioni tattili. Il ritorno di sensazioni è ottenuto applicando una forza che si
oppone all‘utente lungo gli assi x, y, e z. Tali dispositivi resistono al
movimento umano in certe direzioni, simulando delle barriere o dei
vincoli provenienti da un robot manovrato a distanza oppure da un
ambiente virtuale programmato (Burdea, 2000).
Le interfacce aptiche hanno una vasta gamma di applicazioni,
non tutte esplorate a fondo. In effetti, potrebbero essere utilizzate
per addestrare abilità fisiche nel caso di lavori che richiedono speciali abilità manuali su determinati strumenti (ad esempio chirurghi,
astronauti, o meccanici), potrebbero essere utilizzate per mettere a
disposizione degli strumenti di modellazione solida di oggetti 3D
senza utilizzare un mezzo fisico (come i progettisti che lavorano
con i modelli di creta), oppure per realizzare plastici di prototipi di
sviluppo (Hollerbach & Jacobsen, 1995).
L‘esplorazione tattile è un‘operazione sensoriale che ha lo scopo
di identificare proprietà di superficie e volumetriche. Il sistema sen-
Interfacce Uomo-Macchina nella Realtà Virtuale
313
soriale tattile umano è costituito da due componenti principali:
l‘informazione tattile e l‘informazione cinestetica. Per quanto riguarda l‘informazione tattile, i recettori meccanici presenti nel palmo delle dita hanno il ruolo principale, mentre per quanto riguarda
l‘informazione cinestetica, i recettori sensoriali nella pelle attorno
alle articolazioni, le capsule delle articolazioni, i tendini ed i muscoli sono preponderanti. Vari tipi di interfacce sono stati realizzati
in industria e come prototipi di ricerca, per cercare di veicolare entrambi i tipi di sensazione. Le interfacce aptiche commerciali di tipo
general-purpose utilizzate attualmente possono essere classificate in
dispositivi con base d‘appoggio ( come joystick con ritorno di forza
e dispositivi ad articolazioni), dispositivi indossabili (guanti, abiti,
dispositivi eso-scheletrici) o display tattili. I primi due tipi di interfacce aptiche eccitano i sensori cinestetici mentre il terzo tipo (display tattile) eccita i sensori tattili. Un esempio di concetto di
interfaccia aptica in cui le forze vengono fornite in determinate parti della mano, è dato da guanto Master II-ND ideato alla Rutgers
University, in cui l‘uso di pistoni pneumatici consente di minimizzare il peso e pertanto il dispositivo è in grado di simulare la prensione di oggetti virtuali.
Figura 7. Interfacce aptiche. A sinistra una interfaccia aptica in configurazione seriale PHANToM Desktop comunemente usata per fornire sensazioni alla mano. A destra una interfaccia aptica in configurazione parallela (Delta Force Dimension). Fonte: www.flickr.com con licenza CC.
314
José A. Iglesias Guitián, Marco Agus
In ogni caso, dal punto di vista delle applicazioni che richiedono
ritorno di sensazioni tattili verso la mano, le interfacce aptiche che
si prestano meglio sono quelle realizzate a partire da una configurazione robotica di tipo seriale o parallelo o ibrida: si vedano in figura 7 degli esempi di configurazione seriale (Sensable PHANToM) e
parallela (Delta Force Dimension). Tra le interfacce aptiche, la più
diffusa è il PHANTOM (Personal Haptic Interface Mechanism). Si
tratta di un dispositivo che misura la posizione estrema di uno stelo
ed esercita un vettore di forza controllato in modo preciso sul medesimo (si veda figura 7). Nella sua forma più semplificata, il
PHANTOM può essere pensato come un mezzo di trasmissione tra
tre motori a spazzola in corrente continua dotati di encoder digitali
ed il dito umano. Tale dispositivo viene diffusamente utilizzato per
fare in modo che gli utenti interagiscano e sentano un‘ampia varietà
di oggetti virtuali e può essere inoltre utilizzato per il controllo di
manipolatori remoti (Massie & Salisbury, 1994). Quali che siano i
trasduttori ed i sensori elettromeccanici impiegati, uno degli aspetti
importanti delle interfacce aptiche è dato dal sistema di calcolo impiegato per guidare i trasduttori. La funzione di questa componente
di calcolo è quella di fornire il cosiddetto haptic rendering, analogamente a quanto accade con le funzioni di rendering di immagini
dei sistemi grafici. L‘obiettivo del rendering aptico consiste nel generale segnali rilevanti per una data applicazione. Ad esempio, un
determinato modello può essere utilizzato per rappresentare un ambiente, e le sue equazioni possono essere risolte per trovare delle
forze come funzione degli spostamenti e delle loro derivate. Le caratteristiche del sistema tattile umano permettono in alcuni casi di
utilizzare dei modelli fisici semplificati per rappresentare oggetti
aptici che possono competere in realismo con gli oggetti fisici reali.
In altri casi si possono registrare sperimentalmente dei dati che possono essere replicati come funzioni di variabili di stato o del tempo.
Il lettore interessato alle problematiche principali riguardanti il
ritorno delle sensazioni tattili può far riferimento al libro di Burdea
―Force and Touch Feedback for Virtual Reality‖ (Burdea, 1996).
Interfacce Uomo-Macchina nella Realtà Virtuale
315
3. Esempi di applicazioni di realtà virtuale
Una volta descritti i tipi di requisiti richiesti dalle applicazioni di
realtà virtuale, ed i dispositivi di nuova generazione che possono
essere utilizzati per il ritorno di sensazioni, in questa sezione vengono presentati alcuni esempi di possibili applicazioni, e descritti
brevemente alcuni prototipi e sistemi realizzati dagli autori.
Simulazione chirurgica
L‘evoluzione delle modalità d‘addestramento del personale clinico
e le emergenti necessità di aggiornamento e certificazione degli
specialisti stanno negli ultimi anni portando ad una forte espansione
della richiesta per sistemi di simulazione di procedure chirurgiche.
Infatti, in analogia con quanto avviene nell‘industria aereonautica,
dove i simulatori sono da decenni strumenti fondamentali nei processi di addestramento e certificazione dei piloti, l‘utilizzo di questa
tecnologia permette:

una notevole flessibilità nel calendario di addestramento

di graduare le difficoltà degli scenari di addestramento

di esporre l‘addestrando ad eventi che nella pratica chirurgica
sono rari, ma potenzialmente molto pericolosi per la vita del
paziente

di misurare quantitativamente le performance e le skill chirurgiche dell‘addestrando.
Purtroppo, a differenza di quanto succede nel campo aereonautico, i
simulatori chirurgici basati su tecnologie di realtà virtuale stentano
a raggiungere un elevato livello di realismo. Infatti, mentre in
quest‘ultimo caso il modello di interazione pilota-aeroplano è sostanzialmente semplice e la limitazione principale al ―realismo‖ dei
simulatori di volo è la velocità del rendering grafico, nel caso dei
simulatori chirurgici il ―realismo‖ è principalmente limitato dalla
complessità del modello sottostante che descrive l‘interazione virtuale tra gli strumenti manipolati dal chirurgo, gli organi e come
quest‘ultimi reagiscono alle manipolazioni.
316
José A. Iglesias Guitián, Marco Agus
Per quanto riguarda la realizzazione di un simulatore chirurgico,
esistono sostanzialmente due problematiche di ricerca. La prima è
legata al trovare nuove soluzioni tecnologiche per migliorare il ―realismo‖ (fidelity) dei simulatori; la seconda è invece orientata a cercare come si possano meglio sfruttare le potenzialità offerte da questo tipo di addestratori per valutare in maniera quantitativa il livello
di apprendimento dei suoi utilizzatori per scopo di addestramento o
certificazione. Le due problematiche sono fortemente complementari ed esiste un consenso della comunità scientifica che esse siano
tra i pilastri tecnologici fondamentali per lo sviluppo di un‘attività
industriale in questo settore. Satava ha identificato nel 1993, (Satava, 1993), cinque elementi, illustrati nella Tabella 1, che influenzano il realismo di un ambiente virtuale per applicazioni mediche. La
tabella fornisce per ogni elemento un obiettivo ideale da raggiungere, ma non fornisce dettagli su come si debbano stabilire i livelli di
fidelity, intesa come realismo visivo, necessaria per la simulazione
di una data procedura chirurgica.
Elemento
Descrizione
Finalità
Fidelity
riproduzione visiva della
scena
foto realismo, visione stereo
con risoluzione almeno
800x600 pixels
Display delle proprietà degli deformazione, resezione ed comportamento realistico dal
organi
in generale modifica
punto di vista fisico e
dell‘aspetto degli organi
fisiologico
Display delle reazioni da
parte degli organi
Interattività
Sensory feedback
secrezione di fluidi, ad
esempio sangue e fluido
celebro spinale
comportamento realistico dal
punto di vista fisico e
fisiologico
interazioni tra oggetti come latenza inferiore a 100msec,
gli strumenti chirurgici e gli frequenza di update della
organi
scena visiva superiore a 2025hz
ritorno di forze
modelli fisicamente
realistici, latenze inferiori a
10msec, e frequenze di
sampling superiori a 5001000 hz.
Tabella 1. Gli elementi che definiscono la fidelity di un simulatore
La realizzazione pratica di un simulatore chirurgico impone di dover bilanciare tra i cinque elementi citati in tabella 1 in funzione
Interfacce Uomo-Macchina nella Realtà Virtuale
317
della particolare applicazione, delle risorse computazionali e delle
periferiche disponibili. Un esempio di simulatore chirurgico per
l‘addestramento realizzato considerando tutti gli elementi della tabella 1 secondo un approccio human centered nella progettazione
dei componenti, è quello realizzato nel quadro del progetto IERAPSI dal CRS4 (Agus, et al., 2002a, 2002b), che rappresenta una piattaforma sperimentale specializzata alla simulazione di procedure
chirurgiche sulla base cranica. Il sistema si basa su modelli volumetrici direttamente derivati da dati 3D di TAC e MR. Il ritorno di
sensazioni in tempo reale viene fornito all‘utente per mezzo di tecniche di rendering volumetrico e di modellazione di sensazioni aptiche.
I vincoli nelle prestazioni imposti dal sistema percettivo umano
sono soddisfatti sfruttando il parallelismo attraverso il disaccoppiamento della simulazione su una piattaforma di PC multiprocessore. A tal proposito, il sistema si suddivide in un sottosistema ―rapido‖, per la gestione delle operazioni ad alta frequenza ( rilevazione delle posizioni degli strumenti chirurgici, calcolo del ritorno di forza, erosione dell‘osso), ed un sottosistema ―lento‖, essenzialmente dedicato alla produzione di informazioni per il ritorno
di immagini.
Figura 8. Un sistema prototipale per la simulazione di procedure chirurgiche sull‘osso temporale. Sinistra: set-up operativo reale, il chirurgo è in
contatto con il campo operativo solo attraverso gli strumenti. Destra: interfacce aptiche e visive del simulatore (Agus, et al., 2002 a).
318
José A. Iglesias Guitián, Marco Agus
La Figura 8 illustra il set-up del sistema IERAPSI confrontato con
un campo operatorio reale. Come si può notare, durante l‘intervento
il chirurgo osserva la regione interessata dall‘operazione attraverso
un microscopio chirurgico ed è in contatto con il campo operativo
solo attraverso gli strumenti, in questo caso una fresa ed un aspiratore. La dinamica del sistema con cui interagisce il chirurgo è complessa e riguarda non solo l‘interazione diretta del chirurgo con i
tessuti ma anche altri effetti secondari, ad esempio il flusso della
miscela di sangue, soluzione salina e polvere d‘osso risultante dalla
fresatura. La parte destra della Figura 8 mostra invece le interfacce
aptiche e visive del simulatore per la chirurgia dell‘orecchio. In
analogia al set-up operativo della parte sinistra della figura 8, il medico osserva il campo operativo simulato attraverso un display specializzato, molto rudimentale, ed interagisce con la scena mediante
due interfacce aptiche PHANToM che, pilotate dal simulatore, riproducono le forze appropriate alla simulazione del contatto, in
questo caso relative alla fresatura dell‘osso. Infine, la Figura 9 mostra l‘inizio di una tipica sequenza di rimozione dell‘osso realizzata
nella regione della mastoide attraverso il simulatore IERAPSI.
Figura 9.Sequenza di fresatura ottenuta con il simulatore chirurgico IERAPSI.
Interfacce Uomo-Macchina nella Realtà Virtuale
319
Un altro esempio di piattaforma di realtà virtuale per
l‘addestramento chirurgico è il sistema EYE, sviluppato dal CRS4
per DIES, in cui vengono simulate le fasi dell‘intervento di estrazione della cataratta (Agus, et al., 2006). In questo caso il tatto non
è considerato senso dominante per cui le interfacce hardware vengono utilizzate solo come misuratori di posizione e orientamento. In
questo tipo di simulazione, la modellazione fisica è fondamentale
per l‘addestramento delle abilità manuali e per la familiarizzazione
con gli strumenti chirurgici. Il sistema EYE contiene simulazioni
fisiche accurate e rappresentazioni geometriche realistiche delle seguenti fasi dell‘intervento:
incisione della cornea: creazione di uno o più tunnel all‘interno
della cornea in modo da poter accedere al cristallino;
capsuloressi: creazione mediante un forcipe di un‘apertura circolare sulla membrana anteriore che incapsula il cristallino;
facoemulsificazione: rottura e rimozione completa del cristallino
mediante uno strumento ad ultrasuoni che funge anche da aspiratore.
Nella configurazione attuale, il simulatore utilizza due Sensable
PHANToM per simulare gli strumenti chirurgici, ed un display binoculare per presentare immagini all‘utente.
La Figura 10 mostra delle sequenze virtuali ottenute col simulatore EYE e rappresentanti le fasi di capsuloressi e facoemulsificazione.
Figura 10. Sequenze virtuali di capsuloressi e facoemulsificazione virtuale
ottenute con il simulatore chirurgico EYE.
320
José A. Iglesias Guitián, Marco Agus
Musei virtuali
Figura 11. Galicia Dixital
Il recente sviluppo dei sistemi wireless per motion tracking, insieme
alla crescita della potenza grafica dei laptop, ed alla popolarità delle
reti wireless ha consentito la comparsa di sistemi in cui l‘utente è in
grado di muoversi fisicamente in un determinato spazio con determinati confini e contenente oggetti ed elementi di uno spazio virtuale. Alcuni esempi di questo spazio ibrido sono stati sviluppati in
tutto il mondo (Feiner, et al., 1997; Vlahakis, et al., 2001; Thomas,
et al., 2002). Tuttavia, oltre ai problemi tecnici legati allo sviluppo
di questi sistemi, si devono valutare attentamente i contenuti da mostrare, approfittando di tutte le possibilità astratte e tecnologiche offerte dal fatto che l‘utente rappresenta di per sé il puntatore in questo tipo di applicazioni di realtà virtuale, laddove lo spazio di interazione rappresenta invece l‘interfaccia. A tal proposito, in questo
contesto, descriviamo a titolo di esempio l‘Empty Museum (Hernández, et al., 2003), che è una piattaforma di realtà virtuale ideata e sviluppata dal gruppo di ingegneria, architettura, e visualizzazione di progetti urbani VideaLAB6.
Questo sistema può essere descritto come una stanza virtuale,
non contenente oggetti reali, ma ricca di contenuti interattivi galleggianti all‘interno dello spazio virtuale che circonda l‘utente.
Questi contenuti possono essere osservati soltanto dai visitatori che
indossano uno speciale zainetto a spalla ed un caschetto HMD
6 Engineering, architecture and urban design visualisation group: Videalab, 2008.
http://videalab.udc.es
Interfacce Uomo-Macchina nella Realtà Virtuale
321
(head mounted display). Così equipaggiato, il visitatore del museo
può camminare liberamente all‘interno di questo spazio, godendosi
un‘esperienza immersiva totale. La piattaforma è stata ideata per
essere utilizzata da musei e reality center, ed è stata mostrata in
pubblico in occasione di varie mostre per promuovere diversi contenuti culturali (Hernandez, et al., 2004; Hernandez, et al., 2007).
Figura 12. Diagramma che descrive l‘architettura dell‘Empty Museum
Il sistema possiede le seguenti principali caratteristiche:
Autonomo e wireless. Si tratta di un‘applicazione di realtà virtuale
che consente all‘utente di muoversi liberamente, senza limitazione alcuna dovuta a cavi dato che tutti i dispositivi indossati
sono alimentati da batterie;
Transitabile. La sensazione di presenza è rafforzata permettendo
all‘utente di camminare liberamente all‘interno dello spazio
virtuale;
322
José A. Iglesias Guitián, Marco Agus
Multi-utente. Il sistema consente l‘utilizzo simultaneo a diversi utenti, che sono consapevoli della presenza degli altri grazie
all‘utilizzo di avatar all‘interno del mondo virtuale;
Multi-piattaforma. L‘intero sistema funziona sopra diverse piattaforme e fa in modo che ogni componente del sistema possa
funzionare all‘interno di diversi sistemi operativi;
Diffusione sonora tridimensionale. Per aumentare la sensazione di
immersione viene utilizzata una libreria audio specializzata 3D,
che riproduce il suono tenendo in considerazione la posizione
della sorgente sonora;
Funzionamento basato su tecnologie di rete. Il sistema funziona
utilizzando una rete TCP/IP. Questo permette diversi tipi di
connessioni simultanee da differenti ubicazioni.
Architettura dell’Empty Museum
L‘architettura del sistema (rappresentata in figura 12) distingue tra
due elementi principali, la base ed i satelliti. La base ha il compito
di gestire tutto ciò che riguarda i sistemi di tracking e le comunicazioni fra utenti e i mondi virtuali da caricare nei satelliti. La base si
compone di un computer collegato ad un sistema di tracking magnetico InterSense IS-900, che cattura la posizione e l‘orientazione.
L‘equipaggiamento dei satelliti consiste invece di un sistema HMD
leggero (ad esempio modello Sony Glasstron), un laptop con accelerazione grafica hardware che permette di visualizzare i modelli in
tempo reale, ed una antenna che fa parte del sistema di tracking a
che permette di seguire la posizione dell‘utente. Il sistema software
è costituito da due applicazioni, corrispondenti al sistema fisso ed ai
sistemi mobili. L‘applicazione eseguita dalla base controlla il sistema di tracking e invia i dati di posizione sulla rete wireless, mentre quella eseguita dai satelliti si incarica del rendering specifico per
quell‘utente. L‘applicazione satellite riceve in modo continuo i dati
di tracking dalla base, e genera istantaneamente contenuti visivi e
sonori per quella posizione. Inoltre elabora l‘interazione con il
mondo, con altri utenti e con possibili elementi del mondo virtuale
(Figura 13).
Interfacce Uomo-Macchina nella Realtà Virtuale
323
Per facilitare la creazione di mondi virtuali e di contenuti per
l‘Empty Museum, si è progettato un motore di interazione flessibile
ed estendibile basato su moduli. Detto motore valuta una sequenza
di regole logiche che scatenano l‘esecuzione di differenti azioni. Le
espressioni a loro volta possono essere costruite utilizzando costanti
logiche, variabili o le uscite provenienti da diversi sensori
dell‘applicazione. I sensori possono essere di diversi tipi: di prossimità (con uscita logica del tipo dentro o fuori), di tempo (con uscita data da un segnale di trigger), di visibilità (con uscita logica
del tipo raggiungibile o non raggiungibile), etc. Tutti i sensori possiedono ingressi e uscite che vengono utilizzate per rilevare eventi
interessanti per l‘interazione.
Come risultato della composizione di questi elementi, si può implementare tutta la logica dell‘applicazione in una o più macchine a
stati.
Figura 13. Esempi di mondi virtuali realizzati per l‘Emtpy Museum.
Sistemi di visualizzazione stereo immersivi
Il crescente e rapido sviluppo dell‘hardware grafico programmabile
e l‘utilizzo di nuove tecniche multi-risoluzione fa in modo che sia
possibile visualizzare in modo interattivo dataset di notevoli dimensioni ed elevata fedeltà visiva su normali PC. Riuscire a distinguere
ed interpretare la disposizione spaziale di strutture tridimensionali
complesse nelle immagini prodotte da questi tipi di tecniche rimane
324
José A. Iglesias Guitián, Marco Agus
tuttavia un‘operazione complicata. Qui descriviamo brevemente un
esempio di sistema di visualizzazione su dei display light field multi-utente basati su tecnologia di proiezione. Il sistema è sviluppato
dal CRS4 nel quadro dei progetti COHERENT e CYBERSAR.
Figura 14. Idea del light field display. Sinistra: ciascun proiettore emette
dei fasci di luce verso un sottoinsieme dei punti dello schermo olografico.
Gli specchi laterali incrementano il numero disponibile di fasci luminosi.
Destra: un numero elevato di fasci di luce è in grado di creare un punto
spaziale (voxel).
L‘obiettivo principale di questo sistema è quello di aumentare il livello di comprensibilità dei dati 3D attraverso delle informazioni
percettive aggiuntive per quanto riguarda l‘accomodazione, la stereopsi e la parallasse di movimento, fornite da un display light field
che supporti il filtraggio selettivo delle direzioni di luce. Esistono
evidenze che l‘ego-motion o model-motion così come la stereopsi
sono informazioni essenziali per ottenere una percezione rapida diretta dei dati volumetrici (Boucheny, et al., 2007; Mora & Ebert,
2004).
I light field display utilizzati sono basati su una sequenza di
proiettori allineati e posti dietro uno schermo olografico (vedi Figura 14). Ulteriori informazioni sulla tecnologia in questione possono
essere trovate in (Balogh, et al., 2005). La Figura 15 mostra i dettagli di un display di grandi dimensioni: si possono apprezzare l‘array
Interfacce Uomo-Macchina nella Realtà Virtuale
325
di proiettori e la fotocamera utilizzata per la calibrazione situati nella parte posteriore del setup.
Figura 15. Prototipo di light field display di grandi dimensioni. Dalle fotografie si possono apprezzare i dettagli dell‘array di proiettori e della fotocamera utilizzata per la calibrazione situati nella parte posteriore del setup.
Questo setup fornisce una parallasse orizzontale continua in una
zona sufficientemente ampia davanti allo schermo. La semplificazione data dalla parallasse orizzontale riduce la complessità del
light field, rendendo il problema di real-time rendering più trattabile. Le caratteristiche del display sono sfruttate da una tecnica di
rendering specializzata che è in grado di dare a molti osservatori in
movimento ad occhio nudo l‘illusione di vedere oggetti volumetrici
virtuali come se galleggiassero nello spazio in determinate posizioni fisiche all‘interno dello spazio di lavoro del display (vedi Figura
16).
326
José A. Iglesias Guitián, Marco Agus
Figura 16. Interazione in tempo reale con il light field display Ispezione in
tempo reale di un modello di grandi dimensioni volumetrico contenente un
dataset CT di un campione biologico. Le immagini sono state acquisite
con una fotocamera da diverse angolazioni, in modo da mettere in evidenza la parallasse orizzontale del display light field.
In figura 16 vengono mostrati i risultati di un GPU ray-caster volumetrico su un display di questo tipo: Il GPU ray-caster in questo caso segue i raggi generati da una tecnica multiple center of projection (MCOP), secondo la pipeline rappresentata in figura 17.
Figura 17. Pipeline grafica per la generazione di immagini attraverso volume ray casting su un light field display
In figura 18 viene invece mostrata la pipeline grafica ideata ed implementata per la gestione di modelli di superficie complessi, che
avviene attraverso il campionamento di versioni pre-filtrate dei dataset a risoluzioni che corrispondono all‘accuratezza spaziale variabile del display. I display usati in queste applicazioni sono prodotti
da Holografika (Balogh, et al., 2005), ed offrono un blend continuo
tra le viste grazie alle proprietà di filtraggio della luce dello schermo olografico. Prestazioni real-time sono ottenute attraverso il con-
Interfacce Uomo-Macchina nella Realtà Virtuale
327
trollo delle dimensioni delle immagini e delle frequenze di campionamento.
Figura 18. Pipeline grafica per la gestione di modelli di superficie complessi
328
José A. Iglesias Guitián, Marco Agus
Conclusioni
Per concludere, possiamo dire che, data la complessità della realtà
virtuale, l‘importanza dei fattori umani, e la carenza di soluzioni
standard, il segreto per realizzare applicazioni di realtà virtuale realmente efficaci consiste nel fissare degli obiettivi realistici in considerazione della maturità della tecnologia (Leston, et al., 1996;
Gobbetti & Scateni, 1998). È molto semplice cadere in confusione
su cosa la realtà virtuale può o non può fare ed avere delle impressioni negative quando ci si rende conto che la realtà virtuale non è
poi così reale. Come per tutte le tecnologie, ma in modo ancora più
pressante per una tecnologia complessa come la realtà virtuale, è
importante scegliere applicazioni appropriate che definiscano correttamente ed in modo preciso degli obiettivi determinati, in modo
tale che le potenzialità della realtà virtuale possano essere messe a
confronto con altre tecnologie utilizzate per raggiungere gli stessi
obiettivi, ed al fine di assicurare che la realtà virtuale possa essere
integrata all‘interno di pratiche di utilizzo consolidate (Leston, et
al., 1996). Ma d‘altra parte, se si volesse fare anche un discorso legato al tipo di mercato che può avere la realtà virtuale, allora le cose si complicano. Infatti, se si considera la spinta che vi era nei primi anni 90 per una forte diffusione sul mercato consumer, non si
può non considerare che da allora lo sviluppo del settore ha segnato
il passo, soprattutto se confrontato allo sviluppo di altre tecnologie (vedi web). I motivi che hanno portato al rallentamento della
diffusione possono essere di vario tipo: sicuramente la scomodità e
il costo delle attrezzature, ma soprattutto l‘assenza della cosiddetta
"killer application", ovvero quel software o quel servizio che spinge
tanti ad acquistare le attrezzature, e che porta alla creazione di un
nuovo mercato dal quale le industrie si alimentano e nel quale investono proponendo nuove soluzioni e prodotti. È evidente, in effetti,
che il successo della Realtà Virtuale, non potrà essere raggiunto,
fintanto che le interfacce più realistiche per la visione e
l‘interazione tattile saranno assai costose, e finché quelle economicamente più accessibili non daranno una soddisfacente sensazione
di realismo. Ciò nonostante, esiste chi prevede delle prospettive future con scenari realmente modificati, in cui l‘avvento
dell‘ipertecnologia provvederà in un futuro prossimo a modificare
Interfacce Uomo-Macchina nella Realtà Virtuale
329
intere professioni. La Realtà Virtuale interattiva, si prevede che
permetterà di vivere situazioni da sogno, oltre che seguire una formazione personalizzata che preparerà i famosi lavoratori della "conoscenza", risolvendo problematiche tutt‘oggi fantascientifiche.
Molti problemi, soprattutto per quanto riguarda il ritorno di sensazioni, sono ancora irrisolti, ma si ipotizza ancora che scenari come
quelli descritti nei film Matrix e Minority Report siano possibili in
un futuro non troppo remoto.
Letture Consigliate
Burdea, G. C. [1996]. Force and touch feedback for virtual reality. John Wiley &
Sons, Inc., New York, NY, USA.
Craig, A., Sherman, W. [2002] Understanding Virtual Reality. Elsevier Books,
Oxford.
Haines, E., Akenine-Moller, T. [2002]. Real-Time Rendering (2nd Edition). AK
Peters, Ltd.
Bibliografia
Agus, M., Giachetti, A., Gobbetti, E., Zanetti, G., John, N. W., and Stone, R. J.
[2002 a]Mastoidectomy simulation with combined visual and haptic feedback.
In Medicine Meets Virtual Reality (January 2002), J. D. Westwood, H. M.
Hoffmann, G. T. Mogel, and D. Stredney, Eds.
Agus, M., Giachetti, A., Gobbetti, E., Zanetti, G., and Zorcolo. [2002b] A. Realtime haptic and visual simulation of bone dissection. In IEEE Virtual Reality
Conference, Conference (Orlando, FL, USA, March 2002), IEEE Computer
Society Press.
Agus, M., Gobbetti, E., Pintore, G., Zanetti, G., and Zorcolo. [2006]. A. Real time
simulation of phaco-emulsification for cataract surgery training. In Workshop
in Virtual Reality Interactions and Physical Simulations (VRIPHYS 2006)
(November 2006), Eurographics Association. Conference held in Madrid,
Spain, November 6-7.
Ahlers, K., and Kramer, A. [1995]. Distributed augmented reality for collaborative
design applications. Tech. rep., European Computer Industry Research Center.
Airey, J. M., Rohlf, J. H., and Brooks, Jr., F. P. [1990]. Towards image realism
with interactive update rates in complex virtual building environments.
Computer Graphics (Symposium on Interactive 3D Graphics) 24, 2 (Mar.
1990), 41–50.
330
José A. Iglesias Guitián, Marco Agus
Balaguer, J.-F., and de Gennaro, S. [1996]. VENUS: A virtual reality project at
CERN. Computer Graphics 30, 4 (Nov. 1996), 40–48.
Balaguer, J.-F., and Gobbetti, E. [1995]. i3D: a high-speed 3D Web browser. In
1995 Symposium on the Virtual Reality Modeling Language (VRML ‗95)
(Conference held in San Diego, CA, USA, Dec. 1995), ACM Press, pp. 69–76.
Balaguer, J.-F., and Gobbetti, E. [1996]. i3D: A high speed 3D web browser. In
VRML: Bringing Virtual Reality to the Interet, J. R. Vacca, Ed. AP
Professional, Boston, MA, USA, 1996.
Balaguer, J.-F., and Mangili, A. [1992]. Virtual environments. In New Trends in
Animation and Visualization., D. Thalmann and N. Magnenat-Thalmann, Eds.
Wiley, New York, NY, USA, 1992.
Balogh, T., Forgács, T., Agocs, T., Balet, O., Bouvier, E., Bettio, F., Gobbetti, E.,
and Zanetti, G. [2005]. A scalable hardware and software system for the
holographic display of interactive graphics applications. In Eurographics Short
Papers Proceedings (2005), pp. 109–112.
Boucheny, C., Bonneau, G.-P., Droulez, J., Thibault, G., and Ploix, S. [2007]. A
perceptive evaluation of volume rendering techniques. In Proc. ACM APGV
(2007), pp. 83–90.
Brooks, Jr., F. P. Walkthrough — A dynamic graphics system for simulating
virtual buildings. In Proceedings of 1986 Workshop on Interactive 3D
Graphics (Oct. 1986), F. Crow and S. M. Pizer, Eds., pp. 9–21.
Bryson, S. T., and Johan, S. Time management, simultaneity and time-critical
computation in interactive unsteady visualization environments. In IEEE
Visualization ‘96 (Oct. 1996), IEEE. ISBN 0-89791-864-9.
Burdea, G. C. [2000]. Haptic feedback for virtual reality. special issue on Virtual
Prototyping, International Journal of Design and Innovation Research 2 pagg.
17–29.
Cobb, S., Nichols, S., Ramsey, A., and Wilson, J. [1996]. Health and safety
implications of virtual reality: Results and conclusions from an experimental
programme. In Proceedings of FIVE ‘96: Framework for Immersive Working
Environments, the 2nd FIVE International Conference, pp. 154–162.
Conner, D. B., Snibbe, S. S., Herndon, K. P., Robbins, D. C., Zeleznik, R. C., and
van Dam, A. [1992]. Three-dimensional widgets. Computer Graphics 25, 2
(Mar. 1992), 183–188.
Cossairt, O., Napoli, J., Hill, S., Dorval, R., and Favalora, G. [2007]. Occlusioncapable multiview volumetric three-dimensional display. Applied Optics 46, 8
(Mar. 2007), 1244–1250.
Crawford, L. S. [1993]. A DEXTROUS MASTER FOR TELESURGERY.
Technical Report ERL-93-95, University of California, Berkeley.
Davson, H. [1994]. Physiology of the Eye, fifth ed. Pergamon Press, New York,
NY, USA.
Interfacce Uomo-Macchina nella Realtà Virtuale
331
Dodgson, N. A. [1996]. Analysis of the viewing zone of the Cambridge
autostereoscopic display. Applied Optics: Optical Technology & Biomedical
Optics 35, 10 (1996), 1705–1710.
Dodgson, N. A., Moore, J. R., Lang, S. R., Martin, G., and Canepa, P. [2000].
Time-sequential multi-projector autostereoscopic 3D display. J. Soc. for
Information Display, pagg 169–176.
Drascisc, D. [1996]. Stereoscopic vision and augmented reality. Scientific
Computing and Automation 9, 7 (June 1996), 31–34.
Ellis, G. [1996]. They‘re not making ‘em like they used to: Virtual reality saves
time and money in manufacturing and construction. Iris Universe (1996).
Favalora, G., Dorval, R., Hall, D., and Napoli, J. Volumetric three-dimensional
display system with rasterization hardware. In Proc. SPIE (2001), vol. 4297,
pp. 227–235.
Feiner, S., MacIntyre, B., Haupt, M., and Solomon, E. [1993]. Windows on the
world: 2D windows for 3D augmented reality. In Proceedings of the ACM
Symposium on User Interface Software and Technology (1993), Virtual
Reality, pp. 145–155.
Feiner, S., MacIntyre, B., Hollerer, T., and Webster, A. [1997]. A touring machine:
Prototyping 3d mobile augmented reality systems for exploring the urban
environment. iswc 00 (1997), 74.
Fisher, S. S., McGreevy, M., Humphries, J., and Robinett, W. [1986]. Virtual
environment display system. In Proc. 1986 ACM Workshop on Interactive 3D
Graphics (Chapel Hill, NC, Oct. 1986), pp. 77–87.
Gobbetti, E., and Balaguer, J. [1995]. An integrated environment to visually
construct 3D animations. In SIGGRAPH 95 Multimedia Conference
Proceedings (Conference held in Los Angeles, CA, USA, Aug. 1995),
R. Cook, Ed., Annual Conference Series, ACM SIGGRAPH, Addison-Wesley.
Gobbetti, E., and Balaguer, J. F. [1993]. VB2: An architecture for interaction in
synthetic worlds. In Proceedings of the ACM SIGGRAPH Symposium on User
Interface Software and Technology (Conference held in Atlanta, GA, USA,
1993), Virtual Reality, ACM Press, pp. 167–178.
Gobbetti, E., and Balaguer, J. F. [1995]. i3D: An interactive system for exploring
annotated 3D environments. In Scientific Visualization ‘95 (AICA ‘95
International Symposium on Scientific Visualization Proceedings) (Conference
held in Chia, Italy, 1995), R. Scateni, Ed., World Scientific Publishing Co.
Gobbetti, E., Leone, A., and Marini, A. [1995]. Virtual sardinia: a hypermedia flythrough with real data. In Proceedings of the International Workshop on Soft
Computing in Remote Sensing Data Analysis (Conference held in Milan, Italy,
1995), E. Binaghi, P. B. PA, and A. Rampini, Eds., pp. 253–260.
Gobbetti, E., and Marton, F. [2005]. Far Voxels – a multiresolution framework for
interactive rendering of huge complex 3d models on commodity graphics
332
José A. Iglesias Guitián, Marco Agus
platforms. ACM Transactions on Graphics 24, 3 (August 2005), 878–885.
Proc. SIGGRAPH 2005.
Gobbetti, E., and Scateni, R. [1998]. Virtual reality: Past, present, and future. In
Virtual Environments in Clinical Psychology and Neuroscience: Methods and
Techniques in Advanced Patient-Therapist Interaction, G. Riva, B. K.
Wiederhold, and E. Molinari, Eds. IOS, Amsterdam, The Netherlands,
November 1998, pp. 3–20.
Gold, R., Buxton, B., Feiner, S., and Schmandt, C. [1993]. Ubiquitous computing
and augmented reality. Computer Graphics 27, Annual Conference Series
(1993), 393–394.
Greenfield, D. [1996]. Virtual prototyping at rolls-royce. Intelligent Systems,
Report 13, 1 (1996).
Hernández, L., Taibo, J., Seoane, A., López, R., and López, R. [2003]. The empty
museum. multi-user interaction in an immersive and physically walkable vr
space. In CW ‘03: Proceedings of the 2003 International Conference on
Cyberworlds (Washington, DC, USA, 2003), IEEE Computer Society, p. 446.
Hernandez, L., Taibo, J., Seoane, A., Lopez, R., and Lopez, R. [2004]. The
experience of the empty museum. displaying cultural contents on an
immersive, walkable vr room. In CGI ‘04: Proceedings of the Computer
Graphics International (Washington, DC, USA, 2004), IEEE Computer
Society, pp. 436–443.
Hernandez, L. A., Taibo, J., Blanco, D., Iglesias, J. A., Seoane, A., Jaspe, A., and
Lopez, R. [2007]. Physically walking in digital spaces - a virtual reality
installation for exploration of historical heritage. International Journal of
Architectural Computing 5, 3 (September 2007), 487–506.
Herndon, K., van Dam, A., and Gleicher, M. [1994]. The challenges of 3D
interaction: A CHI‘94 workshop. SIGCHI Bulletin 26, 4 (Oct. 1994), 36–43.
Herndon, K. P., Zeleznik, R. C., Robbins, D. C., Conner, D. B., Snibbe, S. S., and
van Dam, A. [1992]. Interactive shadows. In Proceedings of the ACM
Symposium on User Interface Software and Technology (1992), 3D User
Interfaces, pp. 1–6.
Hollerbach, J., and Jacobsen, S. [1995]. Haptic interfaces for teleoperation and
virtual environments. In Workshop on Simulation and Interaction in Virtual
Environments (1995).
Huebschman, M., Munjuluri, B., and Garner, H. [2003]. Dynamic holographic 3-d
image projection. Optics Express 11 (2003), 437–445.
Jain, A. [1989]. Fundamentals of Digital Image Processing. Prentice-Hall,
Englewood Cliffs, NJ 07632, USA, 1989.
Jasnoch, U., Klement, E., H.Kress, and Schiffer, N. [1996]. Towards collaborative
virtual prototyping in a world market. In Proceedings FAIM (Atlanta, 1996).
Interfacce Uomo-Macchina nella Realtà Virtuale
333
Jones, A., McDowall, I., Yamada, H., Bolas, M. T., and Debevec, P. E. [2007].
Rendering for an interactive 360 degree light field display. ACM Trans. Graph
26, 3 (2007), 40.
Kennedy, R. [1995]. Simulator sickness: relationship of different symptoms to
equipment configuration and safety. In Proceedings of DSC‘95: Driving
Simulation Conference (1995), pp. 42–58.
Kim, S.-K., Son, J.-Y., and Honda, T. [2004]. HMD-type multifocus 3D display
system. In Stereoscopic Displays and Virtual Reality Systems XI. Edited by
Woods, Andrew J.; Merritt, John O.; Benton, Stephen A.; Bolas, Mark T.
Proceedings of the SPIE, Volume 5291, pp. 347-353 (2004). (May 2004), A. J.
Woods, J. O. Merritt, S. A. Benton, and M. T. Bolas, Eds., vol. 5291 of
Presented at the Society of Photo-Optical Instrumentation Engineers (SPIE)
Conference, pp. 347–353.
Kosslyn, S. [1994]. Image and Brain: The resolution of the imagery debate. MIT
Press, Cambridge, MA, USA, 1994.
Landis, C. [1954]. Determinants of the critical flicker-fusion threshold.
Physiological Review 34 (1954), 259–286.
Leston, J., Ring, K., and Kyral, E. [1996]. Virtual Reality: Business Applications,
Markets and Opportunities. Ovum, 1996.
MacKenzie, C. L., and Booth, K. S. [1996]. Manipulation in virtual environments.
In Proceedings of ACM CHI 96 Conference on Human Factors in Computing
Systems (1996), vol. 2 of Workshops, p. 420.
Matusik, W., and Pfister, H. [2004]. 3D TV: a scalable system for real-time
acquisition, transmission, and autostereoscopic display of dynamic scenes.
ACM Transactions on Graphics 23, 3 (Aug. 2004), 814–824.
McKay, S., Mair, G., Mason, S., and Revie, K. [2000]. Membrane-mirror based
autostereoscopic display for teleoperation and telepresence applications. In
Proc. SPIE (2000), vol. 3957, pp. 198–207.
McKenna, M., and Zeltzer, D. [1992]. Three dimensional visual display systems
for virtual environments. Presence 1, 4 (1992), 421–458.
McNeely, W. [1996]. Boeing‘s high performance visualization software: Flythru.
CERN Computing Seminar, June 1996.
Mora, B., and Ebert, D. S. [2004]. Instant volumetric understanding with orderindependent volume rendering. Computer Graphics Forum 23, 3 (2004), 489–
497.
Moroney, W. F., and Moroney, B. W. [1991]. Utilizing a microcomputer based
flight simulation in teaching human factors in aviation. In Proceedings of the
Human Factors Society 35th Annual Meeting (1991), vol. 1 of Educators‘
Professional: Use of Microcomputers in Teaching Human Factors in Aviation,
pp. 523–527.
334
José A. Iglesias Guitián, Marco Agus
Mueller, C. [1995]. Architectures of image generators for flight simulators. Tech.
Rep. TR95-015, Department of Computer Science, University of North
Carolina - Chapel Hill, Apr. 24 1995. Wed, 26 Jun 1996 18:10:16 GMT.
Pisanich, G. M., and Heers, S. T. [1995]. A laboratory glass-cockpit flight
simulator for automation and communications research. In Proceedings of the
Human Factors and Ergonomics Society 39th Annual Meeting (1995), vol. 2 of
POSTERS, p. 951.
Regan, E., and Price, K. [1993]. Some side-effects of immersion virtual reality. VR
News (1993).
Relke, I., and Riemann, B. [2005]. Three-dimensional multiview large projection
system. In Proc. SPIE (2005), vol. 5664.
Roberts, J. W., and Slattery, O. [2000]. Display characteristics and the impact on
usability for stereo. In Proc. SPIE (2000), vol. 3957, p. 128.
Rosen, J. M., and Laub, D. [1996]. Virtual reality and medicine: From training
systems to performing machines. In Proceedings of the IEEE 1996 Virtual
Reality Annual International Symposium (1996), pp. 5–13.
Satava, R. M. [1993]. Virtual reality surgical simulator: The first steps. Surgical
Endoscopy 7 (1993), 203–205.
St.-Hillaire, P., Lucente, M., Sutter, J., Pappu, R., Sparrell, C. G., and Benton, S.
[1995]. Scaling up the mit holographic video system. In Proc. 5th SPIE
Symposium on Display Holography (1995), pp. 374–380.
Stanley, M., Conway, P., Coomber, S., Jones, J., Scattergood, D., Slinger, C.,
Bannister, B., Brown, C., Crossland, W., and Travis, A. [2000]. A novel
electro-optic modulator system for the production of dynamic images from
giga-pixel computer generated holograms. In Proc. SPIE (2000), vol. 3956,
pp. 13–22.
State, A., Livingston, M. A., Garrett, W. F., and Hirota, G. [1996]. Technologies
for augmented-reality systems: Realizing ultrasound-guided needle biopsies.
Computer Graphics 30, Annual Conference Series (1996), 439–446.
State, A., Livingston, M. A., Hirota, G., Garrett, W. F., Whitton, M. C., and Fuchs,
H. [1996]. Technologies for augmented-reality systems: Realizing ultrasoundguided needle biopsies. In SIGGRAPH 96 Conference Proceedings (Aug.
1996), H. Rushmeier, Ed., Annual Conference Series, ACM SIGGRAPH,
Addison Wesley, pp. 439–446. held in New Orleans, Louisiana, 04-09 August
1996.
Sutherland, I. E. [1965]. The ultimate display. In Proceedings of IFIPS Congress
(New York City, NY, May 1965), vol. 2, pp. 506–508.
Massie, T. H. and Salisbury, J. K. [1994]. The phantom haptic interface: A device
for probing virtual objects. In Proceedings of the ASME Winter Annual
Meeting, Symposium on Haptic Interface for Virtual Environments and
Teleoperator Systems (Chicago, IL, 1994).
Interfacce Uomo-Macchina nella Realtà Virtuale
335
Thomas, B., Close, B., Donoghue, J., Squires, J., Bondi, P. D., and Piekarski, W.
[2002]. First person indoor/outdoor augmented reality application: Arquake.
Personal Ubiquitous Comput. 6, 1 (2002), 75–86.
Urban, E. [1996]. The information warrior. IEEE Spectrum 32, 11 (1996), 66–70.
Van Berkel, C., Parker, D., and Franklin, A. [1996]. Multiview 3d-lcd. In Proc.
SPIE (1996), vol. 2653, p. 32.
Vlahakis, V., Karigiannis, J., Tsotros, M., Gounaris, M., Almeida, L., Stricker, D.,
Gleue, T., Christou, I. T., Carlucci, R., and Ioannidis, N. [2001]. Archeoguide:
first results of an augmented reality, mobile computing system in cultural
heritage sites. In VAST ‘01: Proceedings of the 2001 conference on Virtual
reality, archeology, and cultural heritage (New York, NY, USA, 2001), ACM,
pp. 131–140.
Wloka, M. [1995]. Interacting with virtual reality. In Virtual Environments and
Product Development Processes, Chapman and Hall.
Wloka, M. [1995]. Lag in multiprocessor virtual reality. Presence: Teleoperators
and Virtual Environments 4, 1 (Sept. 1995), 50–63.
Woodgate, G. J., Harrold, J., Jacobs, A. M. S., Moseley, R. R., and Ezra, D.
[2000]. Flat-panel autostereoscopic displays: characterisation and
enhancement. In Proc. SPIE (2000), vol. 3957, p. 153.
Yagel, R., Stredney, D., Wiet, G. J., Schmalbrock, P., Rosenberg, L., Sessanna,
D. J., Kurzion, Y., and King, S. [1996]. Multisensory platform for surgical
simulation. In IEEE Virtual Reality Annual International Symposium 1996
(VRAIS‘96) (Mar. 1996), pp. 72–78.
Youngblut, C., Johnson, R. E., Nash, S. H., Wienclaw, R. A., and Will, C. A.
[1995]. Review of virtual environment interface technology. IDA Paper P3186, Institute for Defense Analysesc, Mar. 1995.
Zajtchuk, R., and Satava, R. M. [1997]. Medical applications of virtual reality.
Communications of the ACM 40, 9 (Sept. 1997), 63–64.
336
José A. Iglesias Guitián, Marco Agus
José A. Iglesias Guitián svolge attività di ricerca nel campo della computer graphics e realtà virtuale. Dal 2004 ha collaborato con il gruppo di Visualizzazione per Ingegneria e Architettura e per il Design Urbano dell'Università della Coruña (Spagna), Università presso la quale ha conseguito
la sua laurea in informatica. Attualmente collabora con il VideoLAB del
CRS4 (Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna), dove si
occupa di volume rendering, tecniche multi-resolution and light-field displays.
Marco Agus è ricercatore presso il Visual Computing (ViC) group al
Centro di Ricerca, Sviluppo e Studi Superiori in Sardegna (CRS4). Ha
conseguito la Laurea in Ingegneria Elettronica e il Dottorato di Ricerca in
Ingegneria Meccanina presso l‘Università di Cagliari. I suoi interessi di
ricerca includono il rendering di grandi modelli su display innovativi, la
visualizzazione di modelli tridimensionali, lo studio delle interfacce
aptiche e della simulazione chirurgica. Ha partecipato a progetti di ricerca
industriale e di base mirati alla creazione di simulatori visuali e aptici realtime. Ha pubblicato numerosi contributi in libri, journals e atti di convegni
nel campo della computer graphics e ha partecipato come membro di
comitato scientifico, revisore e speaker a numerose conferenze
internazionali.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy
Fuori dallo schermo:
Teoria e Pratica dell’Interazione Tangibile
Patrizia Marti – Università degli Studi di Siena
[email protected]
Abstract. L‘interazione tangibile è un‘area di ricerca che tenta di colmare
il divario tra il mondo fisico e quello digitale progettando oggetti e ambienti il cui controllo è fondamentalmente realizzato in modo fisico. Questo paradigma esplora lo spazio concettuale che si determina laddove il
luogo in cui l‘azione inizia e la rappresentazione del suo effetto coincidono ed hanno proprietà fisiche. Questo capitolo offre un quadro teorico e
applicativo del settore mostrando come non sia soltanto la fisicità a caratterizzare le interfacce tangibili quanto piuttosto le rappresentazioni e i controlli fisici dell‘informazione: la forma degli oggetti, la loro posizione, il
loro orientamento giocano un ruolo fondamentale nella elaborazione
dell‘informazione di cui l‘oggetto stesso è rappresentazione. Nel capitolo
le caratteristiche dell‘interazione tangibile vengono illustrate attraverso
temi di design ed esemplificate da casi studio. L‘argomentazione si conclude con la presentazione di alcuni domini applicativi che danno
un‘indicazione puntuale delle potenzialità di sviluppo di questa area di ricerca.
Keywords: Interfacce tangibili, interface grafiche, HCI, rappresentazioni,
interaction design.
Introduzione
―Interazione tangibile‖ è un termine ampio e generico che sottintende la ricerca in vari settori disciplinari, quello dell‘interazione
uomo-macchina, della computer science, del design di prodotto,
dell‘arte interattiva, della robotica.
All‘inizio degli anni novanta, si sviluppa un settore di ricerca
che sperimenta l‘uso di artefatti fisici come rappresentazioni e con-
338
Patrizia Marti
trolli dell‘informazione digitale. Come era già avvenuto negli anni
80 a Xerox Parc con la rivoluzionaria introduzione delle interfacce
grafiche, ancora a Parc Marc Weiser introduce il concetto di Ubiquitous Computing contrapponendo alla realtà virtuale l‘idea di
―embodied virtuality‖, un‘integrazione profonda del mondo elettronico in quello fisico (Weiser, 1991).
I primi a teorizzare questo approccio e a realizzare i primi prototipi di ―tangibles‖ furono Wellner con il Digital Desk (Wellner,
1993), un tavolo interattivo sul quale è possibile manipolare fisicamente contenuti digitali; Fitzmaurice et al. con Bricks (Fitzmaurice,
et al., 1995), blocchi che funzionano da controlli fisici per contenuti
elettronici; e Ishii e Ullmer con Tangible Bits (Ishii & Ullmer,
1997), un paradigma innovativo di interazione fisica per ―afferrare
e manipolare‖ informazioni digitali.
La metafora che Ullmer e Ishii utilizzarono per illustrare questo
concetto è quella dell‘abaco. L‘abaco infatti è un artefatto fisico
computazionale che ha una specifica proprietà: l‘input dell‘azione e
la rappresentazione del risultato della computazione sono indistinguibili. In sostanza l‘abaco non ha bisogno di una tastiera o di qualsiasi altro input device per funzionare, né del resto di un meccanismo di output per mostrare il risultato della computazione. Tutti gli
elementi dell‘abaco, la cornice, le tessere mobili, i supporti che le
sostengono sono sia rappresentazioni fisiche e manipolabili di valori numerici astratti e di operazioni matematiche, che controlli fisici
delle operazioni eseguibili con lo strumento. Questa integrazione
così profonda e così ancorata al mondo fisico di rappresentazione e
controlli segna una linea di demarcazione fondamentale con il concetto di interfaccia grafica propria del mondo dell‘HCI (HumanComputer Interaction).
Infatti mentre le interfacce grafiche per funzionare hanno bisogno di meccanismi di input per esprimere un comando e di output
per rappresentare l‘effetto di quel comando, le interfacce tangibili
esplorano lo spazio concettuale che si determina laddove il luogo in
cui l‘azione inizia e la rappresentazione del suo effetto coincidono
ed hanno proprietà fisiche.
Tuttavia non è la fisicità a segnare un confine netto tra le interfacce grafiche e le interfacce tangibili. Ovviamente anche il mouse,
la tastiera, lo schermo del computer sono oggetti fisici. Ciò che fa
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
339
realmente la differenza sono le rappresentazioni fisiche
dell‘informazione, che nelle interfacce tangibili coincidono con
l‘oggetto fisico e con le proprietà che esso rappresenta. La forma
degli oggetti, la loro posizione, il loro orientamento giocano un ruolo fondamentale nella elaborazione dell‘informazione di cui
l‘oggetto è rappresentazione. E le caratteristiche fisiche di un oggetto continuano ad avere un ruolo fondamentale in termini di affordance per l‘interazione e di rappresentazione dello stato del sistema
anche nel caso in cui le componenti digitali non siano per qualche
ragione accessibili. Lo stesso ovviamente non si può dire per un
mouse, il quale se collegato ad un computer spento non ci comunica
alcuna informazione sullo stato del sistema.
Se tuttavia vogliamo comporre un quadro concettuale sufficientemente ampio e articolato dell‘interazione tangibile e delle opportunità che offre per il design dell‘interazione, dobbiamo considerare
non solo gli oggetti come possibili mediatori per l‘accesso al mondo digitale ma più in generale tutti gli elementi che giocano un ruolo nel dar forma e significato all‘azione umana.
L‘azione umana infatti è sempre situata in un particolare contesto fisico e sociale e il controllo che gli individui possono esercitare
durante l‘interazione con il mondo esterno è contingente e dipende
criticamente dal modo in cui il contesto si configura e dalle rappresentazioni disponibili. La fruizione di un‘opera d‘arte ad esempio
dipende criticamente dalle caratteristiche dello spazio fisico che ospita l‘opera, dalla presenza o meno di altri osservatori che può facilitare (un esperto che descrive) o danneggiare (affollamento)
l‘esperienza contemplativa; dalle qualità ambientali (luci, temperatura, posizionamento); dalle informazioni disponibili e dalla loro
accessibilità.
Per questo motivo per comprendere propriamente la natura
dell‘azione umana e progettare un‘adeguata relazione con il mondo
fisico, è necessario interpretarla nel contesto in cui occorre (Suchman, 1987). Elementi irrinunciabili di contesto non sono dunque
soltanto gli oggetti fisici e le loro rappresentazioni ma anche lo spazio dell‘interazione, quello fisco, quello fenomenologico, quello
emotivo e socio-culturale che caratterizzano e rendono distintiva
un‘esperienza interattiva.
340
Patrizia Marti
1. Attività, Strumenti e Rappresentazioni
Come anticipato nell‘introduzione, non è la fisicità la caratteristica
precipua e distintiva dell‘interazione tangibile ma piuttosto l‘uso di
rappresentazioni fisiche dell‘informazione e di controlli insiti nel
mondo fisico. Per comprendere dunque la natura di tale interazione
è necessario capire cosa sono e come funzionano le rappresentazioni e il loro impatto sull‘azione umana.
La psicologia cognitiva ha tradizionalmente studiato i processi
mentali che sottintendono alla capacità umana di elaborare informazioni spesso trascurando il ruolo che hanno artefatti e strumenti
nel modificare il nostro modo di pensare e di prendere decisioni.
Tuttavia l‘abilità umana di elaborare informazioni è limitata e fallace, e inoltre eseguire ragionamenti complessi senza l‘uso di strumenti può essere difficile e talvolta proibitivo. Gli strumenti possono rappresentare, immagazzinare, elaborare informazione e il modo
in cui sono progettati modifica la nostra capacità di pensare; in sostanza possono renderci stupidi o intelligenti (Norman, 1991).
L‘approccio teorico della Cognizione Distribuita (Hutchins,
1995) ha prodotto ampia evidenza empirica sull‘importanza di studiare l‘azione umana, sia in contesti reali di lavoro che in condizioni sperimentali (Zhang & Norman, 1994), analizzando le prestazioni cognitive così come occorrono naturalmente piuttosto che in isolamento dagli strumenti o da altre risorse di contesto.
La cognizione umana infatti non è confinata nella testa degli individui ma piuttosto è distribuita tra gli individui e gli artefatti presenti nell‘ambiente esterno. Secondo questo approccio, un sistema
―cognitivo‖ è un sistema composto da un individuo che interagisce
con un insieme di strumenti oppure da un gruppo di individui che
interagiscono tra loro mediante artefatti esterni. Un sistema cognitivo così definito fornisce le risorse informative necessarie
all‘esecuzione di un‘attività. Queste risorse possono essere rappresentate internamente, nella mente dell‘individuo, o nell‘ambiente
esterno, in quest‘ultimo caso possono trovare varie forme di rappresentazione.
Facciamo qualche esempio. A chiunque è capitato di trovarsi in
un bar affollato per prendere un caffè. Il barista che prende le ordinazioni rappresenta le richieste utilizzando lo spazio del bancone e i
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
341
piattini da caffè per significare la corrispondenza dell‘ordine (il
piattino si trova di fronte a chi ha ordinato il caffè), il numero dei
caffè ordinati (tanti quanti sono i piattini), la tipologia (piatto grande per il cappuccino, più piccolo per il caffè). I più ingegnosi potrebbero posizionare i piattini sul banco rispetto alla sequenza
d‘ordine, ad esempio una prima fila vicina ai clienti che hanno ordinato prima, e una seconda fila per quelli successivi. Su questa falsariga si potrebbero immaginare infinite varianti di rappresentazioni
esterne dell‘informazione: la presenza del cucchiaino sul piattino
(caffè corretto?), l‘uso di piattini colorati per i decaffeinati ecc.
Il barista in sostanza rappresenta l‘informazione in modo spaziale e tangibile, ed esegue il compito meccanicamente e senza carico
cognitivo perché sono le rappresentazioni esterne del compito ad
elaborare l‘informazione in modo rapido ed efficace.
L‘informazione dunque è disponibile là dove necessaria, lo spazio
fisico accoglie e organizza l‘attività, la manipolazione dei piattini
consente di modificare in modo semplice ed immediato una configurazione per significare lo stato del sistema (quanti ordini ci sono
in corso, la tipologia del prodotto richiesto ecc.).
Questo esempio illustra alcune proprietà fondamentali del sistema cognitivo distribuito:

l‘informazione è distribuita nel tempo e sta a significare lo stato del sistema

l‘informazione è distribuita nello spazio e sta a significare puntualmente il compito da eseguire

l‘artefatto modifica l‘attività (cf. anche Zhang & Norman,
1994). Piuttosto che memorizzare sequenze di richieste e ricordare la tipologia dell‘ordine il barista esegue associazioni meccaniche tra lo specifico prodotto e la sua rappresentazione.
La rappresentazione del compito è dunque distribuita in parte nella
mente di chi dispone e usa gli oggetti e in parte nel mondo esterno.
"The basic principle of distributed representations is that the representational system of a distributed cognitive task can be considered
as a set, with some members internal and some external. Internal representations are in the mind, as propositions, productions, schemas,
mental images, connectionist networks, or other forms. External rep-
342
Patrizia Marti
resentations are in the world, as physical symbols or as external
rules, constraints, or relations embedded in physical configurations.
Generally, there are one or more internal and external representations
involved in any distributed cognitive task." – (Zhang & Norman
1994, p. 89).
A questo proposito Norman (1993) suggerisce alcune linee guida
per la progettazione di rappresentazioni esterne efficaci:

fare in modo che esse catturino le caratteristiche rilevanti e critiche del dominio rappresentato

che siano appropriate per chi esegue l‘attività, quindi che siano
in grado di migliorare il processo di interpretazione del compito

che siano appropriate all‘attività, e cioè in grado di migliorare
la capacità di prendere decisioni e fare giudizi, soprattutto dove
l‘attività sia di tipo cooperativo.
La natura delle rappresentazioni e la loro distribuzione tra risorse
interne ed esterne è la base da cui partire per comprendere il funzionamento dell'interazione, in particolare dell‘interazione tangibile, e per imparare a progettarla.
2. Temi di Design per l’Interazione Tangibile
L‘idea che l‘interfaccia tra mondo fisico e digitale possa essere spostata ―fuori dallo schermo‖ e attualizzata nel mondo reale ha delle
forti implicazioni per il design. In questo modello infatti possiamo
interagire con oggetti e spazi fisici che sono dotati di proprietà
computazionali. Per il designer progettare secondo questo modello
significa esplorare nuove metafore, far leva sulle nostre capacità fisiche (banalmente il fatto di poter utilizzare due mani contemporaneamente ed essere in grado di modificare lo spazio per raggiungere
alcuni obiettivi), e sfruttare informazioni sul nostro essere entità fisiche (sapere chi siamo, dove siamo) e agire di conseguenza.
In quello che segue presentiamo alcuni temi di design connessi
con la ricerca nel settore dell‘interazione tangibile, che possono aiutarci a comporre un quadro concettuale sufficientemente ampio e
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
343
articolato dell‘interazione tangibile. Ognuno dei temi verrà poi illustrato con esempi e casi studio. Per ulteriori approfondimenti concettuali sui temi di design connessi con l‘interazione tangibile si
veda anche Hornecker e Buur (2006); Holmquist et al (1999), Ullmer and Ishii (2000).
La manipolazione
Il tema più proprio e classico dell‘interazione tangibile è quello della Manipolazione. Per Manipolazione Tangibile intendiamo l‘uso di
rappresentazioni materiali che abbiano delle qualità tattili e che
possano essere manipolate in modo fisico. In questo tipo di modalità di interazione interagiamo direttamente con oggetti e facciamo
esperienza della loro fisicità. Un‘esperienza che può essere molto
variegata, dal piano funzionale, a quello sensoriale, emotivo ed estetico. L‘esperienza della manipolazione può far leva su un mapping anche molto complesso tra l‘azione e il suo effetto, e la sfida
del design è quella di definire una semantica che possa sfruttare
compiutamente le proprietà fisiche dell‘oggetto per offrire rappresentazioni efficaci dell‘informazione.
Ad esemplificazione del tema della manipolazione presentiamo
Active Surfaces, un sistema modulare di mattonelle (tiles) in grado
di galleggiare e di comunicare a distanza, utilizzato per sostenere
attività terapeutiche e di gioco in acqua con bambini con disabilità
motorie o cognitive (Marti & Pollini 2008, Grönvall, et al., 2006a,
2006b). In Active Surfaces ogni tile è una ―mattonella‖ quadrata di
30*30*5 cm, assemblabile con le altre grazie a piccoli magneti posti sullo spessore. Ogni tile è in grado di riconoscere la propria posizione all‘interno di una sequenza e il proprio orientamento rispetto alle altre, e possiede una superficie intercambiabile che rappresenta un elemento del gioco. Esempi di gioco sono la composizione
di parole a partire da lettere, il domino, il puzzle, lo scarabeo, la costruzione di sequenze, come mostrato nella Figura 1.
L‘applicazione è ispirata dall‘idea di rendere attive e interattive
le superfici che compongono l‘ambiente della piscina (il pavimento,
le pareti e la superficie dell‘acqua) e di utilizzarle per la stimolazione di attività di gioco con bambini disabili.
344
Patrizia Marti
Figura 1: Active Surfaces ed esempio di gioco in acqua
Le proprietà psico-dinamiche dell‘acqua fanno della piscina un ambiente ideale per l‘intervento riabilitativo. Attraverso il movimento
e la manipolazione fisica di oggetti, bambini con diversi gradi di
abilità (disabilità multiple, deficit fisico-motori e ritardi cognitivi)
possono raggiungere progressivamente una migliore conoscenza del
proprio corpo e della propria capacità d‘azione.
Il sistema è progettato per essere flessibile e configurabile dal terapista secondo i bisogni specifici di ciascun intervento terapeutico
grazie a dinamiche di programming-by-example. In pratica il terapista sceglie la sequenza che vuole venga riprodotta dal bambino, posizionando le tile nella configurazione corretta. Successivamente
invia, tramite infrarossi ad ogni unità della sequenza,
l‘informazione sulla posizione e l‘orientamento del proprio vicino
mediante una speciale tile chiamata ―assembler tile‖. Le tile a quel
punto vengono messe in acqua e ogni volta che il bambino indovinerà la sequenza corretta, queste si illumineranno prima sui lati correttamente assemblati e poi sull‘intera sequenza quando il gioco è
stato risolto. Con Active Surfaces vengono costruiti diversi tipi di
giochi modificando la configurazione delle sequenze e la scelta delle superfici sulle quali è basata la costruzione. Ogni tile può essere
configurata per produrre diversi tipi di feedback (principalmente
visivo e tattile) in modo che durante il gioco di costruzione il bambino possa ricevere dal sistema informazioni sulla correttezza delle
proprie azioni e la risoluzione finale del gioco.
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
345
Nel caso di Active Surfaces la manipolazione delle rappresentazioni fisiche del gioco di composizione è un fattore chiave per
l‘interazione e il raggiungimento degli obiettivi terapeutici. Ruotando, spostando e muovendo le tiles il bambino compie una serie
di azioni che non sempre lo avvicinano immediatamente alla soluzione del compito ma piuttosto lo mettono in una ―posizione cognitiva migliore‖ per calcolare, riconoscere, valutare le mosse per la
soluzione del gioco.
Kirsh e Maglio (1994) definiscono questo tipo di azioni con il
nome di azioni epistemiche, cioè quelle azioni che vengono intraprese per modificare il mondo allo scopo di ricavare informazioni
su di esso e migliorare lo stato computazionale-informativo del
soggetto che le esegue. Queste azioni si distinguono dalle azioni
pragmatiche, quelle cioè che vengono intraprese per modificare il
mondo e raggiungere direttamente un obiettivo pratico desiderato.
Anche se le azioni epistemiche non hanno lo scopo di raggiungere
un obiettivo e risolvere un compito, tuttavia possono migliorare la
performance cognitiva in vari modi:

riducendo la memoria necessaria alla computazione mentale

riducendo il numero di passi necessari alla computazione mentale

riducendo la probabilità di errore della computazione mentale.
Le proprietà delle azioni epistemiche sono state dimostrate in molti
esperimenti di laboratorio. Per un approfondimento si veda
l‘esperimento con il gioco del Tetris (Kirsh & Maglio,1994).
Nel caso dell‘uso di Active Surfaces la manipolazione degli oggetti fisici stimola una continua produzione di azioni epistemiche
fatte di rotazioni e traslazioni che consentono di ricavare informazioni sulle tiles (quelle ambigue vengono ruotate e spostate più
spesso), risparmiare energie mentali (la rotazione fisica è mediamente più rapida e più affidabile di quella mentale), il processo di
assemblaggio viene semplificato dalla presenza del feedback luminoso.
Dal punto di vista della manipolazione delle rappresentazioni fisiche del gioco, in Active Surface queste sono distribuite nel tempo
dal momento che le sequenze sono pre-computate dal terapista e in
346
Patrizia Marti
ogni momento il bambino può sapere qual è lo stato del sistema
(quante tile sono state correttamente assemblate tramite il feedback
luminoso) e quanti elementi restano da comporre per arrivare alla
soluzione (le tile ancora spente). Gli elementi concettuali del gioco
sono distribuiti nello spazio: ogni gioco ha le sue geometrie e le affordance delle superfici aiutano il bambino a trovare la sequenza
corretta. Ogni gioco è adattato alle abilità dei bambini e la complessità del gioco (numero di unità, rapidità del feedback, tipologia di
gioco) è scalabile e configurabile in modo diverso a seconda del
contesto d‘uso. Muovere le tile equivale a iniziare una computazione il cui risultato è rappresentato fisicamente sull‘oggetto stesso.
Lo spazio
Il ruolo dello spazio fisico nell‘interazione tangibile è tema estremamente ampio e si riferisce al fatto che l‘interazione tangibile avviene sempre nello spazio fisico. Questo significa che il corpo umano diventa il punto di riferimento rispetto al quale le proprietà
dell‘oggetto o dello spazio stesso vengono percepite e interpretate,
talvolta in modo implicito, e acquisiscono significato. L‘interazione
spaziale ci permette di muoverci e di utilizzare tutto il nostro corpo
e i nostri sensi per agire e rendere significativa la nostra azione.
Ad esemplificazione di questo tema citiamo il caso di HIPS 1 una
guida elettronica portatile che consente ai turisti in visita in una città d‘arte o in un museo di navigare allo stesso tempo lo spazio fisico e lo spazio delle informazioni ad esso relative.
HIPS guida i turisti nell‘esplorazione dell‘ambiente, fornendo
informazione personalizzata e contestualizzata grazie alla capacità
di monitorare la posizione e l'orientamento dell‘utente (Marti et al.
2001). L‘interazione con il sistema infatti avviene principalmente
mediante il movimento dell‘utente nello spazio museale.
I visitatori ricevono l‘informazione in parte sul display di un
palmare ed in parte attraverso speciali auricolari. L‘informazione
viene generata in modo dinamico, integrata con mappe ed altre indicazioni spaziali che consentono di rintracciare oggetti e luoghi di
interesse. La posizione dei visitatori nello spazio è determinata tramite infrarossi negli ambienti chiusi e tramite GPS all‘aperto.
1 http://www.media.unisi.it/ips
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
347
L‘utente interagisce col sistema semplicemente muovendosi nello
spazio fisico e il sistema adatta i contenuti alle strategie di visita
(contenuti più approfonditi per chi spende molto tempo davanti alle
opere e si muove lentamente; commenti più concisi per chi percorre
le sale rapidamente; nuove informazioni per chi torna a vedere
qualcosa che ha già visto).
Dal punto di vista del design del sistema, due sono le proprietà
del contesto che vengono modellizzate: le strategie di visita e i contenuti artistici così come sono distribuiti nello spazio.
Dal momento che il sistema è in grado di rilevare la posizione e
il movimento dei visitatori nelle sale, e dunque anche il tempo speso di fronte ad ogni opera, è possibile evincere dalla geometria del
percorso la strategia di visita adottata (lineare, lungo le pareti e accurata, oppure veloce e al centro della sala).
Per quello che riguarda invece i contenuti descrittivi delle opere
d‘arte, questi vengono associati a particolari posizioni nello spazio
fisico, che corrispondono a ciò che può essere visto di un‘opera da
uno specifico punto di osservazione (si veda la matrice 8*3 dei punti di osservazione definiti per la Sala del Mappamondo del Museo
Civico di Siena in Figura 2).
A questo punto, una volta definite le strategie di visita e dopo
aver spazializzato l‘informazione non resta che sovrapporre i due
modelli, quello dell‘informazione distribuita nello spazio e quello
della specifica strategia di visita adottata. In questo modo è possibile ottenere una descrizione delle opere personalizzata per tempi,
modi e contenuti, il cui accesso è mediato dal movimento nello spazio fisico (Marti, 2001).
Con HIPS, siamo dunque in presenza di un particolare tipo di interazione tangibile in cui lo spazio fisico è l‘interfaccia del sistema
e il movimento dei visitatori il trigger dell‘azione. L‘informazione è
integrata nell‘ambiente fisico e le geometrie del movimento dei visitatori così come le loro soste di fronte alle opere d‘arte sono elementi che abilitano la risposta del sistema. Anche in questo caso di
interazione tangibile il risultato dell‘azione viene rappresentato nel
luogo in cui l‘azione è stata iniziata.
348
Patrizia Marti
Figura 2: Il modello dei contenuti descrittivi delle opera d‘arte della Sala
del Mappamondo del Museo Civico di Siena
Embodiement
Hornecker e Bur (2006) definiscono Embodied Facilitation quella
proprietà dell‘interazione tangibile per la quale la particolare configurazione che gli oggetti materiali acquisiscono nello spazio influenza i comportamenti sociali e li facilita. Il modo in cui lo spazio
logico e fisico è organizzato suggerisce modalità ed opportunità per
l‘interazione e la particolare rappresentazione fisica di un oggetto
invita a relazionarsi e ad interagire, stimolando modalità d‘uso di
tipo emergente.
Il tema dell‘embodiment ha acquisito in tempi recenti grande enfasi nell‘HCI. Paul Dourish (2001) sostiene che l‘embodiment è il
denominatore comune di due aree dell‘HCI le cui ricerche sono tradizionalmente state condotte in maniera indipendentemente l‘una
dall‘altra: l‘interazione tangibile, di cui ci occupiamo in questo ca-
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
349
pitolo e il social computing, e cioè il tentativo di incorporare componenti sociologiche nel design dell‘interfaccia.
Nel progettare sistemi interattivi, entrambe le discipline fanno
leva sulla familiarità e la facilità con la quale usiamo artefatti fisici
e ci relazioniamo socialmente. ―Entrambi gli approcci condividono
il fatto che facciamo esperienza del mondo interagendo direttamente con esso, esplorando le opportunità di azione che ci vengono offerte, sia attraverso particolari configurazioni fisiche, sia mediante
significati costruiti socialmente. (Dourish 2001 liberamente tradotto
pp16-17).
Elaborare questo argomento in chiave progettuale significa considerare l‘embodiement come una caratteristica distintiva
dell‘interazione tangibile di mediare la comunicazione, facilitare lo
scambio sociale e sostenere processi di co-costruzione di significati.
In quello che segue esemplifichiamo questa chiave di lettura attraverso il caso studio dei Rolling Pin (RP) (Marti & Giusti 2007).
I RP sono un sistema modulare di tubi semi-trasparenti e autonomi, in grado di comunicare tra loro. Ogni RP è lungo 30cm, ha
un diametro di 5cm e un peso di 350gr. Si tratta dunque di oggetti
facili da afferrare e muovere con una sola o entrambe le mani. Le
componenti elettroniche sono collocate all‘interno dei tubi e servono a misurare il loro orientamento nello spazio e la velocità con cui
vengono ruotati. I RP sono in grado di emettere feedback di tipo
sonoro, luminoso e tattile, e di comunicare tra loro, o con qualsiasi
altro oggetto dotato di una tecnologia di comunicazione radio similare.
Questa particolare caratteristica dei RP li rende un esempio illuminante di embodiment: il feedback locale che emettono non dipende soltanto dalla velocità di rotazione e dall‘orientamento che
ognuno di loro può avere se usato singolarmente, ma anche dalla
rotazione e dall‘orientamento di uno o più RP manipolati da altri
utilizzatori. In quanto sistema quindi, i RP influenzano reciprocamente il loro comportamento abilitando scambi dialogici e interazioni anche molto complesse tra chi li usa. Ogni volta che gli utilizzatori riescono a sincronizzare il loro movimento, i RP emettono lo
stesso tipo di feedback luminoso, sonoro e tattile.
350
Patrizia Marti
Figura 3: l‘uso dei RP con un paziente anziano
I RP sono stati progettati e sperimentati in contesti terapeutici (Marti, et al., 2007). Il loro particolare design fisico è stato ispirato
dall‘osservazione di pattern senso-motori di pazienti anziani affetti
da demenza che mostrano durante il giorno ripetuti comportamenti
stereotipici di affaccendamento. In sostanza muovono le mani su
superfici orizzontali come se volessero far rotolare avanti e indietro
degli oggetti immaginari. I RP sfruttano questa tendenza naturale
all‘azione e ne fanno uno strumento di comunicazione. I pazienti
anziani affetti da demenza infatti hanno grandi difficoltà di comunicazione: la demenza porta alla perdita progressiva di abilità sociali
e all‘isolamento.
Durante le sperimentazioni i RP hanno mostrato di essere uno
strumento di mediazione di scambi sociali non verbali tra il terapista e il paziente. Stimolati da pattern senso-motori familiari e da un
design inconsueto, i pazienti entrano in un contatto empatico con il
terapista, imitando gesti, inventando coreografie di luci e suoni,
promuovendo un linguaggio gestuale. Le sperimentazioni con bambini autistici hanno fatto emergere attitudini simili allo scambio sociale.
La particolare interazione tangibile offerta dai RP ha dunque una
caratteristica estremamente peculiare. Lo scambio dialogico è progettato come proprietà fisica dell‘oggetto: ogni utente per usare il
suo strumento e ricevere feedback ha bisogno dell‘altro come risorsa della sua azione. I RP facilitano e mediano uno scambio dialogico e la relazione empatica tra persone, in una parola realizzano
l‘embodied interaction.
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
351
Espressività
Ancora Hornecker e Bur (2006) definiscono Expressive Representation l‘insieme delle caratteristiche delle rappresentazioni digitali e
materiali utilizzate nell‘interazione tangibile e legate alla loro espressività, leggibilità o interpretabilità. Si tratta di rappresentazioni
ibride che combinano mondo fisico e digitale e che richiedono che
l‘interazione sia progettata ad entrambi i livelli in modo da armonizzare le proprietà fisiche degli oggetti con quelle digitali delle
tecnologie dell‘informazione. Il punto qui non è quello di ―aumentare‖ gli oggetti fisici con componenti digitali, ma progettare il
mapping tra fisico e virtuale in modo da avere un‘interazione naturale ad entrambi i livelli, un‘esperienza sensoriale ricca che possa
dar spazio all‘espressività e alla costruzione di significati, alla produzione creativa di contenuti, alla condivisione.
Il caso studio di POGO esemplifica chiaramente il concetto2.
POGO è un ambiente di apprendimento distribuito che permette a
bambini in età scolare di costruire storie mescolando elementi fisici
e virtuali. L‘ambiente è composto di strumenti e superfici interattive che i bambini utilizzano per creare e rappresentare dinamicamente delle storie. POGO è dunque un mondo di storie, il mezzo
espressivo che i bambini utilizzano di preferenza per comunicare,
fare esperienze, costruirsi un modello del mondo che imparano a
conoscere (Rizzo, et al., 2003). La costruzione di storie è una tendenza pervasiva nello sviluppo del bambino e quanto più la storia è
coinvolgente da un punto di vista emotivo ed esperienziale tanto più
è veicolo di apprendimento.
POGO è un ambiente fatto di oggetti reali e virtuali che i bambini
possono manipolare per costruire storie, interagendo con uno spazio
che consente l‘esperienza di tutte le modalità sensoriali, e sviluppando le proprie potenzialità creative, comunicative e sociali.
Gli elementi fondamentali di questo ambiente si basano su alcuni motivi ispiratori principali: uno spazio in cui a partire da pochi
semplici elementi (un‘attività di classe in cui i bambini producano
disegni, storie, suoni con strumenti tradizionali) sia possibile inventare nuove attività (drammatizzare una storia in cui gli oggetti dise2 http://www.youtube.com/watch?v=4xjmNVgK4Vc
352
Patrizia Marti
gnati dai bambini diventano oggetti virtuali a cui attribuire proprietà
e comportamenti) editando e manipolando elementi che i bambini
stessi hanno creato, per farli diventare elementi di nuove storie.
Figura 4: le card
L‘ambiente può enfatizzare le caratteristiche fisiche (ad esempio
la voce) e comportamentali (le espressioni) dei bambini che raccontano una storia e modificare l‘immagine fisica dei personaggi associando caratteristiche virtuali.
Elementi di transizione tra il mondo fisico e quello virtuale della
storia infatti sono le card, oggetti fisici provvisti di tag (un identificatore) che possono memorizzare elementi della storia
(un‘immagine, un suono, uno sfondo) ed essere letti/attivati da altri
strumenti che ne riproducono il contenuto (schermi a parete, tappeti, display convenzionali, distorsori di suono ecc.).
Più card possono essere sovrapposte allo stesso elemento di
sfondo e quindi diversi elementi fisici possono essere arricchiti da
componenti digitali sonore o visive.
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
353
Figura 5: La visualizzazione dei contenuti di una card (a sinistra) e la produzione dei suoni su un tappeto sonoro (a destra)
I bambini possono creare elementi della storia disegnandoli su un
piano di lavoro touch screen, oppure acquisendo la loro stessa immagine per diventare personaggio della storia, oppure acquisendo
l‘immagine di un qualsiasi elemento del mondo fisico (un orsacchiotto), associando ad essa dei suoni in modo fisico (ad esempio
mettendo al collo dell‘orsacchiotto una card) e valutando l‘effetto
della combinazione nello spazio digitale.
Figura 6: una bambina acquisisce la propria immagina e la modifica
Ad ogni oggetto fisico può essere associato un qualsiasi elemento
espressivo digitale contenuto nella card. In questo modo i bambini
possono continuare ad editare all‘infinito una stessa storia, modificandone dinamicamente i personaggi e ogni altro.
354
Patrizia Marti
La tecnologia dunque diventa in questo contesto un mezzo per
stabilire connessioni nuove tra oggetti, utilizzando ambienti multisensoriali. Il progettista ha il ruolo di progettare insieme alle insegnanti quegli spazi di opportunità intellettuali ed esperienziali che i
bambini potranno trasformare ed evolvere con la loro esperienza
personale e la loro capacità creativa.
Un sistema così costruito costituisce un ambiente ideale per il
raggiungimento di alcuni obiettivi pedagogici fondamentali per lo
sviluppo del bambino:

espandere l‘esperienza sensoriale stimolando attività creative
non solo individuali ma anche socialmente condivise

sviluppare un linguaggio emotivo per esprimere sensazioni ed
emozioni

esternalizzare il prodotto della propria immaginazione e condividerlo con gli altri

sviluppare l‘intersoggettività e cioè la capacità di leggere la
mente degli altri e di sapersi relazionare sviluppando una storia
condivisa

stimolare la riflessione e il ragionamento metacognitivo, attraverso la progettazione del plot e la costruzione e
l‘orchestrazione di tutti gli elementi della storia.
3. I Domini Applicativi
La manipolazione tangibile nelle sue declinazioni tecnologiche in
oggetti, spazi e ambienti per lo scambio sociale, trova espressione
in domini applicativi molto diversi. In quello che segue offriamo
una panoramica delle applicazioni emergenti.
Educazione
Un settore di grande fermento e sperimentazione di tecnologie tangibili è quello dell‘educazione. In molti hanno teorizzato
l‘importanza nell‘apprendimento di fare esperienza diretta
dell‘oggetto di studio coinvolgendo tutte le modalità sensoriali. Il
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
355
costruzionismo è forse l‘approccio che più profondamente ha segnato un capovolgimento di prospettiva nell‘interpretazione dei
processi di apprendimento: la conoscenza viene costruita attivamente dalla mente di chi apprende (Piaget, 1972) all‘interno di un processo sociale di tipo dialogico che avviene mediante co-costruzione
di conoscenza:
―Nell‘atto di comprendere, si opera per cogliere il posto occupato da
un‘idea, un fatto, in una più generale struttura di conoscenza.‖ (Bruner, 1996).
La chiave dell‘apprendimento è la costruzione di conoscenza attraverso il coinvolgimento nella costruzione di artefatti in contesti sociali i cui valori fondanti siano: la condivisione, l‘esternalizzazione
attraverso la rappresentazione e la negoziazione di significati (Papert, 1993).
Sulla base di questi assunti è facile intuire come le tecnologie
tangibili possano fornire uno spazio di espressione e di esperienza
nei processi di apprendimento.
Paradigmatico è il caso dei Digital Manipulatives (Resnik,
1998), blocchi componibili dotati di sensori e attuatori e capaci di
comunicare tra loro. I Digital Manipulatives vengono utilizzati in
ambito didattico per costruire simulazioni, fare esperimenti e progettare artefatti interattivi. Mediante la programmazione, la manipolazione e la composizione dei blocchi, gli studenti non soltanto fanno esperienza di eventi che riguardano la fisica, la matematica, la
biologia, ma hanno la possibilità di progettare i propri strumenti di
conoscenza e di usarli collaborativamente con altri studenti
nell‘esplorazione di concetti complessi. I blocchi sono unità abilitanti con un alto potenziale combinatorio: lo studente esposto ad un
certo tipo di contenuto, attribuisce significato a quel contenuto progettando gli strumenti di cui ha bisogno per esplorarlo. Il significato
così costruito è poi presentato agli altri studenti e al docente attraverso una dimostrazione del funzionamento dell‘artefatto progettato, avviando un processo di negoziazione e co-costruzione di significati.
L‘apprendimento diventa in questo modo un‘attività coinvolgente ed efficace che fa leva sul fatto che idee nuove si saldano su intuizioni personali e conoscenze pregresse. Il ruolo del docente è
356
Patrizia Marti
quindi quello di estrapolare le proprietà salienti del dominio, e mostrare il potenziale espressivo delle tecnologie abilitanti in relazione
a quelle proprietà. Il ruolo dello studente è quello di interpretare i
suggerimenti del docente e progettare l‘attività di apprendimento
che meglio individua il legame tra i contenuti proposti, il potenziale
delle tecnologie, i propri interessi e l‘uso di conoscenza pregressa
sviluppata in altri domini. In questo modo ogni percorso di apprendimento diventa personale, autentico e originale nelle modalità e
nei risultati.
Il gioco
Giocare implica l‘uso di una grande varietà di oggetti, stratagemmi,
strategie e tecniche tutti volti ad ottenere piacere e divertimento durante l‘attività. Le tecnologie tangibili stimolano l‘esercizio di abilità fisiche ma anche di ragionamento e strategia. Si pensi al successo
della console Nintendo Wii che utilizza controlli fisici di rappresentazioni digitali del gioco e richiede un certo sforzo di coordinamento motorio nell‘eseguire comandi e misurarsi in competizioni sportive.
Figura 7. bambini che giocano con tangible tiles
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
357
Tutto calato nel mondo fisico invece, sia nei controlli che nelle rappresentazione, è un innovativo concetto di playground (Lund, et al.,
2005) un progetto la cui motivazione principale è quella di dare una
risposta al crescente problema della obesità infantile che sia complementare alla dieta alimentare e allo sport: il coinvolgimento in
attività di gioco che richiedano un considerevole sforzo fisico. Il sistema è costituito da tangible tiles, mattoni di plastica che possono
essere combinati in varie configurazioni e formare un tappeto sensibile. Il tappeto ospita diversi tipi di gioco: ad esempio competere
in un gruppo a chi per primo salta sul mattone che emette una luce
rossa per spegnerla; oppure coordinarsi con un compagno per premere contemporaneamente il maggior numero possibile di mattoni
illuminati con lo stesso colore ecc..
Sistemi di programmazione
Per quanto possa sembrare contro intuitivo, la programmazione di
un sistema può avvenire secondo modalità completamente fisiche, e
cioè eseguendo azioni che rappresentano script per il sistema.
Esistono due principali paradigmi di programmazione fisica: il programming by example in cui l‘utente esegue un pattern di azioni
con oggetti fisici e il sistema li riproduce (si veda anche il caso discusso nel paragrafo 3.1); e il programming by building, in cui
l‘utente costruisce una struttura utilizzando blocchi fisici e il sistema la interpreta come un modello geometrico o matematico (si veda
anche l‘esempio illustrato nel paragrafo 4.5).
Riabilitazione
Recentemente si è assistito allo sviluppo di tecnologie tangibili a
sostegno di interventi terapeutici per la disabilità. Diversamente
dalle tecnologie protesiche progettate per compensare gli effetti del
deterioramento funzionale (cognitivo, fisico, socio-relazionale) e
facilitare l‘esecuzione di task specifici, le tecnologie terapeutiche
tangibili rappresentano uno strumento per sostenere il paziente disabile nel perseguimento di obiettivi terapeutici altrimenti difficili
da raggiungere.
Esempi di tecnologie di questo tipo variano dai pioneristici studi
con robot configurabili e semoventi nella terapia con bambini affetti
358
Patrizia Marti
da Sindrome Autistica (Dautenhahn, et al., 2001; Druin, et al.,
2000), agli ambienti multi-sensoriali per l‘espressività individuale
(Ellis & Van Leeuwen 2000; Brooks 2004, 2006), fino ai più recenti esempi di robotica modulare per il supporto all‘attivazione fisico
motoria e agli scambi relazionali (Lund & Marti 2005; Marti, et al.,
2005; Marti & Giusti 2007).
Modellizzazione e costruzione
Molti sistemi tangibili utilizzano cubi, blocchi e mattoni come primitive per la costruzione di modelli geometrici o per eseguire operazioni aritmetiche. Ad esempio gli I-Blocks (Lund, 2003°; Lund,
2003b) sono blocchi di costruzione in grado di eseguire calcoli matematici e mostrare il risultato della computazione sulla struttura
stessa. Ogni I-Block contiene un microprocessore e delle connessioni seriali per comunicare con altri blocchi. Alcuni blocchi rappresentano operazioni numeriche (somma, sottrazione ecc..), altri
contengono contatori per rappresentare numeri. La Figura 8 mostra
l‘operazione aritmetica (x+y)*z eseguita con I-Blocks. L‘utente impila i blocchi e il risultato dell‘operazione può essere rappresentato
come numero binario attraverso i LEDs accesi su un blocco oppure
sul display di un altro blocco (a destra nella Figura 8).
Tutte le operazioni vengono eseguite in modo fisico assemblando i blocchi e il risultato della computazione viene calcolato dinamicamente e rappresentato sulla struttura stessa.
Figura 8. I-Blocks per eseguire operazioni aritmetiche. © H. H. Lund,
2002.
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
359
Conclusioni
L‘interesse per l‘azione e l‘interazione con oggetti fisici ha segnato
una trasformazione profonda nella disciplina dell‘HCI. In sostanza
si è assistito ad un passaggio da una visione dell‘interazione centrata sull‘elaborazione dell‘informazione, ad una centrata sull‘azione.
Di questa trasformazione ne sono fondamentali ispiratori la ricerca
teorica nel campo della fenomenologia (Fällman, 2004), del pragmatismo (McCarthy & Wright, 2004) e dell‘etnometodologia (Dourish, 2001).
Tuttavia non è soltanto la ricerca teorica ad avere profondamente
influenzato lo sviluppo di questo settore. L‘attenzione all‘azione e
al mondo fisico fanno dell‘interazione tangibile una disciplina di
design in cui l‘estetica, il disegno del prodotto, la progettazione di
ambienti e lo scambio sociale che in essi avviene diventano le leve
per la creazione di soluzioni e relazioni più naturali e sostenibili con
il mondo in cui viviamo e agiamo quotidianamente.
Come abbiamo visto in questo capitolo il tangible computing ha
una forte connotazione fisica. Tuttavia l‘interesse di questa modalità di interazione con il mondo digitale sta proprio nel fatto di portare con sé molte componenti non soltanto fisiche.
Il tangible computing è la realizzazione fisica di una realtà simbolica, che per funzionare richiede una comprensione profonda delle affordance fisiche, ma anche sociali, culturali, valoriali che entrano in gioco nel momento in cui agiamo nel mondo e lo trasformiamo per dare significato alla nostra azione.
Letture Consigliate
Norman, D. A. [1995] Le cose che ci fanno intelligenti, Feltrinelli, Milano.
Bibliografia
Brooks, A. [2004] SoundScapes. In . D. N. Snowdon, E. F. Churchill, & E. Frécon
(Eds.), Inhabited Information Spaces: Living with your Data (pp. 89-99).
Springer.
360
Patrizia Marti
Brooks, T. [2006] SoundScapes - Beyond Interaction... in search of the ultimate
human-centred interface. 16th International Conference on Artificial Reality
and Telexistence (ICAT2006) : Advanced program. Zhejiang, China, Zhejiang
University of Technology, 2006. s. 17
Dautenhahn, K., Werry I., Ogden, B., Harwin W., [2001] ―Can Social Interaction
Skills Be Taught by a Social Agent? The Role of a Robotic Mediator in
Autism Therapy‖, Proceedings CT2001, The Fourth International Conference
on Cognitive Technology: INSTRUMENTS OF MIND (CT2001), Monday 6th
- Thursday 9th August, 2001 at University of Warwick, United Kingdom,
Springer Verlag,
Dourish P. [2001] Where the Action Is. The Foundations of Embodied Interaction.
MIT Press 2001.
Druin A., Plaisant C., Lathan C., Dachane K., Edwards K., Maxwell Vice J.,
Montemayor J., [2000] ―A storytelling robot for Pediatric Rehabilitation‖ in
Proceeding ASSETS ‘00, Washington, New York
Ellis, P., Van Leeuwen, L. [2000] Living Sound: human interaction and children
with autism. Paper presented at ISME commission on Music in Special
Education, Music Therapy and Music Medicine, Regina, Canada, July 2000.
Fällman, D., [2004] In Romance with the Materials of Mobile Interaction: A
Phenomenological Approach to the Design of Mobile Information Technology,
in Informatics. 2004, Umeå.
Fitzmaurice, G. W., Ishii H., Buxton W. [1995] Bricks: laying the foundations for
graspable user interfaces. In Proceedings of CHI: Human Factors in
Computing Systems. pp. 442–49, 1995.
Grönvall, E., Marti, P., Pollini, A., Rullo, A. [2006a] Active surfaces: a novel
concept for end user composition, NordiCHI 2006, Oslo, Norway, 14-18
October, 2006.
Grönvall, E., Pollini A., Rullo A., Svensson, D., [2006b] Designing game logics in
dynamic Active Surfaces, MUIA06 at MobileChi 2006, September 12 2006,
Espoo, Finland.
Holmquist L. E., Redström J. and Ljungstrand P. [1999]Token based access to
digital information. Proc. of HUC'99,Springer (1999). 234-245.
Hornecker E., Buur J. [2006] Getting a grip on tangible interaction: a framework
on physical space and social interaction. Proceedings of CHI 2006 © ACM,
April 22–28, 2006, Montréal, Québec, Canada.
Hutchins, E., [1995] Cognition in the wild , MIT Press, Cambridge, MA, 1995.
Ishii, H. Ullmer, B. [1997] Tangible Bits: Towards Seamless Interfaces between
People, Bits and Atoms. In Proceedings of CHI: Human Factors in Computing
Systems. pp. 234–41, 1997.
Kirsh, D. Maglio, P. [1994] On Distinguishing Epistemic from Pragmatic Action.
Cognitive Science 18, (1994), 513-549.
Fuori dallo schermo:
Teoria e Pratica dell‘Interazione Tangibile
361
Lund, H. H. [2003a], Intelligent Artefacts, in: Sugisaka & Tanaka (Eds.),
Proceedings of 8th International Symposium on Artificial Life and Robotics,
ISAROB, Oita.
Lund, H. H. [2003b], Neural Building Blocks, in: 1st International IEEE EMB
Conference on Neural Engineering, March 20-22, IEEE Press, Capri, Italy.
Lund, H. H., Klitbo, T., and Jessen, C. [2005] Playware Technology for Physically
Activating Play, Artificial Life and Robotics Journal, 9:4, 165-174, 2005
Lund, H.H. Marti, P. [2005] Designing Manipulative Technologies for Children
with Different Abilities Artificial Life & Robotics, vol.9, n°4, pp 175-187,
2005, ISSN: 1433-5298 (Paper) 1614-7456 (Online)
Marti, P., Gabrielli, L. Pucci, F. [2001] Situated Interaction in Art, Personal
Technologies, 5:71-74, 2001, 0949-2054.
Marti, P. [2001] Design for art and leisure, Proceedings of ICHIM 2001, in D.
Bearman, and F. Garzotto, (eds.). Pittsburgh: Archives & Museum Informatics,
387-397, 2001.
Marti, P, Lund, H.H. Bacigalupo, M. Giusti, L. Mennecozzi, C. [2007] ―Blending
Senses: A Multi-sensory Environment for the treatment of Dementia Affected
Subjects‖, Journal of Gerontechnology, 6(1), 33-41, January 2007. ISSN 15691101.
Marti, P. Palma, V., Pollini, A. Rullo, A. Shibata, T. [2005] My Gym Robot,
Proceedings of AISB05 International Symposium on robot companions: hard
problems and open challenges in human-robot interaction, April 2005, ISBN 1
902956 44 1.
Marti, P. Giusti, L. [2007] Coupling the digital and the physical: a way on in the
design of tangible media, In Human-Computer Interaction. Interaction
Platforms and Techniques. Volume 4551/2007 12th International Conference,
HCI International 2007, Beijing, China, July 22-27, 2007, Proceedings, Part II.
ISSN0302-9743 (Print) 1611-3349 (Online), pp 1173-1182. Springer Berlin /
Heidelberg
Marti, P. Pollini, A. [2008] Spazi di Gioco e Spazi di Cura: il Ruolo delle
Tecnologie Interattive nel Trattamento delle Disabilità Motorie e Cognitive. In
S. Besio [2008) (a cura di) Gioco e giocattoli per la disabilità motoria.
Unicopli, Milano, In stampa
McCarthy, J. and P. Wright, [2004] Technology as Experience. 2004: MIT Press.
Norman, D. A., [1991] Cognitive artifact. In J. M. Carroll (Ed.), Designing
interaction Cambridge University Press, Cambridge, MA, 1991.
Norman, D. A., [1993] Things that make us smart, (Addison-Wesley, Reading,
MA).
Papert, S. [1993] The Children’s Machine. New York: Basic Books
Piaget, J. [1972] The Principles of Genetic Epistemology. New York: Basic Books
362
Patrizia Marti
Resnick, M. [1998] ―Technologies for lifelong learning‖ Educational Technology
Research & Development, vol. 46, no.4
Rizzo, A. Marti, P. Decortis, F., Moderini, C., Rutgers, J. [2003] The design of
POGO world, In Hollnagen E. (ed.) Handbook of Cognitive Task Design, New
Jersey: Lawrence Erlbaum Associates Inc., 2003, pp577-602.
Suchman L. [1987] Plans and Situated Actions. The problem of human machine
communication Cambridge University Press Cambridge 1987.
Ullmer B. Ishii H. [2000] Emerging frameworks for tangible user interfaces. IBM
Systems Journal 39(3-4) (2000), 915-931.
Weiser, M. [1991] The Computer for the 21st Century. Scientific American 265.
pp. 94–104, 1991.
Wellner, P. [1993] Interacting with Paper on the DigitalDesk, Communications of
the ACM, vol. 36(7): pp. 87–96, July, 1993.
Zhang, J., and Norman, D. A., [1994], Representations in Distributed Cognitive
Tasks, Cognitive Science, 18, 87-122.
Patrizia Marti, è docente di Design di tecnologie per l‘apprendimento e
di Interazione Uomo-Macchina nel corso di laurea in Scienze della Comunicazione, Facoltà di Lettere e Filosofia dell‘Università degli studi Siena.
Ha una lunga esperienza di ricerca nel campo dell‘Iteraction Design in vari
domini come l‘e-learning e la pedagogia speciale, la robotica, l‘health care, il controllo del traffico aereo, applicazioni museali. È attualmente responsabile per l‘Università di Siena di progetti di ricerca nazionali e internazionali principalmente legati al Tangible e Ubiquitous Computing e alle
tecnologie assistive . Ha pubblicato numerosi articoli su riviste internazionali, capitoli di libri e comunicazioni a convegni. È stata curatrice di numeri monografici per le riviste Travail Humain e Cognition, Technology
and Work.
Alessandro Soro (ed.), Human Computer Interaction, 11-15
© 2008 Polimetrica International Scientific Publisher Monza/Italy