bagnara pozzi – dissolversi interfaccia

Transcript

bagnara pozzi – dissolversi interfaccia
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
IL DISSOLVERSI DELL’INTERFACCIA
Sebastiano Bagnara
Facoltà di Architettura, Università di Sassari – Alghero
Simone Pozzi
Facoltà di Architettura, Università di Sassari – Alghero
Deep Blue Research and Consulting
Abstract
Il contributo illustra l’evoluzione del concetto di interfaccia negli ultimi 20 anni, evoluzione legata sia
all’innovazione tecnologica ma anche al cambiamento nei modi di utilizzo della tecnologia. Distinguiamo 3
fasi principali:
- fino agli anni 80: la rivoluzione cognitiva e l’importanza dell’interfaccia nell’ergonomia
- anni 90: il CSCW
- fine anni 90 e oltre: l’ambiente come interfaccia e l’ubiquitous computing
La parte finale è dedicata ai trend del presente: le interfacce macchina-macchina, la personalizzazione delle
interfacce (interfacce brain computer, il corpo come interfaccia), la multimodalità (applicazioni di nicchia)
1. Introduzione
Una disciplina applicata quale l’ergonomia cognitiva ridefinisce piuttosto spesso il suo oggetto di indagine.
Semplificando, potremmo dire che l’ergonomia studia la relazione tra uomo e strumenti, ma gli “strumenti”
mutano di continuo la loro natura, anche in modo drastico, seguendo dinamiche di cambiamento molto rapide.
Non si tratta solo di cambiamenti dovuti all’innovazione tecnologica, ma anche di come gli stessi strumenti
vengano utilizzati in modo differente in contesti o situazioni diverse. Prendiamo ad esempio un dispositivo di
uso quotidiano quale il telefono cellulare. In Giappone il cellulare integra funzioni di pagamento elettronico
e può essere utilizzato come “borsellino elettronico”. In Europa queste funzioni sono state introdotte solo
molto timidamente (e non hanno certo avuto un gran successo), mentre si è assistito al boom dei brevi messaggi di testo, che sono in realtà un uso idiosincratico del cellulare, ovvero non previsto dai progettisti e poco
diffuso in altre parti del mondo. Ad esempio negli USA l’utilizzo diffuso degli SMS è cosa recente, con il
numero di SMS spediti passato dai “solo” 2 miliardi del 2003 a 110 miliardi nel 2008 [sorgente Wired]. Per
fare un secondo esempio, il personal computer è da molto tempo presente negli uffici e nelle scuole, mentre
solo di recente è stato introdotto in altri luoghi di lavoro, quali ad esempio la corsia di un ospedale. In questi
nuovi contesti emergono altri modi di utilizzo, legati alle pratiche e alle conoscenze mediche, che rendono
l’interazione con lo strumento computer molto diversa dall’interazione che noi abbiamo quotidianamente con
i nostri PC.
Inoltre l’ergonomia cognitiva studia oggetti molto eterogenei (quali il personal computer, i palmari e i cellulari), ma anche strumenti più semplici, quali orologi o elettrodomestici, oppure le tecnologie legate ad
internet, o ancora applicazioni complesse quali la strumentazione di una cabina di pilotaggio di un aereo, il
pannello di controllo di un’industria chimica, e così via. Ciascuno di questi oggetti richiede un focus differente, metodi differenti, e mostra aspetti diversi della relazione uomo-strumenti.
L’obiettivo di questo contributo è descrivere la storia recente di questi spostamenti nell’oggetto di studio
dell’ergonomia. Lo faremo in modo parziale e semplificato, a partire dalle diverse definizioni di interfaccia
che si sono susseguite negli ultimi 30 anni. Proveremo a individuare i caratteri salienti delle diverse concezioni, mettendo in risalto le implicazione che ciascuna di esse ha comportato per la disciplina dell’ergonomia
cognitiva.
2. La centralità dell’interfaccia: la rivoluzione cognitiva
Dal 1970 in poi assistiamo al crescere della cosiddetta “società della conoscenza”, caratterizzata da una sempre più alta omogeneità tra ambiente di lavoro e di vita, da una continua e rapida trasformazione del lavoro,
da una diffusa informatizzazione e presenza di automazione in luogo del lavoro fisico. E’ in questo panorama
che assistiamo alla nascita dell’ergonomia cognitiva e della Human-Computer Interaction, soprattutto a causa
della continua evoluzione dei calcolatori e della loro presenza sempre più pervasiva negli ambienti di lavoro.
1
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
La società della conoscenza richiede sempre maggiormente il contributo dell’ergonomia cognitiva, che da
branca minore dell’ergonomia diventa sempre di più una disciplina indipendente.
Non si tratta certo di una rivoluzione inaspettata, se già all’inizio degli anni ’60 un illustre psicologo quale
Frederic Bartlett individuava le seguenti tendenze per gli anni a venire (Bartlett, 1962):
1. crescente isolamento fisico degli individui
2. richieste maggiori di comunicazione mediata da tecnologia
3. riduzione del workload fisico
4. incremento del workload mentale
5. integrazione del lavoro di più persone nel lavoro di un’unica persona
6. presentazione di stimoli multi-modali
7. enfasi crescente sulle attività di decision making
Ma si tratta pur sempre di una rivoluzione, con un deciso “sorpasso” dell’informatica sulla meccanica. Ad
esempio è alla fine degli anni ’70 che l’informatica presente negli elettrodomestici di uso quotidiano diventa
preminente rispetto alla parte meccanica. Il robot cucina, che sino ad allora era sostanzialmente composto da
un motore per imprimere il movimento rotatorio e da un set di pale intercambiabili (un meccanismo puramente meccanico), viene sostituito da strumenti in cui i circuiti integrati dell’elettronica e i chip giocano un
ruolo fondamentale (ad esempio il forno a microonde).
È durante questi anni che il contributo dell’ergonomia cognitiva diventa sempre più rilevante. Nelle nuove
macchine lo spazio dedicato al “motore” si restringe sempre più, anche a causa della miniaturizzazione crescente, mentre cresce lo spazio dedicato all’interfaccia, ovvero a quella parte della macchina dedicata al dialogo con l’utente, a riceverne gli input e a fornire gli output. E in analogia gli sforzi progettuali si concentrano sull’interfaccia. Una dinamica simile non è tipica solamente dello sviluppo dell’informatizzazione, ma è
un processo già visto anche in strumenti puramente meccanici. Nelle prime automobili, il motore è in pratica
l’automobile stessa, con alcune piccole aggiunte, come un seggiolino per il guidatore, lo sterzo e qualche leva. Nelle macchine odierne l’abitacolo è invece nella stragrande maggioranza dei casi molto più grande del
motore e il cruscotto del guidatore si arricchito di tutta una serie di comandi, indicatori, funzionalità.
Grudin (Grudin, 1990) ha descritto un’evoluzione analoga anche per i computer. Nei primi computer (i cosidetti mainframes), lo spazio dedicato l’interfaccia era minimo e sarebbe stato una forzatura parlare di “utente”. L’interazione era a livello di cablatura, ovvero l’interfaccia era l’hardware stesso. Gli ingegneri elettronici dovevano modificare fisicamente le connessioni per “programmare” (ovvero ottenere comportamenti diversi) la macchina.
Una prima interaccia utente la si trova solo con l’avvento delle schede perforate. Le schede permettevano di
interagire con il software della macchina, programmando comportamenti differenti (solitamente calcoli numerici), senza per questo doversi preoccupare del funzionamento hardware,. L’utente inseriva una scheda
perforata per specificare il calcolo desiderato, la macchina processava le informazioni e restituiva il risultato
sotto forma di stampa. L’utente tipico non era più l’ingegnere elettronico, quanto il programmatore.
Alla fine degli anni ’70 e all’inizio degli ’80, assistiamo invece all’avvento del personal computing.
L’interfaccia è il terminale utente ovvero, semplificando, lo schermo del computer attraverso il quale è possibile interagire con il “motore della macchina” (il processore e la memoria). Le interfacce acquistano una
loro spazio dedicato e l’utente coincide con l’utilizzatore finale, il quale interagisce con il computer come
strumento per il proprio lavoro, senza per questo dover possedere una specifica conoscenza approfondita dello stesso, né del software né dell’hardware. Per l’ergonomia diventano rilevanti i processi percettivi, ad esempio per analizzare la leggibilità delle aree di input e output. Si studiano anche l’accuratezza e la velocità
dei movimenti necessari per l’input, con le prime applicazioni della legge di Fitts a lavori di HumanComputer Interaction proprio in questo periodo (Card, English, & Burr, 1978).
A questo periodo risalgono anche le ricerche del laboratorio della Xerox Parc, con il lancio della workstation
Star nel 1981 e la progettazione di interfacce utente a tutt’oggi ancora utilizzate. I video di dimostrazione realizzati da Douglas Engelbart (reperibili su web o YouTube) mostrano ad esempio i primi prototipi di mouse
o di interfaccia a manipolazione diretta (What You See Is What You Get, o WYSIWYG).
Ma la flessibilità dei personal computer richiede studi che vadano oltre le semplici caratteristiche percettivomotorie. L’ergonomia cognitiva si trova ad affrontare questioni come la capacità di apprendimento, la for2
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
mazione di concetti, la semantica di comandi e informazioni, la comunicazione mediata da computer. Con il
lancio dei sistemi operativi Apple e Windows negli anni ’80 (e delle relative interfacce), la transizione preconizzata da Bartlett poteva dirsi completata, soprattutto per quanto riguardava la “rivoluzione cognitiva”:
l’interazione con i computer era ormai principalmente una questione cognitiva, dove la fatica fisica era ormai
in secondo piano rispetto al carico mentale.
3. La comunicazione e il computer: il Computer Supported Cooperative Work
Nel già citato articolo “The computer reaches out” del 1990 (Grudin, 1990), Grudin ha tracciato una breve
storia dell’Interazione Uomo-Computer per larghe parti analoga a quanto sin qui presentato. L’aspetto più
interessante del lavoro di Grudin è sicuramente la descrizione dell’ultima fase, ovvero la transizione dallo
studio dell’interazione tra il computer ed un solo individuo, allo studio del computer come supporto per i
gruppi di lavoro (Computer Supported Cooperative Work - CSCW). Pur scrivendo all’inizio della decade,
Grudin già individuava come il computer sarebbe diventato negli anni ‘90 sempre di più uno strumento utilizzato primariamente per comunicare, laddove negli anni precedenti la potenza dei computer si traduceva
invece innanzitutto in capacità di calcolo. Negli anni ’90 assistiamo infatti anche alla diffusione esponenziale
di Internet e di tutte le applicazioni ad esso collegate, quali la navigazione web, la posta elettronica, o lo
scambio di file tramite protocolli FTP o peer-to-peer.
L’ergonomia cognitiva si trova di fronte un’interfaccia che non serve più semplicemente a mediare gli input
e gli output con il computer, ma consente innanzitutto di interagire con altre persone. L’analisi e la progettazione delle interfacce deve ora rendere conto di tutte le interazioni sociali da esse mediate.
La transizione è raffigurata nelle figura 2. Se prima l’interfaccia poteva definirsi come la parte di software
dedicata al dialogo con l’utente, negli anni ’90 risulta chiaro come l’interazione con i computer implichi anche l’interazione con altre persone (amministratori di sistema, tecnici, colleghi, etc.) e con risorse non computerizzate (ad esempio la documentazione).
Figura 1. Due diverse concezioni di interfaccia utente. Immagini riprese e modificate da (Grudin, 1990).
Con una complicazione ulteriore: gran parte di queste interazioni sociali diventano nel corso degli anni ’90
esse stesse mediate dal computer (vedi figura 2). Con l’avvento di internet molte risorse fisiche si spostano
sulla rete, rendendo ad esempio il concetto di guida utente non più legato al supporto cartaceo. I manuali dei
programmi software sono ormai interamente digitali, spesso con inserti multimediali prima non possibili, o
con il supporto remoto offerto da altri utenti tramite forum, Frequently Asked Questions, o mailing lists.
3
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
Figura 2. Il computer come strumento di mediazione di relazioni sociali. Immagine ripresa e modificata da
(Grudin, 1990).
Negli anni ’90 appare chiaro come tutti questi aspetti, ruoli, risorse e processi finiscano con il dare forma
all’interazione uomo-computer e si trovino per così dire “rispecchiati” nell’interfaccia (Clement, 1990).
L’ergonomia cognitiva compie così in pochi decenni una transizione che porta il suo campo di applicazione
dall’interno del calcolatore verso lo spazio sociale. Le implicazioni per la disciplina sono state profonde. Ha
richiesto di dotarsi di metodi adatti per studiare le complessità del sociale (e non solo gli aspetti tecnici), come ben rispecchiato dal crescente interesse per gli studi degli utenti o per gli studi etnografici (Bannon,
1991; Dourish & Button, 1998; Hughes, O'Brien, Rodden, Rouncefield, & Blythin, 1997). Ma non solo: ha
portato soprattutto a cambiare drasticamente i criteri secondo i quali si progettava e si valutava
un’interfaccia. In questo scenario sarebbe stato limitante pensare all’interazione uomo-macchina come ad un
sistema mirato a prestazioni più efficaci. L’ergonomia cognitiva non poteva più limitarsi a valutare
l’interazione in termini funzionali (efficacia, efficienza, sicurezza, usabilità, etc.), ma ha dovuto anche integrare dimensioni soggettive relative all’esperienza d’uso (piacevolezza estetica, carica motivazionale, coinvolgimento, etc.; vedi figura 3).
Figura 3. Le varie dimensioni dell’usabilità e della User Experience (immagine ripresa da Frohlich &
Murphy, 1999, citato in (Preece, Rogers, & Sharp, 2004)).
Si prenda ad esempio la navigazione del web. Nel 1996 si contavano circa 250.000 siti web, quasi tutti “read-only”, ovvero i cui contenuti erano pubblicati da autori ben determinati. Dall’altro lato avevamo circa
45.000.000 di utenti, le cui attività tipiche erano la ricerca e la navigazione. Nel 2006 i siti erano diventati
80.000.000. Ma la differenza più significativa risiede nel fatto che questi siti sono in gran parte “read-write”.
Se prima l’usabilità di un sito web si giudicava dalla facilità di navigazione e dall’efficacia/efficienza nel recupero dell’informazione, adesso un sito web centrato sull’utente dovrebbe supportare anche la creazione dei
contenuti da parte dell’utente.
I contenuti digitali sono rimodellabili e non si configurano mai per loro natura come definitivi, conservano la
plasmabilità che consente ad altri utenti di appropriarsene, apportarvi modifiche e rimetterli in circolo (si
pensi ai campionamenti nella musica, o al copia ed incolla da internet). Un sito “usabile” è allora un sito che
crea valore non perché l’utente riesca a trovare l’informazione giusta in poco tempo (o meglio non solo per
questo), ma anche perché motiva una moltitudine di utenti a contribuire alla creazione di un contenuto comune. Alcuni esempi lampanti sono i social networks, i quali acquisiscono valore in base al numero degli iscritti e alla tipologia dei contenuti che essi sono disposti a pubblicare nei loro profili, non in base alla navigabilità. Allo stesso modo giochi online fioriscono di pari passo con le comunità di videogiocatori, wikipedia
o il social bookmarking (ad esempio Delicious) sopperiscono alla mancanza di autorevolezza con la massa
dei contributi che sono in grado di catalizzare.
4
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
4. L’ubiquitous computing: il dissolversi dell’interfaccia
Grudin (1990) ha descritto l’evoluzione del concetto di interfaccia dai circuiti elettronici, alle schede perforate, alle interfacce a linea di comando, fino alle odierne interfacce grafiche. Oggi ci troviamo però di fronte ad
un altro scenario non prevedibile nel 1990, conosciuto nel settore dell’ergonomia cognitiva come ubiquitous
computing. Al di là delle diverse soluzioni tecnologiche o approcci che ricadono sotto questa etichetta,
l’ubiquitous computing descrive il dissolversi del concetto stesso di interfaccia, l’estendersi nello spazio del
luogo dell’input utente, e il suo farsi diffilmente circoscrivibile. L’utente non deve più sedersi di fronte allo
schermo del computer per poter interagire con esso, perché l’interazione uomo-computer può oggi passare
attraverso l’ambiente, attraverso oggetti materiali “aumentati” da tecnologie digitali.
La nascita del concetto di ubiquitous computing è tradizionalmente riferita ad un articolo di Mark Weiser apparso sullo Scientific American nel 1991 (Weiser, 1991). Weiser apre l’articolo lodando le tecnologie “trasparenti”, ovvero le tecnologie che spariscono e che “si intrecciano con naturalezza con il tessuto della vita
quotidiana, finché non sono indistinguibili da esso” [pg. 66, traduzione nostra]. Ad esempio uno strumento
quale la scrittura è pervasivo, permea ogni aspetto della nostra società, è a nostra disposizione non appena ne
abbiamo bisogno. Eppure è invisibile, nel senso che non richiede la nostra costante attenzione per essere utilizzato. Quando guardiamo un cartello, ne leggiamo i contenuti senza doverci necessariamente concentrare e
senza dover coscientemente iniziare un’attività di lettura. Probabilmente la scrittura è un caso particolare,
trattandosi di uno degli strumenti di “maggior successo” creato dall’uomo, ma lo stesso accade con strumenti
quali gli occhiali, la bici, un martello, una racchetta da tennis, e altri ancora.
A partire da questi esempi, Weiser propone di progettare tecnologie che possano permeare in modo trasparente ogni aspetto della vita quotidiana, scivolando per così dire “sullo sfondo” delle nostre azioni. Ad esempio, Weiser così descrive i primi momenti della giornata di una donna di nome Sal: “Sal si risveglia: c’è profumo di caffè. Pochi minuti prima la sua sveglia, dopo aver avvertito dai movimenti di Sal nel letto che il
momento del risveglio era vicino, le ha domandato “caffè?” e Sal ha risposto “sì”. “Sì” e “no” sono le due
uniche parole che la sveglia conosce. Sal guarda fuori dalla finestra il suo vicinato. I raggi del sole e una
cancellata sono visibili da una finestra, mentre dalle altre finestre Sal può osservare le tracce elettroniche registrate per lei dall’andirivieni dei vicini nei primi momenti della mattina. […] Sulla strada per il lavoro, Sal
dà un’occhiata alle condizioni del traffico dallo specchietto fronte-visore. Vede che c’è un ingorgo più avanti
e nota l’indicazione verde a lato strada che segnala un bar appena aperto. Sal decide di uscire al prossimo
svincolo per prendere una tazza di caffè ed evitare l’ingorgo.” [pg. 73, trad. nostra].
Le tecnologie immaginate da Weiser sono ovunque, piccole apparecchiature dedicate a compiti semplici, che
svolgono la loro funzione senza che le persone debbano dedicarvi attenzione specifica. Talvolta senza richiedere alcun input da parte nostra (ad esempio lo specchietto fronte-visore), altre volte anticipando le nostre
azioni ed intenzioni (la sveglia). In entrambi i casi, si tratta di tecnologie che sono in grado di agire in modo
adeguato al contesto e alla situazione presente, scomparendo sullo sfondo principalmente grazie alla combinazione tra sensori e capacità computazionali.
Weiser suggerisce di svolgere la progettazione di strumenti ubiquitous computing rispetto a due variabili
principali: deciderne la collocazione nello spazio e individuare la dimensione più adatta a svolgere il compito
per cui sono pensati. (i) L’ubiquitous computing prevede che i dispositivi siano collocati in un luogo preciso
dello spazio, oppure che essi siano in grado di riconoscere la propria posizione, in modo da attivare il comportamento più adeguato al contesto specifico. (ii) La dimensione fisica degli strumenti andrebbe invece manipolata per progettare tecnologie adatte a compiti diversi. Nell’esempio di Weiser la stessa tecnologia
(tablet digitali) potrebbe soddisfare le esigenze di prendere appunti come su di un post-it, oppure potrebbe
funzionare come un libro o una rivista, oppure ancora essere utilizzata come lavagna o superficie condivisa
di lavoro. Si tratta “semplicemente” di individuare la dimensione fisica più adatta per ciascun compito.
Spesso il termine ubiquitous computing è usato alternativamente a termini quali Tangible Interaction (o Tangible User Interfaces), Ambient Intelligence, Context Aware Computing, Wearable Computer, Physical
Computing, Augmented Reality. Si tratta di approcci che in modo più o meno esplicito si richiamano alla visione originale di Weiser, ma che si differenziano per una diversa enfasi su aspetti quali l’importanza del
contesto, la ricerca di modalità di interazione diverse tra uomo e computer, il grado di “intelligenza” e adattività richiesto alle tecnologie. Tra questi approcci vale la pena citare quelle delle Tangible User Interfaces, la
cui visione è racchiusa in un articolo di Ishii del 1997 (Ishii & Ullmer, 1997) e nei lavori dei gruppi di ricerca Things That Think e Tangible Media Group del Massachusetts Institute of Technology. Ishii e colleghi
analizzano come il dissolversi dell’interfaccia vada in due direzioni opposte: verso il corpo delle persone con
5
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
dispositivi personali da indossare (wearable), oppure distribuendosi nello spazio. Delle due direzioni,
l’approccio tangible si concentra sulla seconda, cercando di aumentare l’ambiente fisico con tecnologie digitali. I concetti fondamentali dell’approccio Tangible User Interfaces sono tre (Ishii & Ullmer, 1997, p. 2):
- Superfici interattive: trasformazione di ogni superficie fisica in un’interfaccia attiva tra il mondo fisico e quello virtuale
- Connessione tra bit e atomi: connessione fluida tra gli oggetti fisici della vita quotidiana e
l’informazione digitale che li riguarda
- Ambient Media: utilizzo di ambient media quali il suono, la luce, la circolazione dell’aria e il movimento dell’acqua come “interfacce di background”, ovvero per veicolare informazioni rilevanti ma
in quel momento non centrali per l’utente
L’obiettivo è permettere agli utenti di avere un’interazione fisica (“grasp & manipulate”) con le informazioni digitali, evitando pertanto le modalità di interazione classiche delle interfacce uomo-computer. Al contempo lo sfondo dell’interazione (il background) è utilizzato per convogliare altre informazioni di contesto
grazie agli ambient media.
Figura 4. Il reactable, progettato dal gruppo di Sergi Jordà all’università Pompeu Fabra di Barcellona, è
un’interfaccia musicale multitouch (www.reactable.com). Permette di manipolare suoni e creare effetti in
tempo reale interagendo con gli oggetti fisici disposti sulla sua superficie.
Comune a tutti gli approcci citati prima resta una delle idee di base: distribuire nell’ambiente, ovvero negli
oggetti con cui interagiamo quotidianamente, le capacità di calcolo delle tecnologie digitali, passando ad
ambienti popolati da “computer invisibili” (vedi Figura 5). Non a caso Il Computer Invisibile è il titolo di un
famoso libro di Donald Norman (Norman, 2000), e Disappearing Computer il nome scelto dalla Comunità
Europea nel 2001 per un programma di finanziamenti alla ricerca.
L’invisibilità del computer può in realtà avvenire in due modi distinti e complementari. Possiamo avere
un’invisibilità di tipo fisico-materiale, in tutti in quei casi in cui il computer è miniaturizzato e poi integrato
in oggetti fisici di uso quotidiano. Oppure un’invisibilità cognitiva in quelle situazioni in cui lo strumento
computer mantiene una dimensione considerevole (si pensi a estese superfici interattive quali tavoli, muri, o
6
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
addirittura stanze), ma viene considerato dagli utenti come un oggetto interattivo più che come un computer
vero e proprio. In questo caso, la tecnologia scivola sullo sfondo dell’interazione e diventa psicologicamente
trasparente dal punto di vista del soggetto.
L’aspetto più interessante ai fini del nostro ragionamento è che si dissolve progressivamente il luogo dove
inserire i comandi per il computer, l’interfaccia appunto. Da luogo sino ad allora ben definito, l’interfaccia si
estende adesso nello spazio, o in alcuni casi si fa addirittura non materiale. In modo analogo, le azioni
dell’utente che il calcolatore riconosce come input assumono svariata forma. Ad esempio, tecnologie quali le
RFID consentono di monitorare spostamenti nello spazio di oggetti e persone e possono essere utilizzare per
attivare comportamenti del calcolatore. L’input è il movimento degli utenti e degli oggetti nello spazio. Altri
esempi riguardano il bluetooth e il wireless, che pongono in comunicazione i dispositivi in base ad una prossimità spaziale; o i tessuti intelligenti (smart fabrics), utilizzabili per trasmettere informazioni sui parametri
vitali di chi l’indossa, sulle situazioni in cui si trova (temperatura, luminosità).
Figura 5. Esempi di teconologie ubiquitous e trasparenti. Immagini tratte dal video Domestic Robocop di
Keiichi Matsuda
Lo spostamento del luogo dell’interazione nello spazio non è una solamente una mera scelta tecnica. Ha infatti un impatto profondo sulle questione che l’ergonomia cognitiva di trova ad affrontare. In primo luogo ci
si trova a dover progettare come cambiano le convenzioni sociali tradizionali, ad esempi i nostri modi di comunicare e come definiamo i destinatari delle nostre comunicazioni. L’ubiquitous computing sfuma la differenza tra luoghi e tempi diversi (del lavoro, del viaggio, della vacanza, della famiglia, etc.), rendendo inappropriate le strategie di gestione del tempo e dello spazio che attualmente usiamo per dividere il lavoro dalla
vita privata, gli amici dai parenti, i colleghi dai conoscenti. Laddove l’interfaccia tradizionale permette di
confinare in un luogo preciso tutta una serie di informazioni (ad esempio il mio profilo sui social networks,
7
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
le mie identità in chat o nei mondi virtuali), l’ubiquitous computing finisce con l’intrecciare nello stesso spazio e tempo interazioni multiple di natura profondamente diversa, che possono avvenire in ogni momento e
in ogni dove, mettendo in contatto comunità eterogenee sin ad allora separate. Se l’interfaccia è distribuita
nell’ambiente, altre persone potrebbero avere accesso ad informazioni che io avrei preferito mantenere confinate su di uno finestra di un browser. L’ergonomia cognitiva non ha ancora sviluppato risposte chiare a
questa tensione tra ubiquitous e privacy. Ha invece spesso privilegiato in modo quasi ingenuo una delle due
istanze, ad esempio spingendo al massimo lo sviluppo di congegni ubiquitous, senza tenere in alcuna considerazione le esigenze di privacy (Rogers, 2006).
Un tema tuttora irrisolto è come progettare tecnologie che possano agevolmente “fatte proprie” dagli utenti e
poste sullo sfondo dell’interazione sino a diventare effettivamente trasparenti (l’invisibilità cognitiva di cui
abbiamo parlato sopra). Sebbene per noi esseri umani sia quasi una seconda natura l’appropriarsi di strumenti esterni sino ad internalizzarli nei nostri processi cognitivi (Hutchins, 1995; Norman, 1990; Vygotsky,
2008), la sfida per l’ergonomia cognitiva è ancora più complessa. Si tratta infatti di fronteggiare due richieste
talvolta contraddittorie ed in tensione reciproca: gli utenti apprezzano certamente uno strumento trasparente,
ma spesso vogliono al contempo poterlo “studiare”. Ad esempio quando lo incontrano per la prima volta, ma
anche quando lo strumento “agisce” in modo inaspettato durante l’interazione, causando un cosiddetto breakdown (Winograd & Flores, 1986). Come ben evidenziato da Norman (Norman, 1990), uno strumento è user-friendly se comunica in modo chiaro all’utente il proprio funzionamento, ovvero se non apre un gap tra il
modello mentale che l’utente ha dello strumento e il modello mentale di chi lo ha progettato. Per realizzare
questo obiettivo le calm technologies di Weiser sono una risposta non completamente soddisfacente, laddove
sarebbe invece necessario progettare un continuo movimento tra modalità di interazione trasparenti (del tipo
prospettato da Weiser) e modalità più “riflessive”, ovvero momenti in cui l’utente ha la possibilità di studiare
lo strumento per capirne il reale funzionamento.
5. Le dinamiche attuali
Abbiamo sin qui delineato la traiettoria che il concetto di interfaccia ha descritto negli ultimi 30 anni, mostrandone il progressivo allontanarsi dal computer (inteso in quanto hardware) e il suo dissolversi
nell’ambiente. Per quanto una descrizione di questo tipo riassuma efficacemente le dinamiche che abbiamo
osservato negli ultimi anni, sarebbe di poca utilità per ragionare sulle sfide future dell’ergonomia cognitiva,
dal momento che finisce con il semplificare eccessivamente un panorama che resta invece molto variegato.
In questa sezione del nostro contributo vorremmo pertanto portare la riflessione sull’attualità, presentando
sinteticamente quelli che a nostro avviso sono gli ambiti di ricerca più dinamici nella comunità
dell’ergonomia cognitiva. Alcuni di essi sono in continuità con quanto discusso nei paragrafi precedenti, altri
rappresentano invece un cambiamento piuttosto drastico e qualitativamente nuovo. Anche in questo caso
cercheremo di centrare la riflessione sulle mutazioni del concetto di interfaccia, ragionando al contempo sulle tensioni che questa mutazione genera per la disciplina dell’ergonomia cognitiva. Non si tratta qui di descrivere dove andrà l’ergonomia cognitiva domani, quanto di delineare gli aspetti che ad oggi appaiono più
interessanti. Un’eccellente discussione degli stessi temi si può trovare in (Harper, Rodden, Rogers, & Sellen,
2008).
Le dinamiche che descriveremo in questa sezione sono le seguenti:
- gli ecosistemi digitali
- la personalizzazione.
5.1 Gli ecosistemi digitali
La presenza del computer diventerà sempre più pervasiva in futuro, ma probabilmente assisteremo anche ad
un salto qualitativo. I computer inizieranno infatti ad interagire tra di loro in modo sempre più consistente,
spesso in maniera indipendente dall’operato umano. Questo ecosistema di calcolatori interconnessi potrebbe
diventare molto opaco per l’utente, rendendoci pertanto difficoltoso il comprenderne i modi di funzionamento. Potremmo inoltre aspettarci che la crescente complessità dell’ecosistema di computer finirà con il generare delle proprietà emergenti, per loro stessa natura difficili da prevedere e probabilmente anche da individuare una volta emerse. È su questo grado crescente di complessità che ancora una volta si innesterà l’agire umano, rendendo il tutto ancora più intricato e multiforme.
Volutamente non parliamo più di “utenti” in questo caso, perché questa categoria difficilmente si applica ad
una situazione come quella appena descritta. L’uomo sarà parte del sistema più che esserne un utente ester8
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
no. E in modo analogo diventa difficile capire quali siano le interfacce in un sistema di questo tipo. Di sicuro
quelle tra il sistema nel suo complesso e gli attori umani, ma probabilmente anche interfacce computercomputer, talvolta dedicate al dialogo tra macchine, talvolta accessibili agli attori umani.
Per l’ergonomia cognitiva si tratta di collocare nell’ambiente gli artefatti intelligenti, di specificarne le interazione reciproche e quelle con gli esseri umani, di definire la sensibilità al contesto e ai cambiamenti in esso
del sistema di computer. Ma si tratterà soprattutto di definire il grado di controllo che ciascun umano avrà sul
sistema di computer e ideare modi che rendano il loro funzionamento in qualche misura percepibile e visibile
a noi umani. Gli esseri umani si affidano in maniera sempre più crescente a questi sistemi per spostarsi e per
condurre le proprie attività, l’ergonomia cognitiva dovrà quindi cercare di capire come mitigare la probabile
perdita del senso di controllo (come tradizionalmente lo intendiamo) da parte della persona sul calcolatore.
Ci sentiremo in balia delle macchine da noi create? Cercheremo di sfuggirvi non appena possibile per ritornare nel più tranquillizzante mondo newtoniano dei legami di causa-effetto, da noi ben conosciuti dopo millenni di evoluzione? Si tratta probabilmente di una tensione irrisolvibile, ma di sicuro l’ergonomia cognitiva
dovrà dedicare parecchi sforzi per progettare nuove interfacce, ad esempio rappresentazioni che sintetizzino
gli aspetti più importanti del funzionamento di questo ecosistema digitale e che siano adeguate per gli esseri
umani, da noi comprensibili e che ci permettano di agire se necessario. Se l’ambiente è interamente interattivo, cosa ci dirà cosa possiamo fare e quali effetti possiamo attenderci? Come deve essere strutturato il feedback di un tale ecosistema? Ci dovrebbe avvertire per ogni evento, o solo per quelli inattesi? Come faranno i
computer a capire quali eventi sono per noi inattesi? Pensiamo ad esempio ai casi di malfunzionamento. È
già impegnativo oggigiorno affrontare il malfunzionamento di una stampante o di un router wireless, lo sarà
in misura nuova capire il perché l’ecosistema digitale che ci circonda abbia reagito (oppure no) in modo inatteso ad un nostro movimento.
In estrema sintesi l’interazione tra computer aumenta l’opacità dei sistemi informatici, incrementando al contempo la possibilità che comportamenti inaspettati emergano da tale interazione. I numerosi casi di problemi
alla rete Internet generati negli ultimi 20 anni da interazioni complesse ne sono prova (Daviss, 2009), così
come lo è il cyber-attacco all’intero paese dell’Estonia del 2007 (Lesk, 2007), dove gli hacker sfruttano
computer di utenti inconsapevoli per generare una mole di traffico non gestibile dall’infrastruttura informatica del paese baltico.
Un simile scenario porta alla ribalta una seconda tematica: quella della privacy. Se mettiamo insieme tecnologie ubiquitous, connessione alway on, e un alto grado di personalizzazione delle varie tecnologie, ci troviamo a dover esplicitamente definire il grado di controllo desiderabile sulle nostre tracce digitali. In altre
parole, per l’ergonomia cognitiva diventa cruciale capire come bilanciare l’esigenza di personalizzazione con
gli aspetti di privacy. Ad esempio, l’utilizzo di dispositivi personalizzati mette in questione il grado di visibilità di tali dispositivi verso le altre persone. Che tipo di visibilità sociale dovrebbe avere il dialogo tra il nostro palmare e l’ecosistema digitale? Come limitare la visibilità sociale di feedback visivi o sonori (si pensi al
banale caso delle suonerie dei cellulari)? Vi sono casi in cui chi ci sta vicino spazialmente (chiunque esso
sia) dovrebbe poter accedere ad informazioni sensibili, ad esempio sul nostro stato corrente di salute? Come
utilizzare in situazioni sociali informazioni dettagliate sui nostri gusti e sulle nostre preferenze?
Vi è un secondo aspetto interessante, relativo alle modifiche di schemi consolidati di interazione sociale a
seguito dell’introduzione di nuove tecnologie per la comunicazione. Infatti il galateo digitale dell’always on
(sempre connessi) prescrive che si segnali sempre la propria assenza, utilizzando l’auto-responder per la
mail, o impostando il proprio stato su Skype, o in chat. Il dialogo tra diversi computer e strumenti di comunicazione ci obbliga così a gestire contemporaneamente la nostra disponibilità e presenza su più dispositivi,
spesso lasciando aperti spazi di contraddizione, dove ad esempio risultiamo non connessi su Skype, ma attivi
sulla mail o sul social network, irraggiungibili via cellulare, ma visualizzati su di una mappa via GPS (Global Positioning System) o in Google Latitude. Si tratta in questo caso di definire come gestire “l’interfaccia
sociale” tra le diverse persone, dando ai singoli la possibilità di gestire il loro stato contemporaneamente su
canali multipli, sincronizzandolo, o tenendolo volutamente non allineato.
Al momento attuale, l’ergonomia cognitiva ha demandato l’integrazione tra questi diversi canali al singolo
utente (oppure ad ulteriori applicativi software), lasciando così che fossero i singoli individui a progettare
come meglio gestire tutti questi canali. L’ergonomia cognitiva sta così lasciando nella mani di una progettazione per lo più istintiva e non strutturata questioni per noi cruciali, come ad esempio tutti i contratti sociali
impliciti che si creano nei momenti di interazione tra persone, con gli annessi impegni e forme di controllo.
9
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
In taluni casi, l’attività principale degli utenti rischia di diventare non tanto l’utilizzo delle tecnologie per
comunicare o per lavorare, quanto il monitorare e modificare lo stato delle stesse. Un compito che solitamente erano riservato ai soli amministratori di sistemi informatici. L’ergonomia cognitiva dovrebbe invece interrogarsi sulle nuove convenzioni sociali legate alle tecnologie, per fare di esse un oggetto esplicito di progettazione (Harper et al., 2008), laddove oggi ubiquitous e personal computing sono spesso sinonimo di elisione
di qualunque convenzione o galateo.
Un effetto particolarmente deleterio di questo fenomeno è il moltiplicarsi delle interruzioni, dove la possibilità di comunicare si trasforma nell’obbligo di farlo, e soprattutto di farlo immediatamente. I dispositivi di comunicazione personale facilitano la funzione fàtica (di contatto) della comunicazione, ma rischiano di trasformarla in obbligo di interazione (Renaud, Ramsay, & Hair, 2008). Diventa sempre più difficile interrompere la propria connessione dalla rete (a causa degli obblighi sociali di cui sopra), esponendoci così ad un
continuo flusso di sollecitazioni dirette (email, messaggi sms o via chat, etc.) o indirette (aggiornamenti di
pagine web, curiosità e spinte alla divagazione). Il risultato è la frammentazione estrema dell’attività, che si
interrompe di continuo per il controllo della mail, per caricare l’ultima versione del nostro blog preferito, per
rispondere ai messaggi via chat di amici e colleghi. L’interruzione continua (o perlomeno l’aspettativa di essere presto interrotti) costringe il lavoratore cognitivo a intensi quanto brevi periodi di concentrazione, impedendo di dedicare un tempo più lungo alla riflessione vera e propria, se non confondendo ulteriormente il
tempo del lavoro con il tempo del riposo (ovvero quei momenti dove ci si aspetta che anche gli altri diminuiscano le proprie interazioni) (Bagnara, 2008; Davenport & Beck, 2001). L’interfaccia dovrebbe forse aiutarci
a ricomporre questi frammenti, proteggendoci dalle interruzioni quando lo desideriamo, o quando è per noi
necessario (ad esempio mentre guidiamo nel traffico).
5.2 La personalizzazione
Un trend che emerge da molti dei temi trattati in precedenza è quello della personalizzazione. Da un lato approcci di tipo ubiquitous computing mirano a sviluppare strumenti che entrino in stretta simbiosi con l’uomo
(non a caso Weiser cita gli occhiali come esempio di strumento trasparente). Dall’altro ubiquitous computing
significa anche la possibilità di raccogliere in continuazione dati sui comportamenti degli utenti, visto che le
tecnologie digitali vengono distribuite nell’ambiente e sono dotate di sensori spesso molto raffinati. Dalla
combinazione di questi due fattori risulta che ora gli ergonomi cognitivi hanno a disposizione una mole di
dati senza precedenti, dati utilizzabili per meglio capire i comportamenti di ciascun singolo utente. A nostro
avviso, dinamiche di questo tipo finiscono con il suscitare la medesima domanda di ricerca: come possa
l’ergonomia cognitiva fornire conoscenze utili alla progettazione di dispositivi altamente personalizzati.
A parziale conferma di questa nostra conclusione potremmo citare un recente articolo di Yvonne Rogers
(Rogers, 2006), la quale inizia una serie di ragionamenti su cosa resti della visione di Weiser con la seguente
constatazione: “uno degli inciampi principali [nel progettare dispositivi intelligenti] è stato il padroneggiare
l’enorme variabilità che troviamo in quello che le persone fanno, le loro motivazioni nel farlo, quando lo
fanno e come lo fanno. Gli studi etnografici di come le persone vivono la propria vita – da persone affette di
Alzheimer a professionisti iper-competenti – hanno rivelato che le specificità del contesto che circonda la vita quotidiana delle persone sono molto più sottili, fluide e idiosincratiche di quanto le varie teorie sul contesto ci avessero indotto a credere” [pg. 405]. E in effetti questa varietà nei contesti di utilizzo e nelle specificità dei diversi utenti può difficilmente essere compresa con i tradizionali metodi dell’ergonomia cognitiva.
Tradizionalmente l’ergonomia ha cercato di individuare le costanti tra i diversi utenti, le somiglianze tra gli
utenti più che le differenze, per arrivare a segmentare la popolazione in larghi gruppi omogenei, all’interno
dei quali descrivere comportamenti e preferenze di utilizzo comuni. La situazione descritta dalla Rogers richiederebbe invece soluzioni altamente personalizzate, che non si concentrino sulla progettazione per
l’utente medio (in ciascun diverso segmento di mercato), ma mirino invece alla progettazione diversificata
fino all’individualità.
Il concetto alla base dei vari tentativi di personalizzazione è quello delle “modalità di interazione preferite”,
ovvero di quali azioni e competenze preferiamo impiegare per interagire con uno strumento. Preferiamo libri
tascabili (per leggerli in treno), oppure libri di formato grande che ci facilitino la lettura in condizioni di poca
luce? Oppure libri elettronici che ci consentano di portare con noi un’intera biblioteca, oppure stampe a poco
prezzo da leggere, sottolineare e poi gettare? Le modalità di interazione preferite non dipendono solo dalle
nostre preferenze ed idiosincrasie personali, ma sono molto legate anche ai contesti di utilizzo. Interagiamo
in maniera molto diversa con un telefono cellulare a seconda che si stia camminando, oppure guidando, op-
10
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
pure andando in bici, oppure si sia seduti alla nostra scrivania. Allo stesso modo lo usiamo in modo diverso
al ristorante, tra amici, in un cinema, all’aperto o in spiaggia. Lo stesso dicasi per le varie operazioni che
possiamo compiere con il cellulare: mandare un SMS, fare o ricevere una chiamata, fissarsi un appuntamento
in agenda. Ciascuno di queste attività richiede di affidarsi ad un insieme di modalità di interazione differente,
che magari necessitano primariamente della vista, oppure del tatto o dell’udito.
Le modalità di interazione preferite possono cambiare a seconda del contesto e della situazione di utilizzo,
ma anche a causa di dinamiche di più lungo periodo, quali il mutare di preferenze e bisogni personali, oppure
l’invecchiamento. La sfida della personalizzazione è proprio quella di soddisfare tutta questa varietà, facendo
sì che ogni utente possa utilizzare le proprie modalità preferite in ciascuna diversa situazione, o che perlomeno possa personalizzare il proprio strumento quando necessario. Se di nuovo pensiamo all’esempio dei cellulari, è facile immaginare quanto una personalizzazione estrema possa comportare cambiamenti radicali
nell’interfaccia del cellulare, ben al di là delle diverse possibilità di interazione di cui usufruiamo ora (ad esempio le cuffie per guidare, il comando vocale per chiamare un numero, una serie di profili per modificare
il volume e il tipo di suoneria, etc.). Sino ad oggi la personalizzazione ha significato principalmente progettare strumenti ed interfacce configurabili in modo variabile, dove ogni utente potesse specificare il layout preferito, attivare funzionalità speciali, trovare scorciatoie per le azioni più frequenti. Alcune applicazioni software non richiedono neppure l’intervento dell’utente, ma si adattano di propria iniziativa sulla base dei
comportamenti osservati. Ad esempio, i menu a tendina di Microsoft Office 2003 si “accorciano” da soli per
visualizzare solo i comandi utilizzati di frequente.
Le conseguenze per l’ergonomia cognitiva sono invece ben più profonde, perché la personalizzazione più radicale richiederebbe di progettare interfacce diverse per ciascun diverso utente e addirittura per i molteplici
contesti di utilizzo. La disciplina dovrebbe mettere in gioco il modo stesso in cui si pensa all’utente, passando da un approccio in cui gli utenti medi sono i più importanti, ad un marcato interesse per i comportamenti
individuali. E come rilevato dalla Rogers nell’articolo citato in precedenza, la comprensione di questi utenti
richiede studi approfonditi, che si concentrino su di una molteplicità di dettagli idiosincratici. Le differenze
individuali non possono più essere trattate come “rumore” rispetto alla media dei comportamenti, ma devono
invece diventare un oggetto esplicito di studio (Hancock, Hancock, & Warm, 2009). In altre parole,
l’ergonomia cognitiva dovrebbe cominciare a trattare gli individui come importanti di per se stessi, e non solo perché rappresentativi di un gruppo più esteso.
Ma la disciplina dell’ergonomia cognitiva ha già sviluppato alcune competenze in quest’area. Alcune nicchie
altamente specializzate stanno affrontando problemi analoghi già da parecchio tempo, si pensi in primis alla
ricerca sulle tecnologie assistive per le disabilità. Il concetto di disabilità stesso è un concetto che implica un
alto livello di personalizzazione. Ogni persona è disabile ad un diverso livello a seconda dei contesti e delle
attività in cui è coinvolta, basti pensare ai problemi con le nuove tecnologie di molta parte della popolazione.
L’obiettivo delle tecnologie assistive è fornire il giusto livello e tipologia di aiuto per superare i vincoli e le
restrizioni che quotidianamente affrontiamo, andando così a studiare soluzioni altamente personalizzate e ritagliate su situazioni specifiche.
E’ significativo che proprio in questo campo sia stato introdotto il concetto di dynamic diversity (Gregor,
Newell, & Zajicek, 2002; Hanson & Richards, 2005), per sottolineare come la disabilità non comporti solo
un’alta diversità di condizioni e bisogni (esistono moltissime forme di disabilità fisica, cognitiva, o sociale),
ma anche spesso l’interazione tra diverse disabilità, spesso con cambiamenti anche drastici nel tempo. Si
pensi all’intervenire dell’invecchiamento, ma anche agli effetti della fatica mentre si utilizza il computer.
Come ben sintetizzato da Hanson and Richards “gli utenti hanno abilità complesse, che interagiscono e sono
mutevoli” [pg. 245]. La ricerca sulle disabilità si trova quindi a progettare strumenti che non solo devono offrire supporto a molteplici individui, ciascuno diverso dagli altri, ma anche al mutare nel tempo delle capacità dei singoli.
Nuovamente queste differenze di approccio finiscono con il determinare un mutamento di quanto si intende
per interfaccia. Se l’obiettivo della progettazione è supportare modalità di interazione altamente diversificate
e mutevoli, difficilmente sarà possibile assolverlo in modo soddisfacente nei vincoli posti dalle interfacce
tradizionali. Si è assistito quindi all’intensificarsi della ricerca sulle cosiddette interfacce multimodali, in
quanto strumenti utili per supportare modalità di interazione personalizzate, sia per tecnologie assistive che
per contesti di utilizzo altamente specializzati. Per interfacce multimodali si intendono tutti quei metodi di
input diversi dai tradizionali mouse e tastiera, che si appoggiano invece su altre modalità di input, quali ad
esempio il riconoscimento vocale, la direzione dello sguardo, il riconoscimento dei gesti (per una rassegna si
11
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
vedano Hinckley, 2009; Samman & Stanney, 2006). Come si diceva, le applicazioni riguardano sia persone
con mobilità ridotta, e quindi tecnologie assistive, ma anche attività in cui sia importante lasciare libere le
mani per altri compiti, ad esempio per ridurre il rischio di infezioni nei briefing tra chirurghi prima di entrare
in sala operatoria, o perché un pilota di aerei militari possa mirare ad un bersaglio semplicemente con lo
sguardo, mentre arma e lancia i missili con il comando vocale.
Un altro caso particolarmente affascinante di interfaccia di questo tipo sono le interfacce cervello-computer
(Brain-Computer Interfaces), dove sensori dedicati monitorano l’attività celebrale e attivano comportamenti
corrispondenti del computer. In talune interfacce l’utente deve volontariamente modulare l’attività celebrale
per inviare il giusto tipo di input, mentre altre si basano semplicemente sul riconoscimento di una particolare
frequenza di attività celebrale correlata al prestare attenzione (Wolpaw, Birbaumer, McFarland, Pfurtscheller, & Vaughan, 2002).
Nella stessa categoria possiamo inoltre citare l’utilizzo della “sonificazione”, ovvero l’uso di audio non vocale a fini informativi. La sonificazione è tipicamente utilizzata in situazioni dove la vista dell’utente è già impegnata in altri compiti, oppure dove i dati presentati visivamente eccedono la capacità di elaborazione degli
utenti (Walker & Kramer, 2006). Le applicazioni tipiche sono nuovamente in medicina (si pensi al rumore
del battito cardiaco durante le operazioni), nei sistemi geografici GIS (Geographic Information Systems) per
comunicare cambiamenti di altezza o profondità, o nel militare (il sonar dei sommergibili). Nel campo delle
tecnologie assistive l’utilizzo tipico è per disabilità legate all’ipovisione, come nel caso degli screen readers
(Coyne & Nielsen, 2001; Yalla & Walker, 2008).
Un ultimo esempio riguarda le interfacce basate sui gesti. Questo tipo di interfacce sono tipicamente utilizzate per sopperire ad una minore acuità visiva, o una minore destrezza motoria, dal momento che richiedono un
grado minore di precisione rispetto alle interfacce basate sul point and click (Kane, Bigham, & Wobbrock,
2008; Moffatt, Yuen, & McGrenere, 2008). Ma le interfacce gestuali sono state recentemente diventate popolari anche in tecnologie non pensate per la disabilità. Dispositivi come l’iPhone si fondano infatti su di un
nuovo linguaggio di interazione basato sul gesto, e non sul tocco.
Non si tratta di una fortuita coincidenza, dove tecnologie assistive si sono casualmente rivelate utili anche
per altri scopi. Sia che si tratti di rispondere ad una disabilità, che di applicazioni specifiche per professionisti
quali chirurghi o militari, il bisogno degli utenti è il medesimo: la personalizzazione delle modalità di interazione per rispondere a contesti ed utilizzi altamente particolari. Se l’interfaccia supporta tale personalizzazione allora troverà individui pronti ad utilizzarla per le proprie esigenze specifiche.
Vale la pena notare come anche nel caso delle interfacce multimodali si stia assistendo ad un movimento in
una duplice direzione. Da un lato il punto di interazione si avvicina maggiormente al nostro corpo, con dispositivi digitali personali o con sensori di parametri vitali, dall’altro si dissolve in ambienti interattivi.
Figura 6. Un concept di Philips Design basato su gioielli digitali o su sensori a forma di collana, utilizzabili
per generare energia, come sensori o display.
12
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
6. L’artefatto aperto
I diversi approcci alla progettazione di interfacce nascono spesso dal tentativo di conciliare due tensioni contraddittorie. Da un lato l’esigenza di progettare dispositivi che possano essere utilizzati senza sforzo dagli utenti direttamente al primo tentativo, ovvero secondo le parole di Weiser “tecnologie trasparenti”. Dall’altro
lo sforzo di gestire dispositivi sempre più complessi, la cui interfaccia difficilmente potrà diventare invisibile, pena la perdita del controllo sugli stati del computer. La complessità diventa ancora maggiore ogniqualvolta si chiede all’interfaccia di mediare non solo il dialogo tra l’utente e il computer, ma di farsi carico anche degli aspetti sociali.
La complessità ad oggi raggiunta da computer e applicazioni digitali è ben riassunta in un recente articolo di
Scott (Scott, 2009). Sebbene la Scott si concentri sulla validità nello scenario tecnologico attuale dei tradizionali metodi e tecniche per la valutazione dell’usabilità, a nostro avviso alcuni degli aspetti da lei descritti
sono rilevanti anche per l’ergonomia cognitiva e possono essere qui ripresi come conclusione di questo contributo.
L’aspetto principale analizzato dalla Scott è la velocità del cambiamento tecnologico. Il ciclo di vita dei software tradizionali (e dei servizi ad essi connessi) durava in passato molti anni, arrivando anche ad una decade
per i software più complessi. Erano necessari grossi investimenti per progettare, sviluppare e portare sul
mercato un nuovo applicativo software. Lo stesso valeva per le versioni successive dei diversi software. Nello scenario attuale, il ciclo di vita si è accorciato drammaticamente. Le fasi di progettazione e sviluppo possono ora essere iterative, il prodotto può essere lanciato sul mercato non appena pronto, per poi essere rivisto
e raffinato nel giro di poche settimane. Si pensi alle applicazioni web o per gli smart phones: dopo il primo
lancio si succedono raffinamenti e modifiche continue, con nuove versioni sfornate praticamente ogni mese.
Nuove funzionalità possono essere introdotte in modo incrementale, testate dal vivo con gli utenti e abbandonate (ad esempio Facebook ha provato più volte a introdurre nuove applicazioni, per poi rimuoverle di
fronte allo scarso gradimento degli utenti). Questo ritmo è ancora più serrato nella comunità open source,
dove lo sforzo comune di molti programmatori rende gli sviluppi e le modifiche praticamente continue.
Figura 7. Urban Spoon, l’applicazione iPhone presa ad esempio dalla Scott.
Un secondo fattore descritto dalla Scott è la complessità crescente delle tecnologie informatiche. Gli applicativi software erano tradizionalmente applicazioni stand-alone, ovvero applicazioni auto-sufficienti, il cui
funzionamento era completamente “interno”, senza alcun bisogno di contributi da parte di altri applicativi.
Gli applicativi di oggi sono invece sistemi basati su reti di altri software, che necessitano del contributo di
altri applicativi e servizi per funzionare in modo corretto. Prendiamo ad esempio un applicativo per smart
13
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
phone che suggerisca un ristorante sulla base della nostra posizione geografica e delle recensioni di una comunità. Esso funziona grazie ad almeno cinque diversi applicativi: (i) un sito web da cui scaricare/acquistare
il software, (ii) l’interfaccia generica dello smart phone stesso, (iii) un’interfaccia per esprimere le nostre
preferenze sui ristoranti e recensire quelli appena visitati, (iv) un database contenente tutti i ristoranti, (v) un
sistema GPS per identificare la nostra posizione. La conclusione che trae la Scott è che l’esperienza d’uso di
un software di questo tipo non dipende più unicamente da quanto è user-friendly il software stesso, ma è criticamente legata anche alla prestazione degli altri elementi del sistema. Un database con pochi ristoranti, una
comunità poco attiva, una bassa risoluzione spaziale del GPS, sono tutti elementi che possono minare la nostra esperienza d’uso, rendendo il software poco utile o addirittura frustrante da utilizzarsi. Basta che anche
uno solo di questi elementi venga a mancare per diminuire il valore all’intera interazione. E non si tratta di
un caso particolare, visto che ormai quasi tutte le applicazione web fanno uso di dati o servizi provenienti da
altre applicazioni.
Un terzo fattore è relativo alla stabilità dei contesti d’uso. La pervasività e mobilità che contraddistingue le
moderne tecnologie implica un utilizzo in contesti altamente differenziati. Citando la Scott “[le applicazioni
software] vivono in una varietà di diversi ambienti, scenari e contesti scelti dagli utenti […] I contesti di utilizzo variano in maniera significativa da utente a utente, o da giorno a giorno” [pg. 8]. Lo stesso dispositivo
può essere usato in modi molto diversi a seconda del contesto. Per riprendere l’esempio già citato del telefono cellulare, l’utente può effettuare chiamate, ma anche prendere note, utilizzarlo come illuminazione, per
mandare SMS, come mappa e GPS.
L’ultima caratteristica menzionata dalla Scott è il ruolo attivo che ora giocano gli utenti nel dare forma alle
applicazioni informatiche. Mentre in passato solo una piccola comunità di hacker era in grado di modificare
un applicativo software, ora la base di utenti in grado di arricchire e modificare uno strumento è in larga crescita, rendendo di fatto i cicli di innovazione di prodotto ancora più rapidi e imprevedibili. Per riprendere il
tema della personalizzazione svolto nel paragrafo precedente, molti utenti sono oggi in grado di progettare e
realizzare strumenti altamente personalizzati. Inoltre il mercato consente loro di distribuire le loro invenzioni
con poco sforzo, ad esempio mettendole su di un sito web.
E’ quindi il concetto stesso di strumento (sia esso un dispositivo elettronico o un software per un comune
PC), ad acquisire confini di difficile definizione. Diventa così piuttosto problematico pensare ad
un’interfaccia unica, stabile nel tempo e ben definita spazialmente, proprio perché nemmeno lo strumento lo
è più. L’interfaccia è ad oggi un oggetto difficilmente delimitabile, aperto per sua natura su di un ecosistema
digitale e su di una molteplicità di relazioni sociali.
E’ per questo motivo che in anni recenti si è cominciato a parlare sempre di più di “design dei servizi”. Un
servizio è “una sequenza di attività che costituiscono un processo” (Saffer, 2007, p. 174). Un servizio aggrega diversi dispositivi, diverse tecnologie, in modo da creare valore per l’utente finale, o un’esperienza d’uso
gradevole. Il ruolo dell’ergonomia cognitiva diventa allora il progettare l’intera catena del servizio, ed in particolar modo i touchpoint, ovvero gli elementi fisici con cui gli utenti si trovano ad interagire mentre usufruiscono di un servizio. Se riprendiamo l’esempio fatto prima dalla Scott a proposito dell’applicativo per smart
phone sui ristoranti, i touchpoint includono le interfacce web (per acquistare l’applicativo e per dare la votazione ai vari ristoranti), l’interfaccia dello smart phone, ma anche eventuali email, l’help on line o le Frequently Asked Questions, fino ad arrivare al ristorante stesso (su cui l’ergonomo cognitivo ha però molto poco controllo). Si tratta di elementi di natura molto differente, che richiedono pertanto all’ergonomia cognitiva
un ulteriore salto verso l’interdisciplinarietà e verso la molteplicità dei punti di vista, oltre i “confini cognitivi” tipici delle interfacce anni ‘80 e ’90, verso un mondo di artefatti fisici e di relazioni sociali.
Nel mondo complesso e dinamico di oggi, l’ultima “trasformazione” del concetto di interfaccia ci mostra una
molteplicità di punti di contatto (touchpoint appunto), eterogenei tra di loro e in continuo cambiamento, tenuti insieme da un servizio più che da un sistema tecnico. L’interfaccia odierna è aperta, spesso frammentata.
L’ergonomo cognitivo è chiamato al difficile compito di dare unità ai singoli touchpoint, progettando un senso unitario per interazioni sempre più eterogenee e personalizzate.
14
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
Bibliografia
Bagnara, S. [2008] "L’economia dell’attenzione," in R. Nicoletti, E. Ladavas & P. Tabossi (a cura di) Attenzione e
cognizione, Il Mulino, Bologna, Italia.
Bannon, L. J. [1991] "From human factors to human actors. The role of psychology and human-computer interaction
studies in system design," in J. Greenbaum & M. Kyng (a cura di) Design at work: cooperative design of
computer systems (pp. 25-44), Lawrence Erlbaum Associates, Hillsdale, NJ.
Bartlett, F. C. [1962] "The future of ergonomics," Ergonomics, 5, 505–511.
Card, S. K., English, W. K., & Burr, B. J. [1978] "Evaluation of mouse, rate-controlled isometric joystick, step keys,
and text keys for text selection on a CRT," Ergonomics, 21(8), 601-613.
Clement, A. [1990] Cooperative support for computer work: A social perspective on the empowering of end users,
paper presented at the CSCW'90 Conference on Computer-Supported Cooperative Work.
Coyne, K. P., & Nielsen, J. [2001] Beyond ALT text: making the web easy to use for users with disabilities, Nielsen
Norman Group, Fremont, CA.
Davenport, T. H., & Beck, J. C. [2001] The Attention Economy: Understanding the New Currency of Business, Harvard
Business School Press, Cambridge, MA.
Daviss, B. [2009, 29 June 2009] Building a crash-proof internet, New Scientist.
Dourish, P., & Button, G. [1998] "On "Technomethodology": Foundational Relationships between Ethnomethodology
and System Design," Human-Computer Interaction, 13(4), 395-432.
Gregor, P., Newell, A. F., & Zajicek, M. [2002] Designing for dynamic diversity: interfaces for older people, paper
presented at the ASSETS - 4th international ACM SIGACCESS conference on Computers and Accessibility,
Edinburgh, Scotland.
Grudin, J. [1990] The computer reaches out: the historical continuity of interface design, paper presented at the
SIGCHI conference on Human factors in computing systems: Empowering people, Seattle, WA.
Hancock, P. A., Hancock, G. M., & Warm, J. S. [2009] "Individuation: the N = 1 revolution," Theoretical Issues in
Ergonomics Science, 10(5), 481-488.
Hanson, V. L., & Richards, J. T. [2005] "Achieving a more usable World Wide Web," Behaviour & Information
Technology, 24(3), 231-246.
Harper, R., Rodden, T., Rogers, Y., & Sellen, A. (a cura di) [2008] Being Human: Human-Computer Interaction in the
year 2020, Microsoft Research Ltd, Cambridge, UK.
Hinckley, K. [2009] "Input Technologies And Techniques," in A. Sears & J. A. Jacko (a cura di) Human-Computer
Interactions. Fundamentals (pp. 137-152), Taylor & Francis, Boca Raton, FL.
Huenerfauth, M. [2008] Evaluation of a psycholinguistically motivated timing model for animations of american sign
language, paper presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers
and Accessibility, Halifax, Nova Scotia, Canada.
Hughes, J. A., O'Brien, J., Rodden, T., Rouncefield, M., & Blythin, S. [1997] Designing with ethnography: a
presentation framework for design, paper presented at the ACM conference on Designing Interactive systems
DIS '97, Amsterdam, The Netherlands.
Hutchins, E. [1995] Cognition in the wild, MIT Press, Cambridge, MA.
Ishii, H., & Ullmer, B. [1997] Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms, paper
presented at the CHI.
Kane, S. K., Bigham, J. P., & Wobbrock, J. O. [2008] Slide rule: making mobile touch screens accessible to blind
people using multi-touch interaction techniques, paper presented at the ASSETS - 10th international ACM
SIGACCESS conference on Computers and Accessibility, Halifax, Nova Scotia, Canada.
Lesk, M. [2007] "The new front line: Estonia under cyberassault," IEEE Security & Privacy, 5(4), 76-79.
Moffatt, K., Yuen, S., & McGrenere, J. [2008] Hover or tap?: supporting pen-based menu navigation for older adults,
paper presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers and
Accessibility, Halifax, Nova Scotia, Canada.
Norman, D. A. [1990] La caffettiera del masochista, Giunti, Firenze, Italia.
Norman, D. A. [2000] Il computer invisibile. La tecnologia migliore è quella che non si vede, Apogeo Editore, Milano,
Italia.
Preece, J., Rogers, Y., & Sharp, H. [2004] Interaction design, Apogeo, Milano.
Renaud, K., Ramsay, J., & Hair, M. [2008] "Think before you link: controlling ubiquitous availability," interactions,
15(6), 65-68.
Rogers, Y. [2006] Moving on from Weiser’s Vision of Calm Computing: Engaging UbiComp Experiences, paper
presented at the UbiComp 2006: Ubiquitous Computing.
Saffer, D. [2007] Designing dell'interazione: Creare applicazioni intelligenti e dispositivi ingegnosi con l'interaction
design, Paravia Bruno Mondadori Editori, Torino - Milano.
Samman, S. N., & Stanney, K. M. [2006] "Multimodal Interaction," in W. Karwowski (a cura di) International
Encyclopedia of Ergonomics and Human Factors, Taylor & Francis, Boca Raton, FL.
15
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori
Scott, K. M. [2009] "Is Usability Obsolete?," interactions, 16(3), 6-11.
Vygotskij, L. [2008] Pensiero e linguaggio. Ricerche psicologiche, a cura di L. Mecacci , 10a ed. Laterza, Roma-Bari,
[1990].
Walker, B. N., & Kramer, G. [2006] "Sonification," in W. Karwowski (a cura di) International Encyclopedia of
Ergonomics and Human Factors, Taylor & Francis, Boca Raton, FL.
Weiser, M. [1991] "The Computer for the 21st Century," Scientific American, 265(3), 66-75.
Winograd, T., & Flores, F. [1986] Understanding Computers and Cognition: A New Foundation for Design, Addison
Wesley Publishing Company, Reading, MA.
Wolpaw, J. R., Birbaumer, N., McFarland, D. J., Pfurtscheller, G., & Vaughan, T. M. [2002] "Brain-computer
interfaces for communication and control," Clinical neurophysiology, 113(6), 767-791.
Yalla, P., & Walker, B. N. [2008] Advanced auditory menus: design and evaluation of auditory scroll bars, paper
presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers and Accessibility.
16