bagnara pozzi – dissolversi interfaccia
Transcript
bagnara pozzi – dissolversi interfaccia
Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori IL DISSOLVERSI DELL’INTERFACCIA Sebastiano Bagnara Facoltà di Architettura, Università di Sassari – Alghero Simone Pozzi Facoltà di Architettura, Università di Sassari – Alghero Deep Blue Research and Consulting Abstract Il contributo illustra l’evoluzione del concetto di interfaccia negli ultimi 20 anni, evoluzione legata sia all’innovazione tecnologica ma anche al cambiamento nei modi di utilizzo della tecnologia. Distinguiamo 3 fasi principali: - fino agli anni 80: la rivoluzione cognitiva e l’importanza dell’interfaccia nell’ergonomia - anni 90: il CSCW - fine anni 90 e oltre: l’ambiente come interfaccia e l’ubiquitous computing La parte finale è dedicata ai trend del presente: le interfacce macchina-macchina, la personalizzazione delle interfacce (interfacce brain computer, il corpo come interfaccia), la multimodalità (applicazioni di nicchia) 1. Introduzione Una disciplina applicata quale l’ergonomia cognitiva ridefinisce piuttosto spesso il suo oggetto di indagine. Semplificando, potremmo dire che l’ergonomia studia la relazione tra uomo e strumenti, ma gli “strumenti” mutano di continuo la loro natura, anche in modo drastico, seguendo dinamiche di cambiamento molto rapide. Non si tratta solo di cambiamenti dovuti all’innovazione tecnologica, ma anche di come gli stessi strumenti vengano utilizzati in modo differente in contesti o situazioni diverse. Prendiamo ad esempio un dispositivo di uso quotidiano quale il telefono cellulare. In Giappone il cellulare integra funzioni di pagamento elettronico e può essere utilizzato come “borsellino elettronico”. In Europa queste funzioni sono state introdotte solo molto timidamente (e non hanno certo avuto un gran successo), mentre si è assistito al boom dei brevi messaggi di testo, che sono in realtà un uso idiosincratico del cellulare, ovvero non previsto dai progettisti e poco diffuso in altre parti del mondo. Ad esempio negli USA l’utilizzo diffuso degli SMS è cosa recente, con il numero di SMS spediti passato dai “solo” 2 miliardi del 2003 a 110 miliardi nel 2008 [sorgente Wired]. Per fare un secondo esempio, il personal computer è da molto tempo presente negli uffici e nelle scuole, mentre solo di recente è stato introdotto in altri luoghi di lavoro, quali ad esempio la corsia di un ospedale. In questi nuovi contesti emergono altri modi di utilizzo, legati alle pratiche e alle conoscenze mediche, che rendono l’interazione con lo strumento computer molto diversa dall’interazione che noi abbiamo quotidianamente con i nostri PC. Inoltre l’ergonomia cognitiva studia oggetti molto eterogenei (quali il personal computer, i palmari e i cellulari), ma anche strumenti più semplici, quali orologi o elettrodomestici, oppure le tecnologie legate ad internet, o ancora applicazioni complesse quali la strumentazione di una cabina di pilotaggio di un aereo, il pannello di controllo di un’industria chimica, e così via. Ciascuno di questi oggetti richiede un focus differente, metodi differenti, e mostra aspetti diversi della relazione uomo-strumenti. L’obiettivo di questo contributo è descrivere la storia recente di questi spostamenti nell’oggetto di studio dell’ergonomia. Lo faremo in modo parziale e semplificato, a partire dalle diverse definizioni di interfaccia che si sono susseguite negli ultimi 30 anni. Proveremo a individuare i caratteri salienti delle diverse concezioni, mettendo in risalto le implicazione che ciascuna di esse ha comportato per la disciplina dell’ergonomia cognitiva. 2. La centralità dell’interfaccia: la rivoluzione cognitiva Dal 1970 in poi assistiamo al crescere della cosiddetta “società della conoscenza”, caratterizzata da una sempre più alta omogeneità tra ambiente di lavoro e di vita, da una continua e rapida trasformazione del lavoro, da una diffusa informatizzazione e presenza di automazione in luogo del lavoro fisico. E’ in questo panorama che assistiamo alla nascita dell’ergonomia cognitiva e della Human-Computer Interaction, soprattutto a causa della continua evoluzione dei calcolatori e della loro presenza sempre più pervasiva negli ambienti di lavoro. 1 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori La società della conoscenza richiede sempre maggiormente il contributo dell’ergonomia cognitiva, che da branca minore dell’ergonomia diventa sempre di più una disciplina indipendente. Non si tratta certo di una rivoluzione inaspettata, se già all’inizio degli anni ’60 un illustre psicologo quale Frederic Bartlett individuava le seguenti tendenze per gli anni a venire (Bartlett, 1962): 1. crescente isolamento fisico degli individui 2. richieste maggiori di comunicazione mediata da tecnologia 3. riduzione del workload fisico 4. incremento del workload mentale 5. integrazione del lavoro di più persone nel lavoro di un’unica persona 6. presentazione di stimoli multi-modali 7. enfasi crescente sulle attività di decision making Ma si tratta pur sempre di una rivoluzione, con un deciso “sorpasso” dell’informatica sulla meccanica. Ad esempio è alla fine degli anni ’70 che l’informatica presente negli elettrodomestici di uso quotidiano diventa preminente rispetto alla parte meccanica. Il robot cucina, che sino ad allora era sostanzialmente composto da un motore per imprimere il movimento rotatorio e da un set di pale intercambiabili (un meccanismo puramente meccanico), viene sostituito da strumenti in cui i circuiti integrati dell’elettronica e i chip giocano un ruolo fondamentale (ad esempio il forno a microonde). È durante questi anni che il contributo dell’ergonomia cognitiva diventa sempre più rilevante. Nelle nuove macchine lo spazio dedicato al “motore” si restringe sempre più, anche a causa della miniaturizzazione crescente, mentre cresce lo spazio dedicato all’interfaccia, ovvero a quella parte della macchina dedicata al dialogo con l’utente, a riceverne gli input e a fornire gli output. E in analogia gli sforzi progettuali si concentrano sull’interfaccia. Una dinamica simile non è tipica solamente dello sviluppo dell’informatizzazione, ma è un processo già visto anche in strumenti puramente meccanici. Nelle prime automobili, il motore è in pratica l’automobile stessa, con alcune piccole aggiunte, come un seggiolino per il guidatore, lo sterzo e qualche leva. Nelle macchine odierne l’abitacolo è invece nella stragrande maggioranza dei casi molto più grande del motore e il cruscotto del guidatore si arricchito di tutta una serie di comandi, indicatori, funzionalità. Grudin (Grudin, 1990) ha descritto un’evoluzione analoga anche per i computer. Nei primi computer (i cosidetti mainframes), lo spazio dedicato l’interfaccia era minimo e sarebbe stato una forzatura parlare di “utente”. L’interazione era a livello di cablatura, ovvero l’interfaccia era l’hardware stesso. Gli ingegneri elettronici dovevano modificare fisicamente le connessioni per “programmare” (ovvero ottenere comportamenti diversi) la macchina. Una prima interaccia utente la si trova solo con l’avvento delle schede perforate. Le schede permettevano di interagire con il software della macchina, programmando comportamenti differenti (solitamente calcoli numerici), senza per questo doversi preoccupare del funzionamento hardware,. L’utente inseriva una scheda perforata per specificare il calcolo desiderato, la macchina processava le informazioni e restituiva il risultato sotto forma di stampa. L’utente tipico non era più l’ingegnere elettronico, quanto il programmatore. Alla fine degli anni ’70 e all’inizio degli ’80, assistiamo invece all’avvento del personal computing. L’interfaccia è il terminale utente ovvero, semplificando, lo schermo del computer attraverso il quale è possibile interagire con il “motore della macchina” (il processore e la memoria). Le interfacce acquistano una loro spazio dedicato e l’utente coincide con l’utilizzatore finale, il quale interagisce con il computer come strumento per il proprio lavoro, senza per questo dover possedere una specifica conoscenza approfondita dello stesso, né del software né dell’hardware. Per l’ergonomia diventano rilevanti i processi percettivi, ad esempio per analizzare la leggibilità delle aree di input e output. Si studiano anche l’accuratezza e la velocità dei movimenti necessari per l’input, con le prime applicazioni della legge di Fitts a lavori di HumanComputer Interaction proprio in questo periodo (Card, English, & Burr, 1978). A questo periodo risalgono anche le ricerche del laboratorio della Xerox Parc, con il lancio della workstation Star nel 1981 e la progettazione di interfacce utente a tutt’oggi ancora utilizzate. I video di dimostrazione realizzati da Douglas Engelbart (reperibili su web o YouTube) mostrano ad esempio i primi prototipi di mouse o di interfaccia a manipolazione diretta (What You See Is What You Get, o WYSIWYG). Ma la flessibilità dei personal computer richiede studi che vadano oltre le semplici caratteristiche percettivomotorie. L’ergonomia cognitiva si trova ad affrontare questioni come la capacità di apprendimento, la for2 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori mazione di concetti, la semantica di comandi e informazioni, la comunicazione mediata da computer. Con il lancio dei sistemi operativi Apple e Windows negli anni ’80 (e delle relative interfacce), la transizione preconizzata da Bartlett poteva dirsi completata, soprattutto per quanto riguardava la “rivoluzione cognitiva”: l’interazione con i computer era ormai principalmente una questione cognitiva, dove la fatica fisica era ormai in secondo piano rispetto al carico mentale. 3. La comunicazione e il computer: il Computer Supported Cooperative Work Nel già citato articolo “The computer reaches out” del 1990 (Grudin, 1990), Grudin ha tracciato una breve storia dell’Interazione Uomo-Computer per larghe parti analoga a quanto sin qui presentato. L’aspetto più interessante del lavoro di Grudin è sicuramente la descrizione dell’ultima fase, ovvero la transizione dallo studio dell’interazione tra il computer ed un solo individuo, allo studio del computer come supporto per i gruppi di lavoro (Computer Supported Cooperative Work - CSCW). Pur scrivendo all’inizio della decade, Grudin già individuava come il computer sarebbe diventato negli anni ‘90 sempre di più uno strumento utilizzato primariamente per comunicare, laddove negli anni precedenti la potenza dei computer si traduceva invece innanzitutto in capacità di calcolo. Negli anni ’90 assistiamo infatti anche alla diffusione esponenziale di Internet e di tutte le applicazioni ad esso collegate, quali la navigazione web, la posta elettronica, o lo scambio di file tramite protocolli FTP o peer-to-peer. L’ergonomia cognitiva si trova di fronte un’interfaccia che non serve più semplicemente a mediare gli input e gli output con il computer, ma consente innanzitutto di interagire con altre persone. L’analisi e la progettazione delle interfacce deve ora rendere conto di tutte le interazioni sociali da esse mediate. La transizione è raffigurata nelle figura 2. Se prima l’interfaccia poteva definirsi come la parte di software dedicata al dialogo con l’utente, negli anni ’90 risulta chiaro come l’interazione con i computer implichi anche l’interazione con altre persone (amministratori di sistema, tecnici, colleghi, etc.) e con risorse non computerizzate (ad esempio la documentazione). Figura 1. Due diverse concezioni di interfaccia utente. Immagini riprese e modificate da (Grudin, 1990). Con una complicazione ulteriore: gran parte di queste interazioni sociali diventano nel corso degli anni ’90 esse stesse mediate dal computer (vedi figura 2). Con l’avvento di internet molte risorse fisiche si spostano sulla rete, rendendo ad esempio il concetto di guida utente non più legato al supporto cartaceo. I manuali dei programmi software sono ormai interamente digitali, spesso con inserti multimediali prima non possibili, o con il supporto remoto offerto da altri utenti tramite forum, Frequently Asked Questions, o mailing lists. 3 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori Figura 2. Il computer come strumento di mediazione di relazioni sociali. Immagine ripresa e modificata da (Grudin, 1990). Negli anni ’90 appare chiaro come tutti questi aspetti, ruoli, risorse e processi finiscano con il dare forma all’interazione uomo-computer e si trovino per così dire “rispecchiati” nell’interfaccia (Clement, 1990). L’ergonomia cognitiva compie così in pochi decenni una transizione che porta il suo campo di applicazione dall’interno del calcolatore verso lo spazio sociale. Le implicazioni per la disciplina sono state profonde. Ha richiesto di dotarsi di metodi adatti per studiare le complessità del sociale (e non solo gli aspetti tecnici), come ben rispecchiato dal crescente interesse per gli studi degli utenti o per gli studi etnografici (Bannon, 1991; Dourish & Button, 1998; Hughes, O'Brien, Rodden, Rouncefield, & Blythin, 1997). Ma non solo: ha portato soprattutto a cambiare drasticamente i criteri secondo i quali si progettava e si valutava un’interfaccia. In questo scenario sarebbe stato limitante pensare all’interazione uomo-macchina come ad un sistema mirato a prestazioni più efficaci. L’ergonomia cognitiva non poteva più limitarsi a valutare l’interazione in termini funzionali (efficacia, efficienza, sicurezza, usabilità, etc.), ma ha dovuto anche integrare dimensioni soggettive relative all’esperienza d’uso (piacevolezza estetica, carica motivazionale, coinvolgimento, etc.; vedi figura 3). Figura 3. Le varie dimensioni dell’usabilità e della User Experience (immagine ripresa da Frohlich & Murphy, 1999, citato in (Preece, Rogers, & Sharp, 2004)). Si prenda ad esempio la navigazione del web. Nel 1996 si contavano circa 250.000 siti web, quasi tutti “read-only”, ovvero i cui contenuti erano pubblicati da autori ben determinati. Dall’altro lato avevamo circa 45.000.000 di utenti, le cui attività tipiche erano la ricerca e la navigazione. Nel 2006 i siti erano diventati 80.000.000. Ma la differenza più significativa risiede nel fatto che questi siti sono in gran parte “read-write”. Se prima l’usabilità di un sito web si giudicava dalla facilità di navigazione e dall’efficacia/efficienza nel recupero dell’informazione, adesso un sito web centrato sull’utente dovrebbe supportare anche la creazione dei contenuti da parte dell’utente. I contenuti digitali sono rimodellabili e non si configurano mai per loro natura come definitivi, conservano la plasmabilità che consente ad altri utenti di appropriarsene, apportarvi modifiche e rimetterli in circolo (si pensi ai campionamenti nella musica, o al copia ed incolla da internet). Un sito “usabile” è allora un sito che crea valore non perché l’utente riesca a trovare l’informazione giusta in poco tempo (o meglio non solo per questo), ma anche perché motiva una moltitudine di utenti a contribuire alla creazione di un contenuto comune. Alcuni esempi lampanti sono i social networks, i quali acquisiscono valore in base al numero degli iscritti e alla tipologia dei contenuti che essi sono disposti a pubblicare nei loro profili, non in base alla navigabilità. Allo stesso modo giochi online fioriscono di pari passo con le comunità di videogiocatori, wikipedia o il social bookmarking (ad esempio Delicious) sopperiscono alla mancanza di autorevolezza con la massa dei contributi che sono in grado di catalizzare. 4 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori 4. L’ubiquitous computing: il dissolversi dell’interfaccia Grudin (1990) ha descritto l’evoluzione del concetto di interfaccia dai circuiti elettronici, alle schede perforate, alle interfacce a linea di comando, fino alle odierne interfacce grafiche. Oggi ci troviamo però di fronte ad un altro scenario non prevedibile nel 1990, conosciuto nel settore dell’ergonomia cognitiva come ubiquitous computing. Al di là delle diverse soluzioni tecnologiche o approcci che ricadono sotto questa etichetta, l’ubiquitous computing descrive il dissolversi del concetto stesso di interfaccia, l’estendersi nello spazio del luogo dell’input utente, e il suo farsi diffilmente circoscrivibile. L’utente non deve più sedersi di fronte allo schermo del computer per poter interagire con esso, perché l’interazione uomo-computer può oggi passare attraverso l’ambiente, attraverso oggetti materiali “aumentati” da tecnologie digitali. La nascita del concetto di ubiquitous computing è tradizionalmente riferita ad un articolo di Mark Weiser apparso sullo Scientific American nel 1991 (Weiser, 1991). Weiser apre l’articolo lodando le tecnologie “trasparenti”, ovvero le tecnologie che spariscono e che “si intrecciano con naturalezza con il tessuto della vita quotidiana, finché non sono indistinguibili da esso” [pg. 66, traduzione nostra]. Ad esempio uno strumento quale la scrittura è pervasivo, permea ogni aspetto della nostra società, è a nostra disposizione non appena ne abbiamo bisogno. Eppure è invisibile, nel senso che non richiede la nostra costante attenzione per essere utilizzato. Quando guardiamo un cartello, ne leggiamo i contenuti senza doverci necessariamente concentrare e senza dover coscientemente iniziare un’attività di lettura. Probabilmente la scrittura è un caso particolare, trattandosi di uno degli strumenti di “maggior successo” creato dall’uomo, ma lo stesso accade con strumenti quali gli occhiali, la bici, un martello, una racchetta da tennis, e altri ancora. A partire da questi esempi, Weiser propone di progettare tecnologie che possano permeare in modo trasparente ogni aspetto della vita quotidiana, scivolando per così dire “sullo sfondo” delle nostre azioni. Ad esempio, Weiser così descrive i primi momenti della giornata di una donna di nome Sal: “Sal si risveglia: c’è profumo di caffè. Pochi minuti prima la sua sveglia, dopo aver avvertito dai movimenti di Sal nel letto che il momento del risveglio era vicino, le ha domandato “caffè?” e Sal ha risposto “sì”. “Sì” e “no” sono le due uniche parole che la sveglia conosce. Sal guarda fuori dalla finestra il suo vicinato. I raggi del sole e una cancellata sono visibili da una finestra, mentre dalle altre finestre Sal può osservare le tracce elettroniche registrate per lei dall’andirivieni dei vicini nei primi momenti della mattina. […] Sulla strada per il lavoro, Sal dà un’occhiata alle condizioni del traffico dallo specchietto fronte-visore. Vede che c’è un ingorgo più avanti e nota l’indicazione verde a lato strada che segnala un bar appena aperto. Sal decide di uscire al prossimo svincolo per prendere una tazza di caffè ed evitare l’ingorgo.” [pg. 73, trad. nostra]. Le tecnologie immaginate da Weiser sono ovunque, piccole apparecchiature dedicate a compiti semplici, che svolgono la loro funzione senza che le persone debbano dedicarvi attenzione specifica. Talvolta senza richiedere alcun input da parte nostra (ad esempio lo specchietto fronte-visore), altre volte anticipando le nostre azioni ed intenzioni (la sveglia). In entrambi i casi, si tratta di tecnologie che sono in grado di agire in modo adeguato al contesto e alla situazione presente, scomparendo sullo sfondo principalmente grazie alla combinazione tra sensori e capacità computazionali. Weiser suggerisce di svolgere la progettazione di strumenti ubiquitous computing rispetto a due variabili principali: deciderne la collocazione nello spazio e individuare la dimensione più adatta a svolgere il compito per cui sono pensati. (i) L’ubiquitous computing prevede che i dispositivi siano collocati in un luogo preciso dello spazio, oppure che essi siano in grado di riconoscere la propria posizione, in modo da attivare il comportamento più adeguato al contesto specifico. (ii) La dimensione fisica degli strumenti andrebbe invece manipolata per progettare tecnologie adatte a compiti diversi. Nell’esempio di Weiser la stessa tecnologia (tablet digitali) potrebbe soddisfare le esigenze di prendere appunti come su di un post-it, oppure potrebbe funzionare come un libro o una rivista, oppure ancora essere utilizzata come lavagna o superficie condivisa di lavoro. Si tratta “semplicemente” di individuare la dimensione fisica più adatta per ciascun compito. Spesso il termine ubiquitous computing è usato alternativamente a termini quali Tangible Interaction (o Tangible User Interfaces), Ambient Intelligence, Context Aware Computing, Wearable Computer, Physical Computing, Augmented Reality. Si tratta di approcci che in modo più o meno esplicito si richiamano alla visione originale di Weiser, ma che si differenziano per una diversa enfasi su aspetti quali l’importanza del contesto, la ricerca di modalità di interazione diverse tra uomo e computer, il grado di “intelligenza” e adattività richiesto alle tecnologie. Tra questi approcci vale la pena citare quelle delle Tangible User Interfaces, la cui visione è racchiusa in un articolo di Ishii del 1997 (Ishii & Ullmer, 1997) e nei lavori dei gruppi di ricerca Things That Think e Tangible Media Group del Massachusetts Institute of Technology. Ishii e colleghi analizzano come il dissolversi dell’interfaccia vada in due direzioni opposte: verso il corpo delle persone con 5 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori dispositivi personali da indossare (wearable), oppure distribuendosi nello spazio. Delle due direzioni, l’approccio tangible si concentra sulla seconda, cercando di aumentare l’ambiente fisico con tecnologie digitali. I concetti fondamentali dell’approccio Tangible User Interfaces sono tre (Ishii & Ullmer, 1997, p. 2): - Superfici interattive: trasformazione di ogni superficie fisica in un’interfaccia attiva tra il mondo fisico e quello virtuale - Connessione tra bit e atomi: connessione fluida tra gli oggetti fisici della vita quotidiana e l’informazione digitale che li riguarda - Ambient Media: utilizzo di ambient media quali il suono, la luce, la circolazione dell’aria e il movimento dell’acqua come “interfacce di background”, ovvero per veicolare informazioni rilevanti ma in quel momento non centrali per l’utente L’obiettivo è permettere agli utenti di avere un’interazione fisica (“grasp & manipulate”) con le informazioni digitali, evitando pertanto le modalità di interazione classiche delle interfacce uomo-computer. Al contempo lo sfondo dell’interazione (il background) è utilizzato per convogliare altre informazioni di contesto grazie agli ambient media. Figura 4. Il reactable, progettato dal gruppo di Sergi Jordà all’università Pompeu Fabra di Barcellona, è un’interfaccia musicale multitouch (www.reactable.com). Permette di manipolare suoni e creare effetti in tempo reale interagendo con gli oggetti fisici disposti sulla sua superficie. Comune a tutti gli approcci citati prima resta una delle idee di base: distribuire nell’ambiente, ovvero negli oggetti con cui interagiamo quotidianamente, le capacità di calcolo delle tecnologie digitali, passando ad ambienti popolati da “computer invisibili” (vedi Figura 5). Non a caso Il Computer Invisibile è il titolo di un famoso libro di Donald Norman (Norman, 2000), e Disappearing Computer il nome scelto dalla Comunità Europea nel 2001 per un programma di finanziamenti alla ricerca. L’invisibilità del computer può in realtà avvenire in due modi distinti e complementari. Possiamo avere un’invisibilità di tipo fisico-materiale, in tutti in quei casi in cui il computer è miniaturizzato e poi integrato in oggetti fisici di uso quotidiano. Oppure un’invisibilità cognitiva in quelle situazioni in cui lo strumento computer mantiene una dimensione considerevole (si pensi a estese superfici interattive quali tavoli, muri, o 6 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori addirittura stanze), ma viene considerato dagli utenti come un oggetto interattivo più che come un computer vero e proprio. In questo caso, la tecnologia scivola sullo sfondo dell’interazione e diventa psicologicamente trasparente dal punto di vista del soggetto. L’aspetto più interessante ai fini del nostro ragionamento è che si dissolve progressivamente il luogo dove inserire i comandi per il computer, l’interfaccia appunto. Da luogo sino ad allora ben definito, l’interfaccia si estende adesso nello spazio, o in alcuni casi si fa addirittura non materiale. In modo analogo, le azioni dell’utente che il calcolatore riconosce come input assumono svariata forma. Ad esempio, tecnologie quali le RFID consentono di monitorare spostamenti nello spazio di oggetti e persone e possono essere utilizzare per attivare comportamenti del calcolatore. L’input è il movimento degli utenti e degli oggetti nello spazio. Altri esempi riguardano il bluetooth e il wireless, che pongono in comunicazione i dispositivi in base ad una prossimità spaziale; o i tessuti intelligenti (smart fabrics), utilizzabili per trasmettere informazioni sui parametri vitali di chi l’indossa, sulle situazioni in cui si trova (temperatura, luminosità). Figura 5. Esempi di teconologie ubiquitous e trasparenti. Immagini tratte dal video Domestic Robocop di Keiichi Matsuda Lo spostamento del luogo dell’interazione nello spazio non è una solamente una mera scelta tecnica. Ha infatti un impatto profondo sulle questione che l’ergonomia cognitiva di trova ad affrontare. In primo luogo ci si trova a dover progettare come cambiano le convenzioni sociali tradizionali, ad esempi i nostri modi di comunicare e come definiamo i destinatari delle nostre comunicazioni. L’ubiquitous computing sfuma la differenza tra luoghi e tempi diversi (del lavoro, del viaggio, della vacanza, della famiglia, etc.), rendendo inappropriate le strategie di gestione del tempo e dello spazio che attualmente usiamo per dividere il lavoro dalla vita privata, gli amici dai parenti, i colleghi dai conoscenti. Laddove l’interfaccia tradizionale permette di confinare in un luogo preciso tutta una serie di informazioni (ad esempio il mio profilo sui social networks, 7 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori le mie identità in chat o nei mondi virtuali), l’ubiquitous computing finisce con l’intrecciare nello stesso spazio e tempo interazioni multiple di natura profondamente diversa, che possono avvenire in ogni momento e in ogni dove, mettendo in contatto comunità eterogenee sin ad allora separate. Se l’interfaccia è distribuita nell’ambiente, altre persone potrebbero avere accesso ad informazioni che io avrei preferito mantenere confinate su di uno finestra di un browser. L’ergonomia cognitiva non ha ancora sviluppato risposte chiare a questa tensione tra ubiquitous e privacy. Ha invece spesso privilegiato in modo quasi ingenuo una delle due istanze, ad esempio spingendo al massimo lo sviluppo di congegni ubiquitous, senza tenere in alcuna considerazione le esigenze di privacy (Rogers, 2006). Un tema tuttora irrisolto è come progettare tecnologie che possano agevolmente “fatte proprie” dagli utenti e poste sullo sfondo dell’interazione sino a diventare effettivamente trasparenti (l’invisibilità cognitiva di cui abbiamo parlato sopra). Sebbene per noi esseri umani sia quasi una seconda natura l’appropriarsi di strumenti esterni sino ad internalizzarli nei nostri processi cognitivi (Hutchins, 1995; Norman, 1990; Vygotsky, 2008), la sfida per l’ergonomia cognitiva è ancora più complessa. Si tratta infatti di fronteggiare due richieste talvolta contraddittorie ed in tensione reciproca: gli utenti apprezzano certamente uno strumento trasparente, ma spesso vogliono al contempo poterlo “studiare”. Ad esempio quando lo incontrano per la prima volta, ma anche quando lo strumento “agisce” in modo inaspettato durante l’interazione, causando un cosiddetto breakdown (Winograd & Flores, 1986). Come ben evidenziato da Norman (Norman, 1990), uno strumento è user-friendly se comunica in modo chiaro all’utente il proprio funzionamento, ovvero se non apre un gap tra il modello mentale che l’utente ha dello strumento e il modello mentale di chi lo ha progettato. Per realizzare questo obiettivo le calm technologies di Weiser sono una risposta non completamente soddisfacente, laddove sarebbe invece necessario progettare un continuo movimento tra modalità di interazione trasparenti (del tipo prospettato da Weiser) e modalità più “riflessive”, ovvero momenti in cui l’utente ha la possibilità di studiare lo strumento per capirne il reale funzionamento. 5. Le dinamiche attuali Abbiamo sin qui delineato la traiettoria che il concetto di interfaccia ha descritto negli ultimi 30 anni, mostrandone il progressivo allontanarsi dal computer (inteso in quanto hardware) e il suo dissolversi nell’ambiente. Per quanto una descrizione di questo tipo riassuma efficacemente le dinamiche che abbiamo osservato negli ultimi anni, sarebbe di poca utilità per ragionare sulle sfide future dell’ergonomia cognitiva, dal momento che finisce con il semplificare eccessivamente un panorama che resta invece molto variegato. In questa sezione del nostro contributo vorremmo pertanto portare la riflessione sull’attualità, presentando sinteticamente quelli che a nostro avviso sono gli ambiti di ricerca più dinamici nella comunità dell’ergonomia cognitiva. Alcuni di essi sono in continuità con quanto discusso nei paragrafi precedenti, altri rappresentano invece un cambiamento piuttosto drastico e qualitativamente nuovo. Anche in questo caso cercheremo di centrare la riflessione sulle mutazioni del concetto di interfaccia, ragionando al contempo sulle tensioni che questa mutazione genera per la disciplina dell’ergonomia cognitiva. Non si tratta qui di descrivere dove andrà l’ergonomia cognitiva domani, quanto di delineare gli aspetti che ad oggi appaiono più interessanti. Un’eccellente discussione degli stessi temi si può trovare in (Harper, Rodden, Rogers, & Sellen, 2008). Le dinamiche che descriveremo in questa sezione sono le seguenti: - gli ecosistemi digitali - la personalizzazione. 5.1 Gli ecosistemi digitali La presenza del computer diventerà sempre più pervasiva in futuro, ma probabilmente assisteremo anche ad un salto qualitativo. I computer inizieranno infatti ad interagire tra di loro in modo sempre più consistente, spesso in maniera indipendente dall’operato umano. Questo ecosistema di calcolatori interconnessi potrebbe diventare molto opaco per l’utente, rendendoci pertanto difficoltoso il comprenderne i modi di funzionamento. Potremmo inoltre aspettarci che la crescente complessità dell’ecosistema di computer finirà con il generare delle proprietà emergenti, per loro stessa natura difficili da prevedere e probabilmente anche da individuare una volta emerse. È su questo grado crescente di complessità che ancora una volta si innesterà l’agire umano, rendendo il tutto ancora più intricato e multiforme. Volutamente non parliamo più di “utenti” in questo caso, perché questa categoria difficilmente si applica ad una situazione come quella appena descritta. L’uomo sarà parte del sistema più che esserne un utente ester8 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori no. E in modo analogo diventa difficile capire quali siano le interfacce in un sistema di questo tipo. Di sicuro quelle tra il sistema nel suo complesso e gli attori umani, ma probabilmente anche interfacce computercomputer, talvolta dedicate al dialogo tra macchine, talvolta accessibili agli attori umani. Per l’ergonomia cognitiva si tratta di collocare nell’ambiente gli artefatti intelligenti, di specificarne le interazione reciproche e quelle con gli esseri umani, di definire la sensibilità al contesto e ai cambiamenti in esso del sistema di computer. Ma si tratterà soprattutto di definire il grado di controllo che ciascun umano avrà sul sistema di computer e ideare modi che rendano il loro funzionamento in qualche misura percepibile e visibile a noi umani. Gli esseri umani si affidano in maniera sempre più crescente a questi sistemi per spostarsi e per condurre le proprie attività, l’ergonomia cognitiva dovrà quindi cercare di capire come mitigare la probabile perdita del senso di controllo (come tradizionalmente lo intendiamo) da parte della persona sul calcolatore. Ci sentiremo in balia delle macchine da noi create? Cercheremo di sfuggirvi non appena possibile per ritornare nel più tranquillizzante mondo newtoniano dei legami di causa-effetto, da noi ben conosciuti dopo millenni di evoluzione? Si tratta probabilmente di una tensione irrisolvibile, ma di sicuro l’ergonomia cognitiva dovrà dedicare parecchi sforzi per progettare nuove interfacce, ad esempio rappresentazioni che sintetizzino gli aspetti più importanti del funzionamento di questo ecosistema digitale e che siano adeguate per gli esseri umani, da noi comprensibili e che ci permettano di agire se necessario. Se l’ambiente è interamente interattivo, cosa ci dirà cosa possiamo fare e quali effetti possiamo attenderci? Come deve essere strutturato il feedback di un tale ecosistema? Ci dovrebbe avvertire per ogni evento, o solo per quelli inattesi? Come faranno i computer a capire quali eventi sono per noi inattesi? Pensiamo ad esempio ai casi di malfunzionamento. È già impegnativo oggigiorno affrontare il malfunzionamento di una stampante o di un router wireless, lo sarà in misura nuova capire il perché l’ecosistema digitale che ci circonda abbia reagito (oppure no) in modo inatteso ad un nostro movimento. In estrema sintesi l’interazione tra computer aumenta l’opacità dei sistemi informatici, incrementando al contempo la possibilità che comportamenti inaspettati emergano da tale interazione. I numerosi casi di problemi alla rete Internet generati negli ultimi 20 anni da interazioni complesse ne sono prova (Daviss, 2009), così come lo è il cyber-attacco all’intero paese dell’Estonia del 2007 (Lesk, 2007), dove gli hacker sfruttano computer di utenti inconsapevoli per generare una mole di traffico non gestibile dall’infrastruttura informatica del paese baltico. Un simile scenario porta alla ribalta una seconda tematica: quella della privacy. Se mettiamo insieme tecnologie ubiquitous, connessione alway on, e un alto grado di personalizzazione delle varie tecnologie, ci troviamo a dover esplicitamente definire il grado di controllo desiderabile sulle nostre tracce digitali. In altre parole, per l’ergonomia cognitiva diventa cruciale capire come bilanciare l’esigenza di personalizzazione con gli aspetti di privacy. Ad esempio, l’utilizzo di dispositivi personalizzati mette in questione il grado di visibilità di tali dispositivi verso le altre persone. Che tipo di visibilità sociale dovrebbe avere il dialogo tra il nostro palmare e l’ecosistema digitale? Come limitare la visibilità sociale di feedback visivi o sonori (si pensi al banale caso delle suonerie dei cellulari)? Vi sono casi in cui chi ci sta vicino spazialmente (chiunque esso sia) dovrebbe poter accedere ad informazioni sensibili, ad esempio sul nostro stato corrente di salute? Come utilizzare in situazioni sociali informazioni dettagliate sui nostri gusti e sulle nostre preferenze? Vi è un secondo aspetto interessante, relativo alle modifiche di schemi consolidati di interazione sociale a seguito dell’introduzione di nuove tecnologie per la comunicazione. Infatti il galateo digitale dell’always on (sempre connessi) prescrive che si segnali sempre la propria assenza, utilizzando l’auto-responder per la mail, o impostando il proprio stato su Skype, o in chat. Il dialogo tra diversi computer e strumenti di comunicazione ci obbliga così a gestire contemporaneamente la nostra disponibilità e presenza su più dispositivi, spesso lasciando aperti spazi di contraddizione, dove ad esempio risultiamo non connessi su Skype, ma attivi sulla mail o sul social network, irraggiungibili via cellulare, ma visualizzati su di una mappa via GPS (Global Positioning System) o in Google Latitude. Si tratta in questo caso di definire come gestire “l’interfaccia sociale” tra le diverse persone, dando ai singoli la possibilità di gestire il loro stato contemporaneamente su canali multipli, sincronizzandolo, o tenendolo volutamente non allineato. Al momento attuale, l’ergonomia cognitiva ha demandato l’integrazione tra questi diversi canali al singolo utente (oppure ad ulteriori applicativi software), lasciando così che fossero i singoli individui a progettare come meglio gestire tutti questi canali. L’ergonomia cognitiva sta così lasciando nella mani di una progettazione per lo più istintiva e non strutturata questioni per noi cruciali, come ad esempio tutti i contratti sociali impliciti che si creano nei momenti di interazione tra persone, con gli annessi impegni e forme di controllo. 9 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori In taluni casi, l’attività principale degli utenti rischia di diventare non tanto l’utilizzo delle tecnologie per comunicare o per lavorare, quanto il monitorare e modificare lo stato delle stesse. Un compito che solitamente erano riservato ai soli amministratori di sistemi informatici. L’ergonomia cognitiva dovrebbe invece interrogarsi sulle nuove convenzioni sociali legate alle tecnologie, per fare di esse un oggetto esplicito di progettazione (Harper et al., 2008), laddove oggi ubiquitous e personal computing sono spesso sinonimo di elisione di qualunque convenzione o galateo. Un effetto particolarmente deleterio di questo fenomeno è il moltiplicarsi delle interruzioni, dove la possibilità di comunicare si trasforma nell’obbligo di farlo, e soprattutto di farlo immediatamente. I dispositivi di comunicazione personale facilitano la funzione fàtica (di contatto) della comunicazione, ma rischiano di trasformarla in obbligo di interazione (Renaud, Ramsay, & Hair, 2008). Diventa sempre più difficile interrompere la propria connessione dalla rete (a causa degli obblighi sociali di cui sopra), esponendoci così ad un continuo flusso di sollecitazioni dirette (email, messaggi sms o via chat, etc.) o indirette (aggiornamenti di pagine web, curiosità e spinte alla divagazione). Il risultato è la frammentazione estrema dell’attività, che si interrompe di continuo per il controllo della mail, per caricare l’ultima versione del nostro blog preferito, per rispondere ai messaggi via chat di amici e colleghi. L’interruzione continua (o perlomeno l’aspettativa di essere presto interrotti) costringe il lavoratore cognitivo a intensi quanto brevi periodi di concentrazione, impedendo di dedicare un tempo più lungo alla riflessione vera e propria, se non confondendo ulteriormente il tempo del lavoro con il tempo del riposo (ovvero quei momenti dove ci si aspetta che anche gli altri diminuiscano le proprie interazioni) (Bagnara, 2008; Davenport & Beck, 2001). L’interfaccia dovrebbe forse aiutarci a ricomporre questi frammenti, proteggendoci dalle interruzioni quando lo desideriamo, o quando è per noi necessario (ad esempio mentre guidiamo nel traffico). 5.2 La personalizzazione Un trend che emerge da molti dei temi trattati in precedenza è quello della personalizzazione. Da un lato approcci di tipo ubiquitous computing mirano a sviluppare strumenti che entrino in stretta simbiosi con l’uomo (non a caso Weiser cita gli occhiali come esempio di strumento trasparente). Dall’altro ubiquitous computing significa anche la possibilità di raccogliere in continuazione dati sui comportamenti degli utenti, visto che le tecnologie digitali vengono distribuite nell’ambiente e sono dotate di sensori spesso molto raffinati. Dalla combinazione di questi due fattori risulta che ora gli ergonomi cognitivi hanno a disposizione una mole di dati senza precedenti, dati utilizzabili per meglio capire i comportamenti di ciascun singolo utente. A nostro avviso, dinamiche di questo tipo finiscono con il suscitare la medesima domanda di ricerca: come possa l’ergonomia cognitiva fornire conoscenze utili alla progettazione di dispositivi altamente personalizzati. A parziale conferma di questa nostra conclusione potremmo citare un recente articolo di Yvonne Rogers (Rogers, 2006), la quale inizia una serie di ragionamenti su cosa resti della visione di Weiser con la seguente constatazione: “uno degli inciampi principali [nel progettare dispositivi intelligenti] è stato il padroneggiare l’enorme variabilità che troviamo in quello che le persone fanno, le loro motivazioni nel farlo, quando lo fanno e come lo fanno. Gli studi etnografici di come le persone vivono la propria vita – da persone affette di Alzheimer a professionisti iper-competenti – hanno rivelato che le specificità del contesto che circonda la vita quotidiana delle persone sono molto più sottili, fluide e idiosincratiche di quanto le varie teorie sul contesto ci avessero indotto a credere” [pg. 405]. E in effetti questa varietà nei contesti di utilizzo e nelle specificità dei diversi utenti può difficilmente essere compresa con i tradizionali metodi dell’ergonomia cognitiva. Tradizionalmente l’ergonomia ha cercato di individuare le costanti tra i diversi utenti, le somiglianze tra gli utenti più che le differenze, per arrivare a segmentare la popolazione in larghi gruppi omogenei, all’interno dei quali descrivere comportamenti e preferenze di utilizzo comuni. La situazione descritta dalla Rogers richiederebbe invece soluzioni altamente personalizzate, che non si concentrino sulla progettazione per l’utente medio (in ciascun diverso segmento di mercato), ma mirino invece alla progettazione diversificata fino all’individualità. Il concetto alla base dei vari tentativi di personalizzazione è quello delle “modalità di interazione preferite”, ovvero di quali azioni e competenze preferiamo impiegare per interagire con uno strumento. Preferiamo libri tascabili (per leggerli in treno), oppure libri di formato grande che ci facilitino la lettura in condizioni di poca luce? Oppure libri elettronici che ci consentano di portare con noi un’intera biblioteca, oppure stampe a poco prezzo da leggere, sottolineare e poi gettare? Le modalità di interazione preferite non dipendono solo dalle nostre preferenze ed idiosincrasie personali, ma sono molto legate anche ai contesti di utilizzo. Interagiamo in maniera molto diversa con un telefono cellulare a seconda che si stia camminando, oppure guidando, op- 10 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori pure andando in bici, oppure si sia seduti alla nostra scrivania. Allo stesso modo lo usiamo in modo diverso al ristorante, tra amici, in un cinema, all’aperto o in spiaggia. Lo stesso dicasi per le varie operazioni che possiamo compiere con il cellulare: mandare un SMS, fare o ricevere una chiamata, fissarsi un appuntamento in agenda. Ciascuno di queste attività richiede di affidarsi ad un insieme di modalità di interazione differente, che magari necessitano primariamente della vista, oppure del tatto o dell’udito. Le modalità di interazione preferite possono cambiare a seconda del contesto e della situazione di utilizzo, ma anche a causa di dinamiche di più lungo periodo, quali il mutare di preferenze e bisogni personali, oppure l’invecchiamento. La sfida della personalizzazione è proprio quella di soddisfare tutta questa varietà, facendo sì che ogni utente possa utilizzare le proprie modalità preferite in ciascuna diversa situazione, o che perlomeno possa personalizzare il proprio strumento quando necessario. Se di nuovo pensiamo all’esempio dei cellulari, è facile immaginare quanto una personalizzazione estrema possa comportare cambiamenti radicali nell’interfaccia del cellulare, ben al di là delle diverse possibilità di interazione di cui usufruiamo ora (ad esempio le cuffie per guidare, il comando vocale per chiamare un numero, una serie di profili per modificare il volume e il tipo di suoneria, etc.). Sino ad oggi la personalizzazione ha significato principalmente progettare strumenti ed interfacce configurabili in modo variabile, dove ogni utente potesse specificare il layout preferito, attivare funzionalità speciali, trovare scorciatoie per le azioni più frequenti. Alcune applicazioni software non richiedono neppure l’intervento dell’utente, ma si adattano di propria iniziativa sulla base dei comportamenti osservati. Ad esempio, i menu a tendina di Microsoft Office 2003 si “accorciano” da soli per visualizzare solo i comandi utilizzati di frequente. Le conseguenze per l’ergonomia cognitiva sono invece ben più profonde, perché la personalizzazione più radicale richiederebbe di progettare interfacce diverse per ciascun diverso utente e addirittura per i molteplici contesti di utilizzo. La disciplina dovrebbe mettere in gioco il modo stesso in cui si pensa all’utente, passando da un approccio in cui gli utenti medi sono i più importanti, ad un marcato interesse per i comportamenti individuali. E come rilevato dalla Rogers nell’articolo citato in precedenza, la comprensione di questi utenti richiede studi approfonditi, che si concentrino su di una molteplicità di dettagli idiosincratici. Le differenze individuali non possono più essere trattate come “rumore” rispetto alla media dei comportamenti, ma devono invece diventare un oggetto esplicito di studio (Hancock, Hancock, & Warm, 2009). In altre parole, l’ergonomia cognitiva dovrebbe cominciare a trattare gli individui come importanti di per se stessi, e non solo perché rappresentativi di un gruppo più esteso. Ma la disciplina dell’ergonomia cognitiva ha già sviluppato alcune competenze in quest’area. Alcune nicchie altamente specializzate stanno affrontando problemi analoghi già da parecchio tempo, si pensi in primis alla ricerca sulle tecnologie assistive per le disabilità. Il concetto di disabilità stesso è un concetto che implica un alto livello di personalizzazione. Ogni persona è disabile ad un diverso livello a seconda dei contesti e delle attività in cui è coinvolta, basti pensare ai problemi con le nuove tecnologie di molta parte della popolazione. L’obiettivo delle tecnologie assistive è fornire il giusto livello e tipologia di aiuto per superare i vincoli e le restrizioni che quotidianamente affrontiamo, andando così a studiare soluzioni altamente personalizzate e ritagliate su situazioni specifiche. E’ significativo che proprio in questo campo sia stato introdotto il concetto di dynamic diversity (Gregor, Newell, & Zajicek, 2002; Hanson & Richards, 2005), per sottolineare come la disabilità non comporti solo un’alta diversità di condizioni e bisogni (esistono moltissime forme di disabilità fisica, cognitiva, o sociale), ma anche spesso l’interazione tra diverse disabilità, spesso con cambiamenti anche drastici nel tempo. Si pensi all’intervenire dell’invecchiamento, ma anche agli effetti della fatica mentre si utilizza il computer. Come ben sintetizzato da Hanson and Richards “gli utenti hanno abilità complesse, che interagiscono e sono mutevoli” [pg. 245]. La ricerca sulle disabilità si trova quindi a progettare strumenti che non solo devono offrire supporto a molteplici individui, ciascuno diverso dagli altri, ma anche al mutare nel tempo delle capacità dei singoli. Nuovamente queste differenze di approccio finiscono con il determinare un mutamento di quanto si intende per interfaccia. Se l’obiettivo della progettazione è supportare modalità di interazione altamente diversificate e mutevoli, difficilmente sarà possibile assolverlo in modo soddisfacente nei vincoli posti dalle interfacce tradizionali. Si è assistito quindi all’intensificarsi della ricerca sulle cosiddette interfacce multimodali, in quanto strumenti utili per supportare modalità di interazione personalizzate, sia per tecnologie assistive che per contesti di utilizzo altamente specializzati. Per interfacce multimodali si intendono tutti quei metodi di input diversi dai tradizionali mouse e tastiera, che si appoggiano invece su altre modalità di input, quali ad esempio il riconoscimento vocale, la direzione dello sguardo, il riconoscimento dei gesti (per una rassegna si 11 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori vedano Hinckley, 2009; Samman & Stanney, 2006). Come si diceva, le applicazioni riguardano sia persone con mobilità ridotta, e quindi tecnologie assistive, ma anche attività in cui sia importante lasciare libere le mani per altri compiti, ad esempio per ridurre il rischio di infezioni nei briefing tra chirurghi prima di entrare in sala operatoria, o perché un pilota di aerei militari possa mirare ad un bersaglio semplicemente con lo sguardo, mentre arma e lancia i missili con il comando vocale. Un altro caso particolarmente affascinante di interfaccia di questo tipo sono le interfacce cervello-computer (Brain-Computer Interfaces), dove sensori dedicati monitorano l’attività celebrale e attivano comportamenti corrispondenti del computer. In talune interfacce l’utente deve volontariamente modulare l’attività celebrale per inviare il giusto tipo di input, mentre altre si basano semplicemente sul riconoscimento di una particolare frequenza di attività celebrale correlata al prestare attenzione (Wolpaw, Birbaumer, McFarland, Pfurtscheller, & Vaughan, 2002). Nella stessa categoria possiamo inoltre citare l’utilizzo della “sonificazione”, ovvero l’uso di audio non vocale a fini informativi. La sonificazione è tipicamente utilizzata in situazioni dove la vista dell’utente è già impegnata in altri compiti, oppure dove i dati presentati visivamente eccedono la capacità di elaborazione degli utenti (Walker & Kramer, 2006). Le applicazioni tipiche sono nuovamente in medicina (si pensi al rumore del battito cardiaco durante le operazioni), nei sistemi geografici GIS (Geographic Information Systems) per comunicare cambiamenti di altezza o profondità, o nel militare (il sonar dei sommergibili). Nel campo delle tecnologie assistive l’utilizzo tipico è per disabilità legate all’ipovisione, come nel caso degli screen readers (Coyne & Nielsen, 2001; Yalla & Walker, 2008). Un ultimo esempio riguarda le interfacce basate sui gesti. Questo tipo di interfacce sono tipicamente utilizzate per sopperire ad una minore acuità visiva, o una minore destrezza motoria, dal momento che richiedono un grado minore di precisione rispetto alle interfacce basate sul point and click (Kane, Bigham, & Wobbrock, 2008; Moffatt, Yuen, & McGrenere, 2008). Ma le interfacce gestuali sono state recentemente diventate popolari anche in tecnologie non pensate per la disabilità. Dispositivi come l’iPhone si fondano infatti su di un nuovo linguaggio di interazione basato sul gesto, e non sul tocco. Non si tratta di una fortuita coincidenza, dove tecnologie assistive si sono casualmente rivelate utili anche per altri scopi. Sia che si tratti di rispondere ad una disabilità, che di applicazioni specifiche per professionisti quali chirurghi o militari, il bisogno degli utenti è il medesimo: la personalizzazione delle modalità di interazione per rispondere a contesti ed utilizzi altamente particolari. Se l’interfaccia supporta tale personalizzazione allora troverà individui pronti ad utilizzarla per le proprie esigenze specifiche. Vale la pena notare come anche nel caso delle interfacce multimodali si stia assistendo ad un movimento in una duplice direzione. Da un lato il punto di interazione si avvicina maggiormente al nostro corpo, con dispositivi digitali personali o con sensori di parametri vitali, dall’altro si dissolve in ambienti interattivi. Figura 6. Un concept di Philips Design basato su gioielli digitali o su sensori a forma di collana, utilizzabili per generare energia, come sensori o display. 12 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori 6. L’artefatto aperto I diversi approcci alla progettazione di interfacce nascono spesso dal tentativo di conciliare due tensioni contraddittorie. Da un lato l’esigenza di progettare dispositivi che possano essere utilizzati senza sforzo dagli utenti direttamente al primo tentativo, ovvero secondo le parole di Weiser “tecnologie trasparenti”. Dall’altro lo sforzo di gestire dispositivi sempre più complessi, la cui interfaccia difficilmente potrà diventare invisibile, pena la perdita del controllo sugli stati del computer. La complessità diventa ancora maggiore ogniqualvolta si chiede all’interfaccia di mediare non solo il dialogo tra l’utente e il computer, ma di farsi carico anche degli aspetti sociali. La complessità ad oggi raggiunta da computer e applicazioni digitali è ben riassunta in un recente articolo di Scott (Scott, 2009). Sebbene la Scott si concentri sulla validità nello scenario tecnologico attuale dei tradizionali metodi e tecniche per la valutazione dell’usabilità, a nostro avviso alcuni degli aspetti da lei descritti sono rilevanti anche per l’ergonomia cognitiva e possono essere qui ripresi come conclusione di questo contributo. L’aspetto principale analizzato dalla Scott è la velocità del cambiamento tecnologico. Il ciclo di vita dei software tradizionali (e dei servizi ad essi connessi) durava in passato molti anni, arrivando anche ad una decade per i software più complessi. Erano necessari grossi investimenti per progettare, sviluppare e portare sul mercato un nuovo applicativo software. Lo stesso valeva per le versioni successive dei diversi software. Nello scenario attuale, il ciclo di vita si è accorciato drammaticamente. Le fasi di progettazione e sviluppo possono ora essere iterative, il prodotto può essere lanciato sul mercato non appena pronto, per poi essere rivisto e raffinato nel giro di poche settimane. Si pensi alle applicazioni web o per gli smart phones: dopo il primo lancio si succedono raffinamenti e modifiche continue, con nuove versioni sfornate praticamente ogni mese. Nuove funzionalità possono essere introdotte in modo incrementale, testate dal vivo con gli utenti e abbandonate (ad esempio Facebook ha provato più volte a introdurre nuove applicazioni, per poi rimuoverle di fronte allo scarso gradimento degli utenti). Questo ritmo è ancora più serrato nella comunità open source, dove lo sforzo comune di molti programmatori rende gli sviluppi e le modifiche praticamente continue. Figura 7. Urban Spoon, l’applicazione iPhone presa ad esempio dalla Scott. Un secondo fattore descritto dalla Scott è la complessità crescente delle tecnologie informatiche. Gli applicativi software erano tradizionalmente applicazioni stand-alone, ovvero applicazioni auto-sufficienti, il cui funzionamento era completamente “interno”, senza alcun bisogno di contributi da parte di altri applicativi. Gli applicativi di oggi sono invece sistemi basati su reti di altri software, che necessitano del contributo di altri applicativi e servizi per funzionare in modo corretto. Prendiamo ad esempio un applicativo per smart 13 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori phone che suggerisca un ristorante sulla base della nostra posizione geografica e delle recensioni di una comunità. Esso funziona grazie ad almeno cinque diversi applicativi: (i) un sito web da cui scaricare/acquistare il software, (ii) l’interfaccia generica dello smart phone stesso, (iii) un’interfaccia per esprimere le nostre preferenze sui ristoranti e recensire quelli appena visitati, (iv) un database contenente tutti i ristoranti, (v) un sistema GPS per identificare la nostra posizione. La conclusione che trae la Scott è che l’esperienza d’uso di un software di questo tipo non dipende più unicamente da quanto è user-friendly il software stesso, ma è criticamente legata anche alla prestazione degli altri elementi del sistema. Un database con pochi ristoranti, una comunità poco attiva, una bassa risoluzione spaziale del GPS, sono tutti elementi che possono minare la nostra esperienza d’uso, rendendo il software poco utile o addirittura frustrante da utilizzarsi. Basta che anche uno solo di questi elementi venga a mancare per diminuire il valore all’intera interazione. E non si tratta di un caso particolare, visto che ormai quasi tutte le applicazione web fanno uso di dati o servizi provenienti da altre applicazioni. Un terzo fattore è relativo alla stabilità dei contesti d’uso. La pervasività e mobilità che contraddistingue le moderne tecnologie implica un utilizzo in contesti altamente differenziati. Citando la Scott “[le applicazioni software] vivono in una varietà di diversi ambienti, scenari e contesti scelti dagli utenti […] I contesti di utilizzo variano in maniera significativa da utente a utente, o da giorno a giorno” [pg. 8]. Lo stesso dispositivo può essere usato in modi molto diversi a seconda del contesto. Per riprendere l’esempio già citato del telefono cellulare, l’utente può effettuare chiamate, ma anche prendere note, utilizzarlo come illuminazione, per mandare SMS, come mappa e GPS. L’ultima caratteristica menzionata dalla Scott è il ruolo attivo che ora giocano gli utenti nel dare forma alle applicazioni informatiche. Mentre in passato solo una piccola comunità di hacker era in grado di modificare un applicativo software, ora la base di utenti in grado di arricchire e modificare uno strumento è in larga crescita, rendendo di fatto i cicli di innovazione di prodotto ancora più rapidi e imprevedibili. Per riprendere il tema della personalizzazione svolto nel paragrafo precedente, molti utenti sono oggi in grado di progettare e realizzare strumenti altamente personalizzati. Inoltre il mercato consente loro di distribuire le loro invenzioni con poco sforzo, ad esempio mettendole su di un sito web. E’ quindi il concetto stesso di strumento (sia esso un dispositivo elettronico o un software per un comune PC), ad acquisire confini di difficile definizione. Diventa così piuttosto problematico pensare ad un’interfaccia unica, stabile nel tempo e ben definita spazialmente, proprio perché nemmeno lo strumento lo è più. L’interfaccia è ad oggi un oggetto difficilmente delimitabile, aperto per sua natura su di un ecosistema digitale e su di una molteplicità di relazioni sociali. E’ per questo motivo che in anni recenti si è cominciato a parlare sempre di più di “design dei servizi”. Un servizio è “una sequenza di attività che costituiscono un processo” (Saffer, 2007, p. 174). Un servizio aggrega diversi dispositivi, diverse tecnologie, in modo da creare valore per l’utente finale, o un’esperienza d’uso gradevole. Il ruolo dell’ergonomia cognitiva diventa allora il progettare l’intera catena del servizio, ed in particolar modo i touchpoint, ovvero gli elementi fisici con cui gli utenti si trovano ad interagire mentre usufruiscono di un servizio. Se riprendiamo l’esempio fatto prima dalla Scott a proposito dell’applicativo per smart phone sui ristoranti, i touchpoint includono le interfacce web (per acquistare l’applicativo e per dare la votazione ai vari ristoranti), l’interfaccia dello smart phone, ma anche eventuali email, l’help on line o le Frequently Asked Questions, fino ad arrivare al ristorante stesso (su cui l’ergonomo cognitivo ha però molto poco controllo). Si tratta di elementi di natura molto differente, che richiedono pertanto all’ergonomia cognitiva un ulteriore salto verso l’interdisciplinarietà e verso la molteplicità dei punti di vista, oltre i “confini cognitivi” tipici delle interfacce anni ‘80 e ’90, verso un mondo di artefatti fisici e di relazioni sociali. Nel mondo complesso e dinamico di oggi, l’ultima “trasformazione” del concetto di interfaccia ci mostra una molteplicità di punti di contatto (touchpoint appunto), eterogenei tra di loro e in continuo cambiamento, tenuti insieme da un servizio più che da un sistema tecnico. L’interfaccia odierna è aperta, spesso frammentata. L’ergonomo cognitivo è chiamato al difficile compito di dare unità ai singoli touchpoint, progettando un senso unitario per interazioni sempre più eterogenee e personalizzate. 14 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori Bibliografia Bagnara, S. [2008] "L’economia dell’attenzione," in R. Nicoletti, E. Ladavas & P. Tabossi (a cura di) Attenzione e cognizione, Il Mulino, Bologna, Italia. Bannon, L. J. [1991] "From human factors to human actors. The role of psychology and human-computer interaction studies in system design," in J. Greenbaum & M. Kyng (a cura di) Design at work: cooperative design of computer systems (pp. 25-44), Lawrence Erlbaum Associates, Hillsdale, NJ. Bartlett, F. C. [1962] "The future of ergonomics," Ergonomics, 5, 505–511. Card, S. K., English, W. K., & Burr, B. J. [1978] "Evaluation of mouse, rate-controlled isometric joystick, step keys, and text keys for text selection on a CRT," Ergonomics, 21(8), 601-613. Clement, A. [1990] Cooperative support for computer work: A social perspective on the empowering of end users, paper presented at the CSCW'90 Conference on Computer-Supported Cooperative Work. Coyne, K. P., & Nielsen, J. [2001] Beyond ALT text: making the web easy to use for users with disabilities, Nielsen Norman Group, Fremont, CA. Davenport, T. H., & Beck, J. C. [2001] The Attention Economy: Understanding the New Currency of Business, Harvard Business School Press, Cambridge, MA. Daviss, B. [2009, 29 June 2009] Building a crash-proof internet, New Scientist. Dourish, P., & Button, G. [1998] "On "Technomethodology": Foundational Relationships between Ethnomethodology and System Design," Human-Computer Interaction, 13(4), 395-432. Gregor, P., Newell, A. F., & Zajicek, M. [2002] Designing for dynamic diversity: interfaces for older people, paper presented at the ASSETS - 4th international ACM SIGACCESS conference on Computers and Accessibility, Edinburgh, Scotland. Grudin, J. [1990] The computer reaches out: the historical continuity of interface design, paper presented at the SIGCHI conference on Human factors in computing systems: Empowering people, Seattle, WA. Hancock, P. A., Hancock, G. M., & Warm, J. S. [2009] "Individuation: the N = 1 revolution," Theoretical Issues in Ergonomics Science, 10(5), 481-488. Hanson, V. L., & Richards, J. T. [2005] "Achieving a more usable World Wide Web," Behaviour & Information Technology, 24(3), 231-246. Harper, R., Rodden, T., Rogers, Y., & Sellen, A. (a cura di) [2008] Being Human: Human-Computer Interaction in the year 2020, Microsoft Research Ltd, Cambridge, UK. Hinckley, K. [2009] "Input Technologies And Techniques," in A. Sears & J. A. Jacko (a cura di) Human-Computer Interactions. Fundamentals (pp. 137-152), Taylor & Francis, Boca Raton, FL. Huenerfauth, M. [2008] Evaluation of a psycholinguistically motivated timing model for animations of american sign language, paper presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers and Accessibility, Halifax, Nova Scotia, Canada. Hughes, J. A., O'Brien, J., Rodden, T., Rouncefield, M., & Blythin, S. [1997] Designing with ethnography: a presentation framework for design, paper presented at the ACM conference on Designing Interactive systems DIS '97, Amsterdam, The Netherlands. Hutchins, E. [1995] Cognition in the wild, MIT Press, Cambridge, MA. Ishii, H., & Ullmer, B. [1997] Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms, paper presented at the CHI. Kane, S. K., Bigham, J. P., & Wobbrock, J. O. [2008] Slide rule: making mobile touch screens accessible to blind people using multi-touch interaction techniques, paper presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers and Accessibility, Halifax, Nova Scotia, Canada. Lesk, M. [2007] "The new front line: Estonia under cyberassault," IEEE Security & Privacy, 5(4), 76-79. Moffatt, K., Yuen, S., & McGrenere, J. [2008] Hover or tap?: supporting pen-based menu navigation for older adults, paper presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers and Accessibility, Halifax, Nova Scotia, Canada. Norman, D. A. [1990] La caffettiera del masochista, Giunti, Firenze, Italia. Norman, D. A. [2000] Il computer invisibile. La tecnologia migliore è quella che non si vede, Apogeo Editore, Milano, Italia. Preece, J., Rogers, Y., & Sharp, H. [2004] Interaction design, Apogeo, Milano. Renaud, K., Ramsay, J., & Hair, M. [2008] "Think before you link: controlling ubiquitous availability," interactions, 15(6), 65-68. Rogers, Y. [2006] Moving on from Weiser’s Vision of Calm Computing: Engaging UbiComp Experiences, paper presented at the UbiComp 2006: Ubiquitous Computing. Saffer, D. [2007] Designing dell'interazione: Creare applicazioni intelligenti e dispositivi ingegnosi con l'interaction design, Paravia Bruno Mondadori Editori, Torino - Milano. Samman, S. N., & Stanney, K. M. [2006] "Multimodal Interaction," in W. Karwowski (a cura di) International Encyclopedia of Ergonomics and Human Factors, Taylor & Francis, Boca Raton, FL. 15 Testo in stampa – non citare, distribuire o copiare senza il consenso degli autori Scott, K. M. [2009] "Is Usability Obsolete?," interactions, 16(3), 6-11. Vygotskij, L. [2008] Pensiero e linguaggio. Ricerche psicologiche, a cura di L. Mecacci , 10a ed. Laterza, Roma-Bari, [1990]. Walker, B. N., & Kramer, G. [2006] "Sonification," in W. Karwowski (a cura di) International Encyclopedia of Ergonomics and Human Factors, Taylor & Francis, Boca Raton, FL. Weiser, M. [1991] "The Computer for the 21st Century," Scientific American, 265(3), 66-75. Winograd, T., & Flores, F. [1986] Understanding Computers and Cognition: A New Foundation for Design, Addison Wesley Publishing Company, Reading, MA. Wolpaw, J. R., Birbaumer, N., McFarland, D. J., Pfurtscheller, G., & Vaughan, T. M. [2002] "Brain-computer interfaces for communication and control," Clinical neurophysiology, 113(6), 767-791. Yalla, P., & Walker, B. N. [2008] Advanced auditory menus: design and evaluation of auditory scroll bars, paper presented at the ASSETS - 10th international ACM SIGACCESS conference on Computers and Accessibility. 16