UXmagazine Book 1

Page 1

UXmagazine n. 001 - Appunti e Spunti sull'Esperienza d'Uso - Magazine trimestrale di informazione e approfondimento su esperienza d'uso, design e innovazione - Maggio/Agosto 2009 - Lugano, Switzerland.

book 01


UXmagazine è un magazine collaborativo generato dagli utenti che porta verso il grande pubblico le tematiche legate all’analisi e alla progettazione dell’esperienza d’uso. Le uscite mensili si compongono di articoli a scopo divulgativo, che trattano le tematiche dell’esperienza d’uso, del design e dell’innovazione miscelando il punto di vista dell’autore a dati di ricerca che lo supportino nella direzione scelta. Vengono trattate anche presentazioni di prodotti e servizi, ma sempre nella logica editoriale del magazine, che vuole costantemente presentare ai lettori strumenti e prodotti innovativi. Il magazine si costituisce inoltre come punto di aggregazione e discussione delle tematiche con UXnetwork, il social network dedicato all’esperienza d’uso.

BY

SA

UXmagazine n. 001 - Appunti e Spunti sull’Esperienza d’Uso. Magazine trimestrale di informazione e approfondimento su esperienza d’uso, design e innovazione. Maggio/Agosto 2009 - Lugano, Switzerland.

Direttore Responsabile: Luca Mascaro. Caporedattore: Diana Malerba. Art-director: Alice Garbocci

This work is licensed under a Creative Commons Attribution-Share Alike 2.5 Switzerland License.




Diana Malerba

BarCamp: uno, nessuno, centomila modelli e nuove opportunità http://www.uxmagazine.it/innovation-design/barcamp-uno-nessuno-centomila-modelli-nuove-opportunit/

Parlando di barcamp vorrei anzitutto chiarirne il concetto, o perlomeno quelle che sono le indicazioni di base. Un barcamp si (de)struttura come conferenza aperta e generata dagli utenti. Potremmo definirlo come l’incontro e lo scontro costruttivo di idee, riflessioni, conversazioni dal basso. Trattandosi di una open conference non schedulata, gli unici elementi definiti sono le tematiche affrontate e il tempo a disposizione degli utenti. In italia (e all’estero) mi è capitato di prendere parte a barcamp diversi, soprattutto con obiettivi diversi, e questo è l’aspetto su cui vorrei mettere l’accento in questo articolo. La ricchezza del barcamp, e da qui le sue elevate possibilità di successo, stanno nell’essere un evento estremamente sociale in un mondo che sempre più si dirige verso il social. In un momento in cui gli utenti sono tutti abilitati a parlare, esporsi e sovraesporsi, la partecipazione ai barcamp permette di presentare le proprie idee e partecipare a una creazione collettiva di proposte e significati inattesi. E’ qui che risiede la forza e la debolezza del barcamp classicamente inteso. Infatti, se questo può da un lato generare numerose idee, sviluppi imprevisti e aggregazioni spontanee, dall’altro possiamo rilevare una difficoltà a comunicare l’evento a coloro che non partecipano abitualmente al web 2.0. E la ragione di questo problema va cercata proprio nell’origine dell’evento. Ufficilamente il format nasce in California nel 2005, come nonconferenza dedicata a tecnologi, esperti di media sociali e appassionati della rete. E questo è anche il motivo per cui vorrei parlare di barcamp sfatandone la concezione per così dire più classica e pura. Come ogni tipo di pensiero conservatore, l’attenersi alle regole limita nettamente la creatività. E quando limitiamo la creatività corriamo il rischio, elevatissimo, di scoprirci tra soliti noti con i soliti temi che passano e tornano di conversazione in conversazione. Mi chiedo allora se veramente quello di cui trattiamo sia un format nuovo, perchè al primo barcamp cui ho preso parte ho avuto la sensazione di un’esperienza già (piacevolmente) vissuta.

4

BarCamp: uno, nessuno, centomila modelli e nuove opportunità .  Diana Malerba .

note


Sono certa che se volessi dare un’idea a chi non ha mai vissuto quest’esperienza potrei facilmente richiamargli alla mente l’esperienza dei collettivi al liceo, durante l’autogestione. Il ribaltamento della lezione frontale, per cui non è richiesta la legittimazione a parlare, perchè chiunque si siede in mezzo agli altri e inizia trattare un tema, con o senza presentazione. E’ qui che vedo le radici profonde del barcamp, nella scoperta di una conversazione-collaborazione tra pari, nel nostro tempo e nel nosto caso corredati di rete come elemento indispensabile di condivisione di identità ed esperienze. Volendo dunque ribaltare questa visione possiamo pensate all’apertura dei barcamp e della comunicazione mediale a tutti. Tra cui, naturalmente, le aziende. L’evoluzione dei barcamp in questa direzione li conduce ad essere una fonte di innovazione per le imprese che sempre più numerose approdano al web 2.0. Se dunque l’elemento caratterizzante del barcamp è la passione per un tema, non posso evitare di immaginare l’apporto di barcamp dedicati alle start-up possa aggiungere, in un contesto di costante sviluppo di idee. In una startup vedo più che mai la passione e la connessione, di idee e capitali, per la realizzazione di un progetto vincente. In quest’ottica mi sembra interessante segnalarvi un esperimento come quello di Working Capital e stimolarvi a produrre nuove, interessanti, variazioni sul tema.

5

BarCamp: uno, nessuno, centomila modelli e nuove opportunità .  Diana Malerba .

note


Pietro Desiato

Mobile e interazioni precarie http://www.uxmagazine.it/interface-interaction-design/mobile-interazioni-precarie/

Una delle più grandi sfide che si prospetta per gli UX designer è la progettazione di prodotti, applicazioni e servizi per il mobile capaci di rispondere a esigenze e priorità nuove, che ben si differenziano da quelle derivanti dai contesti “statici”. In questo breve intervento, vorrei evidenziare come un approccio esperienziale al mobile design è una delle strade più interessanti per la progettazione di prodotti e servizi che non siano la semplice versione mobile d’interfacce già esistenti. Questo percorso inizia dalla comprensione del ruolo del contesto. Il contesto è una rete di circostanze, regole, convenzioni e, perché no, di storie. Esso è un po’ la cornice del quadro in cui ognuno di noi dipinge le proprie attività con stili più o meno diversi. E, così come le cornici, anche i contesti possono essere molto differenti fra di loro: pensiamo a quelli rigidi del controllo di sicurezza all’aeroporto oppure a quelli più elastici di un party studentesco. Un contesto, però, è anche uno spazio in cui si svolge un’interazione e sottintende perciò una dimensione esperienziale. A tal proposito, è interessante presentare il lavoro di Yi-Fu Tuan , un approccio esperienziale al concetto di spazio. Yi-Fu Tuan è un geografo un po’ particolare che ha creato un vero e proprio framework per lo studio dello spazio. I suoi studi partono dall’assunzione che ogni luogo è un insieme di esperienze e che sono queste a crearne e differenziarne le identità. Egli individua dei layer (come in una pila ISO-OSI) che a suo parere costituiscono l’esperienza di un luogo (place). In altre parole, ogni luogo sarebbe la risultante di quattro dimensioni in continua interazione l’una con l’altra. Nello specifico, la dimensione fisica (che comprende gli elementi fisico-geometrici del luogo, la sua pura fisicità); personale (e cioè l’insieme di elementi legati al ricordo e alle emozioni); sociale (le pratiche e le norme condivise da uno o più gruppi sociali); culturale (le tradizioni, abitudini e modi di fare propri di una cultura o subcultura). Con l’avvento del mobile, è necessario introdurre un’ulteriore dimensione che tiene conto dell’elevata mutabilità di questo tipo di contesto che trasforma la dinamicità in un suo tratto essenziale e caratteristico. Un contesto mobile è tale proprio perché precario e poco prevedibile, una categoria di contesto “scomoda”. Being mobile significa anche che non abbiamo lo spazio per portarci tutto dietro: il bagaglio di un utente mobile è leggero ma deve comunque contenere tutto ciò che gli serve. Lo scorso mese sono stato a New York e sono rimasto colpito da un supermercato che aveva un intero reparto dedicato ai prodotti per viaggiatori (trial products) (immagine): una perfetta miniaturizzazione di prodotti per l’igiene personale e non solo. Viene da chiedersi se per vivere e sopravvivere mobile sia sufficiente prendere ciò che abbiamo a casa e comprimerlo all’interno di una ventiquattrore.

6

Mobile e interazioni precarie .  Pietro Desiato .

note


In un interessante paper di Nadav Salvio e Jared Braiterman viene sottolineato come “[…] to design for successful mobile interactions, we must understand the overlapping spere of context in which they take place […]”.

La progettazione delle interazioni orientata al contesto mobile è ancora molto giovane e il mobile annulla alcune certezze sulle quali il design poteva fare affidamento (dopo anni di studio di static context come l’ufficio o la casa). Tuttavia, molte interfacce sono progettate come se fossero una fotocopia rimpicciolita della loro versione desktop. Il punto è che non si tratta di comprimere o replicare: è necessario ricominciare daccapo perché contesti ed utenti sono completamente differenti. I designer devono studiare processi ed interazioni più leggeri ed adattabili alla mutabilità del contesto mobile ma ciò non può prescindere da una nuova analisi degli utenti, che nella mobilità hanno richieste ed avvertono bisogni spesso completamente nuovi. Basti pensare a quanto diverso può essere il design di un’applicazione per la ricerca di un hotel o un ristorante. Mentre in un contesto statico, l’utente ha a disposizione dispostivi potenti e in grado di visualizzare una grande quantità di informazioni, in uno scenario mobile sarà necessario attuare strategie di visualizzazione diverse e orientate a mostrare solo ciò che realmente può servire in quel momento, magari sfruttando la possibilità di location-awareness, ovvero di conoscere la posizione del dispositivo e di poter comunicare esattamente quali sono gli hotel o i ristoranti nei dintorni (due applicazioni per iPhone di grande successo sono ‘Urban Spoon’ e ‘Around me’, disponibili su Apple Store). Jonas Lowgren, nel suo studio sulle qualità d’uso, individua nella

7

Mobile e interazioni precarie .  Pietro Desiato .

note


fluency un importante elemento delle interazioni mobile. La fluency è la qualità d’uso di un sistema digitale interattivo che sottintende elasticità, fluidità e malleabilità. Un prodotto fluent non è un divoratore di attenzione ma sa stare al suo posto e si fa trovare pronto solo quando serve. Essa è una qualità centrale se si pensa a un contesto mobile in cui le persone hanno poco tempo o ne hanno ad intervalli irregolari e non prevedibili. Un prodotto dotato di fluency può sfruttare tutto ciò a suo favore ed essere sempre pronto a riprendere l’interazione lì dove la si era lasciata, senza invadere altre attività. Alla luce di queste e altre considerazioni, il mobile si propone non solo come l’avanguardia dei contesti di interazione ma anche come il più personale degli scenari: sarà compito dei designer, perciò, progettare esperienze che sappiano bussare alla porta dell’utente ma senza arrecare troppo disturbo.

8

Mobile e interazioni precarie .  Pietro Desiato .

note


Federico Fasce

Il gioco funzionale http://www.uxmagazine.it/interface-interaction-design/il-gioco-funzionale/

Secondo lo psicologo Brian Sutton-Smith il contrario di gioco non è lavoro, ma depressione. Il gioco è un’attività vitale nella crescita di un essere umano. E rimane al nostro fianco per tutta la nostra esistenza, anche se spesso non ce ne rendiamo conto. Il gioco è il mezzo attraverso il quale la mente umana ricerca nuove strade e si evolve. Per questo motivo è particolarmente interessante applicare dinamiche ludiche allo studio dell’interazione. Will Wright, creatore di Sim City e di tutti i giochi della serie Sims, definisce il gioco come uno spazio di possibilità che il giocatore è chiamato ad esplorare e a conoscere, divertendosi mentre lo fa. Questo punto di vista non è del tutto nuovo, e ha il suo capostipite nell’antropologo Johann Huizinga, uno dei primi studiosi a occuparsi delle attività ludiche. Huizinga vede nel gioco un rito sociale che si consuma all’interno di un cerchio magico, uno spazio protetto nel quale vigono determinate regole, che non necessariamente corrispondono con quelle del mondo fisico. Il limite della visione di Huizinga è proprio questo totale scollamento dalla realtà. Tutta la letteratura seguente relativa ai game studies afferma invece che il cerchio magico è permeabile rispetto al reale e che influenza la nostra stessa cultura. Da questo punto di vista è facile dimostrare come anche qualsiasi sistema di interazione sia definibile come uno spazio di possibilità. All’interno dello spazio delle possibilità i giocatori si muovono e interagiscono in un particolare stato mentale, estremamente focalizzato, che lo psicologo ungherese Mihaly Csikszentmihalyi definisce come flow. Nello stato di flow la persona è concentrata sul compito da svolgere e prova un senso costante di appagamento. Csikszentmihalyi osserva come il flow sia quello stato nel quale la difficoltà dei compiti da svolgere è commisurata alle capacità di chi li svolge. Ovviamente, ogni volta che si acquisisce una nuova capacità, i compiti richiesti devono essere più complessi, in modo da evitare l’insorgere della noia. Il game designer Daniel Cook ha definito il gioco proprio come la costante acquisizione, rinforzata dal divertimento, di nuove capacità in uno spazio protetto. La skill secondo Cook costituisce l’atomo del gioco, il primo elemento sul quale costruire l’esperienza. Nel modello del game designer statunitense il giocatore interagisce con una black box (il sistema ludico) che risponde attraverso un sistema di feedback. La risposta può tradursi nell’apprendimento di una nuova skill o nel fallimento, ma serve comunque al giocatore per aggiornare il modello mentale del sistema. L’esempio forse più riuscito di approccio ludico è costituito da Flickr. Non a caso il servizio per la condivisione di fotografie è nato come gioco multiplayer, e solo successivamente si è trasformato in quello che conosciamo oggi. Flickr è un interessante caso di studio non solo per

9

Il gioco funzionale .  Federico Fasce .

note


la user friendliness dell’interfaccia, ma anche per come, attraverso un community management intelligente e una struttura semplice da usare l’approccio di esplorazione e apprendimento tipico dei giochi sia stato esteso anche alla comunità che frequenta il servizio. Quest’ultima, attraverso la creazione spontanea di gruppi di confronto, di contest e di piccoli tutorial ha innescato meccanismi di competizione e collaborazione anche nell’attività fotografica che ne costituisce la stessa esistenza. Nella progettazione della user experience in chiave ludica è vitale tenere presente questi tre elementi fondamentali: la definizione dello spazio delle possibilità, le skill che l’utente deve imparare per utilizzare l’applicazione e il divertimento che serve per rendere più efficace l’apprendimento. Su questi pilastri è possibile costruire dinamiche più complesse, che possono per esempio aiutare il progettista a gestire il conflitto che emerge naturalmente in uno spazio sociale o stimolare attività utili alla comunità, come la condivisione. Nell’approccio playful chi si occupa di UX dovrebbe assumere il ruolo di un facilitatore piuttosto che prendere decisioni definitive sugli schemi di interazione dell’utente, così da permettere un’appagante esplorazione dello spazio delle possibilità che definisce il servizio.

10

Il gioco funzionale .  Federico Fasce .

note


Ilaria Baietti e Stefano Mainetti

Enterprise 2.0: la user experience come motore dell’impresa http://www.uxmagazine.it/user-experience-design/enterprise-20-la-user-experience-motore-dellimpresa/

l fenomeno dell’Enterprise 2.0 caratterizza in modo indiscusso lo scenario attuale delle imprese italiane, e non sembra peraltro subire per il momento un ridimensionamento in seguito alla congiuntura economica attuale, rispetto alla quale può anzi rappresentare un forte vantaggio competitivo per le imprese. In questo approccio, che si occupa di favorire la condivisione della conoscenza all’interno dell’organizzazione, il coinvolgimento diffuso delle persone, la collaborazione creativa, lo sviluppo e la valorizzazione di reti sociali interne ed esterne all’organizzazione, l’utente rappresenta l’elemento centrale attorno a cui ruotano i sistemi aziendali. L’utente viene portato ad assumere un ruolo centrale nell’organizzazione con la sua capacità di cooperare, creare e generare valore attraverso la relazione con gli altri utenti: in questo modo, tutti gli aspetti riguardanti le interazioni tra utenti diventano altrettanto importanti dei contenuti. Dalla ricerca dell’Osservatorio Enterprise 2.0 della School of Management del Politecnico di Milano, che ha coinvolto quest’anno oltre 300 Executive ed oltre 160 utenti professionali, emerge che ben il 91% delle imprese hanno attivato iniziative di Unified Communication & Collaboration, vale a dire di supporto alla gestione di ogni tipo di comunicazione e collaborazione, interna ed esterna all’impresa, e circa il 51% ha attivato iniziative di Social Networking & Community, supportando la generazione e la gestione di relazioni tra le persone grazie a strumenti che favoriscono il confronto, lo scambio di opinioni e il coinvolgimento in network aziendali e non solo. L’Enterprise 2.0 porta così verso l’abbattimento della tradizionale dicotomia che vedeva da una parte le applicazioni core dei Sistemi Informativi aziendali, focalizzate sui processi e spesso caratterizzate da rigidità e da una user-experience piuttosto povera, dall’altra gli strumenti dell’informatica personale e quelli oggi offerti da Internet, caratterizzati da flessibilità e in grado di generare elevato coinvolgimento degli utenti, grazie ad user experience ricche e ben progettate. La dicotomia oggi si è fatta più evidente proprio perché questa seconda categoria di strumenti non ha un utilizzo limitato alle sole attività professionali, anzi per molti strumenti l’utilizzo prevalente è quello personale (si pensi ad esempio agli strumenti per lo sviluppo di relazioni sociali). Nell’Enterprise 2.0, poiché l’utente e le sue relazioni sono al centro di tutti i sistemi, l’utente viene considerato nella sua interezza: nel progettare i supporti si considera il fatto che l’esperienza che l’utente vive con i sistemi aziendali non può prescindere dalle modalità di interazione e relazione multimediale a cui è personalmente abituato, anche al di fuori dell’azienda. Diventa fondamentale per l’impresa individuare le funzionalità e le caratteristiche dei sistemi e dei servizi in grado di abbinare le esigenze di “produttività” aziendale alle abitudini relazionali e di interazione proprie dell’individuo.

11

Enterprise 2.0: la user experience come motore dell’impresa .  Ilaria Baietti e Stefano Mainetti .

note


Gli utenti, attraverso la fruizione crescente di contenuti, servizi e relazioni tramite supporti informatici, ma anche in base ad attitudini innate, sviluppano infatti modalità di interazione specifiche che fanno proprie indipendentemente dagli ambiti di applicazione, lavorativi o meno. Valorizzare l’esperienza che l’utente può vivere con gli strumenti aziendali significa allora progettare un sistema aziendale che tenga conto di questa “continuità” tra la user experience interna ed esterna all’azienda, vale a dire del fatto che l’esperienza è esperienza di una persona prima ancora che di un “utente aziendale”. Anche se all’interno dell’azienda l’identità e le attività delle persone sono e restano context-based, l’esperienza che gli utenti vivono è fortemente influenzata da elementi relativi alla persona stessa, alle sue attitudini, alle sue esperienze precedenti, alle sue modalità di relazione e interazione. A partire da questa prospettiva, è facilmente intuibile quali siano gli elementi da considerare per ottimizzare la user experience negli strumenti dell’Enterprise2.0, come ci hanno confermato anche le interviste effettuate per l’Osservatorio E2.0. In tempi passati la progettazione degli strumenti si è basata prevalentemente sulla valutazione dell’impatto sulle attività operative, in un’ottica di standardizzazione di strumenti e progetti. L’Enterprise 2.0 invece porta a progettare un’esperienza dell’utente i cui fattori critici di successo siano l’impatto sulle competenze, sulla socialità, e l’integrazione on e off line (continuità). L’utente che tramite il sistema aziendale ha la possibilità, oltre che di completare un task, anche di arricchirsi con nuove competenze e/o relazioni vive senza dubbio una relazione di maggior valore con l’azienda e i supporti informativi, poiché l’azienda non risponde soltanto a bisogni primari ma anche a esigenze più sofisticate. Abbiamo ad esempio osservato in alcune aziende la nascita di social network di tipo professionali (una sorta di versioni aziendali di Linked-In) in cui è possibile ricercare le persone in base alle competenze e costruire relazioni virtuali. Uno strumento di questo tipo, ad esempio, coniuga bene l’impatto operativo (l’utente trova rapidamente la persona e le competenze necessarie per suo task) con quello sulla socialità (le persone hanno la possibilità di costruirsi dei network e di esplorare il mondo di competenze della loro azienda), fornendo tra l’altro una comunicazione informale tra le persone (la richiesta di connessione tramite social nerwork è molto più semplice da attivare e priva di formalismi e o preamboli di eventuali interazioni via mail/telefono/de visu). Un ulteriore e importante elemento da considerare, per creare una esperienza d’uso impattante e positiva, è il fatto che tutti gli elementi del sistema user-centric non possono essere considerati come “compartimenti stagni”, ma devono essere integrabili con logiche coerenti. Dalle nostre osservazioni abbiamo più volte constatato come la frammentazione di diversi servizi o funzionalità rappresenti una delle principali barriere all’utilizzo di elementi delle Intranet in azienda: gli utenti hanno bisogno di un punto di riferimento in cui trovare l’orientamento necessario ai contenuti e servizi di interesse, spostandosi tra gli uni e gli altri con un solo click. Quando è chiaro all’utente cosa c’è a sua disposizione e quali risultati può ottenere con

12

Enterprise 2.0: la user experience come motore dell’impresa .  Ilaria Baietti e Stefano Mainetti .

note


queste risorse, l’esperienza d’uso è positiva e soprattutto incentiva l’utente a utilizzare ulteriormente il sistema. Se al contrario l’utente viene continuamente rinviato da un ambiente all’altro, magari in ambienti ciascuno con la sua logica di navigazione, sorgono forti barriere all’utilizzo dei sistemi. Progettare la user experience nell’Enterprise 2.0 significa quindi anche fornire all’utente un bacino chiaro e coerente da cui egli possa attingere tutte le risorse necessarie rispetto alle sue esigenze: per porre l’utente al centro dell’Enterprise occorre non soltanto considerare tutti gli aspetti di user experience, ma anche lasciare all’individuo la possibilità di discriminare dove spingersi nell’utilizzo degli strumenti e delle applicazioni (perché l’experience sia rilevante per l’utente deve essere gradevole ma anche completa e coerente con la sua identità) Non dimentichiamo che la user experience non è data dai prodotti che l’Enterprise mette a disposizione, ma dall’utilizzo che l’utente può farne e dagli impatti sulle aree di cui abbiamo precedentemente parlato. Il tema della User Experience è dunque un tema di grande importanza nelle imprese attuali, che l’Osservatorio E2.0 approfondirà ulteriormente nelle future attività di ricerca.

13

Enterprise 2.0: la user experience come motore dell’impresa .  Ilaria Baietti e Stefano Mainetti .

note


Valentino Spataro

L’arte della semplicità http://www.uxmagazine.it/user-experience-design/larte-della-semplicit/

Non c’e’ settore umano dove non si citi il termine open per indicare la trasparenza, la condivisione, la correttezza nei rapporti umani. Glasnost come termine ha avuto fortuna per poco tempo, a confronto. Software aperto, collaborazioni aperte, disponibilità all’ascolto, condivisione dei risultati ma anche dei processi formativi. Tutto questo finisce non appena si decide di scrivere le condizioni contrattuali per dare certezza ai nostri rapporti di lavoro. Si puo’ fare diversamente ? Due cose mi stupiscono: l’incapacità delle università a risolvere problemi concreti e la complessità dei contratti scritti dagli avvocati. Intendiamoci: non e’ questa la sede per parlare dell’istruzione in Italia, ma le Università forniscono strumenti essenziali, ma non sufficienti. E’ possibile che per vedere come e’ fatta una cambiale si debba andare in un negozio ? Si studiano i titoli di credito, ma una cambiale non la fanno vedere nemmeno in fotografia. Dall’altra parte ci sono gli avvocati. Conoscono le argomentazioni per impugnare un contratto, e temono di dimenticare qualcosa che possa poi essere loro imputato. Proviamo ora a dirlo in altro modo: gli avvocati temono di sbagliare come chiunque, e immaginano cosa potrebbero fare gli altri per far saltare l’accordo. C’e’ un vantaggio a scrivere lo stesso pensiero nella seconda formulazione invece che nella prima ? Svantaggi ?

I caratteri della chiarezza Partiamo dagli elementi che devono caratterizzare un contratto chiaro. Il diritto segue il mondo reale, non il contrario. Quindi se si prestano soldi, il diritto parlera’ di mutuo, di garanzie, di beni mobili, ma per noi resta prestito. E se scriviamo: “Io, Mario, ti restituisco 1000 euro che mi consegni oggi (data) con l’assegno n. (numero) della banca (banca) entro la data del (data)” abbiamo un bellissimo esempio di contratto semplice, chiaro e non interpretabile. C’e’ un trucco: ho solo descritto un fatto con le sue parole, non ho cercato di interpretarlo. Ho la ricevuta di consegna del denaro, ho il termine per la restituzione, ho l’importo: tutte cose che per il nostro codice civile sono sufficiente per farci avere ragione se il denaro non viene restituito. Abbiamo cosi’ introdotto un secondo trucco: i termini. I termini semplici, ma non equivoci, ci permettono di qualificare giuridicamente un accordo. Perche’ il contratto deve essere un accordo. I vecchi civilisti sapevano bene impugnare i finti contratti. Pensate ad un foglio firmato dalle due parti, con le obbligazioni tutte a carico di una sola. Come si chiama ? Patto leonino. Che puo’ invalidare il rapporto e mettere tutto nelle mani del giudice. Quanti contratti leggiamo fatti cosi’ ? Ce li possiamo permettere se siamo monopolisti, ne avremo anche un beneficio immediato, ma i

14

L’arte della semplicità .  Valentino Spataro .

note


costi successivi di litigiosità si pagheranno cari. Puo’ non interessarci, e allora scriviamo pure contratti che non valgono nulla, ma che servono solo da pretesto per incassare subito dei soldi. Poi pero’ almeno ricordiamoci di non firmarli quando ce li propongono. Il mondo anglosassone ha una tradizione di definizione dei termini che lentamente e’ arrivato in Italia gia’ da qualche anno. Nelle leggi o nei contratti precedono delle definizioni ufficiali, autorevoli, non equivoche. Diciamolo: sono la parte piu’ normale del contratto, la maggior parte delle volte, la parte che si puo’ capire senza rimandi ad altri commi. Le definizioni sono usate dalle assicurazioni, dalle direttive europee, dai contratti di multiproprietà o vendita a distanza e, nei contratti, vengono talvolta firmate ciascuna singolarmente per presa visione. Per non poter dire: non le avevo lette. Una volta si scriveva “le premesse costituiscono parte integrante del presente accordo”, allora sorgevano dubbi e si tornava a leggere dall’inizio tutto quello che l’occhio aveva sorvolato. Il terzo trucco e’ quindi la completezza: se non lascio equivoci, non si potra’ interpretare il contratto nel solo modo piu’ favorevole alla parte piu’ oberata. Cosi’ dice la legge. E per di piu’, per capire di cosa parlo, non si potrà riprendere una vecchia lettera inviata in sede di contrattazione, tanto per superare una condizione che non ci piace. Riepilogando: fatti chiari, termini semplici, completezza. Ma conviene ?

I vantaggi delle condizioni chiare E’ un vantaggio anche non avere svantaggi. Quali sono gli svantaggi di contratti non chiari ? Mi viene in mente un caro amico che ha installato un forum su internet. Sapete bene quanto gli italiani siano litigiosi e potete immaginarvi le preoccupazioni del mio amico. Incarica un suo consulente che fa un lavoro veramente completo: mi manda un testo di 4 pagine A4 fitto fitto con tante ipotesi tutte per potersi cautelare dalle esagerazioni piu’ diffuse e quelle meno diffuse. A leggerle mi sono messo nei panni dell’utente: mi registro lo stesso e chissenefrega, oppure, se gliela voglio far pagare, io faccio lo stesso quello che voglio io. Dobbiamo accettare che i contratti non sono eterni solo perche’ c’e’ un accordo, anche verbale, anche per fatti concludenti. I contratti hanno una durata e la collaborazione delle parti puo’ ridursi. Bisogna quindi valutare se pretendere l’adempimento e percorrere la via di una risoluzione contrattuale consensuale, con regole chiare prima che il danno sia fatto. Allora al mio amico, timidamente dico: hai messo tutto, ma e’ troppo. A te cosa interessa ? In tre punti ? La risposta e’ arrivata subito, grazie anche al ponderoso studio: non voglio rompiscatole, voglio poter mandare via chi mi va e voglio cancellare quello che non voglio stia sul mio sito. Bene: tutte cose che la legge consente. Abbiamo scritto semplicemente: “Benvenuto, lettore, ti ringrazio per essere venuto ospite sul mio forum per partecipare alle discussioni. Parliamo di … e saro’ lieto di ogni contributo costruttivo alle discussioni. Ogni scritto viene memorizzato e diffuso, mantenendo

15

L’arte della semplicità .  Valentino Spataro .

note


nascosto ip, data e ora a disposizione delle autorità in caso di abuso. Per i pochi furbi che ci sono mi devo riservare il diritto di rimuovere contenuti e sospendere account, anche se semplice segnalazione tramite l’apposito bottone presente in ogni pagina. Si applicano le condizioni generali del sito e la privacy policy.” Nel dire “ospite” ho detto tutto. Sei ospite, a casa mia, sul mio domicilio informatico. Comportati bene, l’ospite non puo’ litigare con gli altri invitati. Non rubare. Non diffamare. L’ospite queste cose a casa mia non le fa. Ma il vantaggio non sta nella brevità. Sta nel messaggio. Io sono qui per fare insieme a te questa cosa, facciamola insieme, forza, passione, entusiasmo. Sto lavorando cioe’ sulla capacità di entusiasmare chi sta con me, non pretendere che sia uno stinco di santo: sono il suo prete ? Potranno sembrare banalità, ma la collaborazione in caso di problemi (“clicca sul tasto segnala”), la disponibilità, la responsabilità per quello che si fa (tracciamento di ip, data e ora) sono tutti elementi che portano un forum ad avere successo senza nemmeno chiedere la registrazione. Ci sono metodi antispam, ma la moderazione a campione ma continuata nel tempo permette di prevenire problemi maggiori, se non quelli causati proprio da chi li vuole creare. Ecco che le riserve di poter fare come il padrone di casa ha un senso, anche secondo la Cassazione recente e meno recente proprio in materia, conformi. L’uso di termini chiari e’ quindi un vantaggio anche nei contratti. Previene le contestazioni futili. Un concetto chiaro e legale (tu sei ospite e io il padrone di casa), pur non essendo completamente definito in tutti i suoi aspetti, conferisce pero’ proprio per la sua elasticità un potere maggiore al titolare del forum che pero’ quel potere deve esercitare. Non siamo perfetti e qualcuno ci prova sempre. E’ in quei casi che il contratto deve darmi i mezzi per difendermi. Senza insistere sulle dichiarazioni di autodifesa, preferendo invece insistere sulle azioni di controllo e di allontanamento. Perche’, alla fin fine, molto spesso gli sconosciuti che visitano servizi telematici a distanza, cercano qualcuno con cui sfogarsi o parlare. Siate disponibili, ma inflessibili con gli intolleranti. Sono solo loro il problema, e sono sempre pochi rispetto ai tanti clienti contenti che vi potete portare dietro qualsiasi iniziativa. Volete un compitino semplice semplice ? Leggete le condizioni contrattuali di Facebook.com e di FriendFeed.com, due servizi 2.0 che ho studiato di recente per LegalGeek.it. Leggete anche le condizioni contrattuali di YouTube.com e di Blip.tv, entrambi servizi di condivisione video. Ma non limitatevi a questo: guardate come vengono proposte le varie opzioni (upload, condizioni d’uso, tag, privati/pubblici) tutte rilevanti ai fini del sinallagma contrattuale. Poi mettete insieme programmatori, amministratori e consulenti. Se il contratto trasmette paura, alcuni utenti ne approfitteranno. Se siete chiari nel riservarvi il diritto di allontanare chi mette a repentaglio il vostro lavoro, vi daranno ragione. Ma vi contesteranno se cominciate a spaccare il capello in quattro. C’e’ modo e tempo per farlo, ma non nelle condizioni legali d’uso dei software e dei servizi online.

16

L’arte della semplicità .  Valentino Spataro .

note


Vi sembra una visione utopistica ? Rileggete i quattro contratti sopra citati, e NON chiedetevi se e’ il contratto peggiore che rende l’iniziativa migliore. Chiedetevi invece quale e’ il contratto che vi permette di gestire meglio i problemi nella vostra attività. Questo e’ il vantaggio di un contratto chiaro. Tutti sanno sempre con chiarezza quello che possono e quello che non possono fare. Quindi sara’ piu’ facile gestire i problemi, con la giusta elasticità, e con la giusta determinazione nell’applicare un criterio chiaro e trasparente.

17

L’arte della semplicità .  Valentino Spataro .

note


Luca Simeone

La tipografia interstiziale http://www.uxmagazine.it/visual-communication-design/la-tipografia-interstiziale/

Nuovi materiali e tecniche di produzione gettano le basi per una massiva diffusione di display interattivi, che nei prossimi anni verranno utilizzati sempre più nella pratica architettonica, come rivestimenti esterni o nel design di interni (per esempio come carte da parati elettroniche). La selezione di contenuti e di esperienze per questa (inedita) quantità di superfici elettroniche pone delle grandi sfide per gli interaction designer. In che modo questi display distribuiti comunicheranno con l’utente? Quali contenuti dovranno essere veicolati e in quali contesti? Quali saranno le modalità di interazione con l’utente? Le risposte a questi quesiti costituiscono un campo di ricerca estremamente esteso e, in anni recenti, team interdisciplinari hanno già ipotizzato alcuni prototipi e soluzioni, molto diversi tra loro a seconda di luoghi, tempi, contesti di fruizione. Già nel 2002, ad esempio, R/GA, una delle più importanti agenzie di design interattivo, era stata coinvolta nella progettazione del back-end tecnologico della facciata elettronica del palazzo Reuters, a New York, che gestiva la visualizzazione di feed video con le news da diverse locations sparse in tutto il mondo. Il diplay Reuters emerge con la sua forma tondeggiante dal caleidoscopio visuale dei centinaia di schermi incastonati a Times Square. Una delle piazze più frequentate del mondo, con decine di milioni di passanti all’anno appartenenti alle culture più diverse, diventa quindi il palcoscenico di un’affollata esibizione di segni elettronici. Questi interventi di architettura interattiva impongono un’attenzione particolare alle componenti percettive e cross-culturali degli utenti, che abitano gli spazi urbani mossi da desideri e stati d’animo personali: il caos percettivo e cangiante di milioni di pixel sempre accesi può suscitare in alcuni meraviglia, in altri fastidio, oppure disorientamento. Le persone che attraversano Times Square possono voler cercare rapidamente delle informazioni segnaletiche, oppure turistiche, oppure voler godere dello spettacolo, oppure voler gettare uno sguardo alle ultime news. Oggi, la maggior parte di questi display ha un proprio palinsesto, per così dire, generalista: raramente i display hanno un grado di interattività tale da consentire una personalizzazione delle informazioni visualizzate in funzione del singolo passante e dei suoi codici linguistici, socio-culturali o delle sue intenzioni. Una massiva distribuzione di display come in Times Square sta diventando un panorama sempre più comune, e non solo nelle arterie delle grandi città americane, ma anche negli spazi architettonici, sia esterni sia interni, degli edifici di molte metropoli di tutto il mondo. Il risultato percettivo suscitato nei passanti è, spesso, un’overdose di segni elettronici.

18

La tipografia interstiziale .  Luca Simeone .

note


Nei prossimi anni si svilupperanno grammatiche e linguaggi per disegnare le trame comunicative e interattive di questi panorami elettronici (videoscapes), formati da pixel o immagini proiettate. A mio avviso, una delle tendenze potrebbe andare verso una centralità estetica della dimensione tipografica. Certe tipologie di design, ad esempio quello funzionalista o minimale, ci hanno abituati al biancore di superfici vuote in cui campeggiano poche parole, o un’indicazione topografica o segnaletica. Sicuramente, questo design segnaletico continuerà a giocare un ruolo importante nei palinsesti dei videoscape. Tuttavia, credo che si assisterà anche al recupero di una dimensione narrativa e esperienziale della tipografia. Vorrei quindi presentare alcuni artisti che, prima dell’avvento massivo dei videoscapes, hanno lavorato utilizzando in maniera originale la tipografia nell’environmental design. I lavori che presento non utilizzano tecnologie interattive, ma costituiscono delle suggestioni interessanti per un uso creativo del lettering nell’interaction design.

Paula Scher Paula Scher è una delle più importanti graphic designers americane. Dopo aver progettato pluripremiate cover per CBS, Atlantic Records e un periodo come art director in Time, ha fondato il proprio studio, che si occupa, tra l’altro, di environmental design. Nel 2001, le facciate del New Jersey Performing Arts Center diventano una tela per rappresentare la trama di attività che si svolgono all’interno: le parole si rincorrono sui muri, i tubi e i balconi, mostrando il felice interplay delle discipline performative, così come si incrociano probabilmente negli spettacoli messi in scena nell’edificio. L’enormità delle lettere, fuori la scala abituale, suscita un gioioso effetto dirompente. All’interno del Duke Theatre, le parole debordano ancora stavolta sui pavimenti e si rincorrono tra le giunture, anche di ambienti diversi. Il pavimento dell’ascensore è una superficie fluttuante che forma delle aggregazioni segnaletiche con i suoi movimenti (floor 1, 2, 3…). L’ingresso nelle varie stanze è preceduto da aree colorate sul pavimento su cui sono impressi nomi e funzioni delle stanze. La tipografia diventa un elemento funzionale intessuto nella dimensione estetica dell’edificio. Parole incorporate che si fanno estetica segnaletica e la cui inusuale disseminazione mette in gioco le grammatiche dell’abitare. Nel palazzo Bloomberg la tipografia si libera in tutta la sua liquidità e si dispiega negli interstizi, occupando spazi irregolari. I numeri dei piani sono letteralmente incastonati nelle angolature, si arrampicano sugli scalini, attraversano le porte come fantasmi di colore. Tipografia interstiziale, i cui pieni e vuoti disegnano traiettorie visive indisciplinate.

E-types E-types è uno studio di graphic design danese, che in alcuni progetti ha manifestato un’attenzione particolare verso un’estetica tipografica minimale, in cui grappoli di lettere (o brevi frasi) si rapportano a campi vuoti.

19

La tipografia interstiziale .  Luca Simeone .

note


In questo caso, le stanze progettate per l’Hotel Fox a Copenhagen evidenziano l’uso di una tipografia ubiqua, che si dispiega sui muri, si rincorre da un angolo all’altro, si posa sulle lenzuola. Micronarrazioni accompagnano lo sguardo dell’ospite nell’esplorazione delle varie superfici. Dati aneddotici, piccole storie o nonsense: le stanze sono abitate da pillole narrative che riempiono l’ospite di curiosità. Narrativa interstiziale, da consumare in pochi secondi come un haiku metropolitano. In conclusione, quali spunti un interaction designer potrebbe trarre dagli esempi sopracitati per progettare le superfici interattive dei videoscapes? Alcuni tratti da esplorare potrebbero essere: - l’impatto percettivo di un lettering di dimensioni non abituali - lo sfruttamento della dimensione estetica del design segnaletico - il rapporto tra segni grafici e campiture vuote di sfondo, in cui il minimalismo può costituire il palcoscenico ideale per micronarrazioni - il superamento del concetto di schermi elettronici come aree geometriche regolari (perlopiù rettangolari o quadrate): i nuovi display interattivi potranno dispiegarsi in maniera liquida e irregolare tra gli interstizi di superfici diverse, anche calpestabili

20

La tipografia interstiziale .  Luca Simeone .

note


Daniele Cerra

No pain no game: che sudata giocare! http://www.uxmagazine.it/user-experience-design/pain-game-che-sudata-giocare/

Con l’introduzione nel mercato videoludico di Wii, ormai da oltre tre anni Nintendo ha rivoluzionato il concetto di videogame e console di gioco casalinga. Mettere al centro dell’esperienza le inter-azioni fisiche compiute dai giocatori piuttosto che lo schermo della TV controllato da millimetrici movimenti dei pollici, ha effettivamente abbattuto alcuni schemi classici e luoghi comuni tipici della percezione del videogame. E il game design trasforma l’interazione in sforzo fisico e lo sforzo fisico in allenamento, ecco che esplode un fenomeno di costume: il fitness-game. Non solo con Wii ai genitori è stato definitivamente negato l’alibi “non compro ai miei figli una console di gioco perché altrimenti si rimbambiscono e ingrassano sul divano”, ma, grazie a giochi e ad hardware quali Wii Sport, Wii Fit, la balance Board e i più recenti titoli dedicati alla forma fisica quali Il mio coach di Fitness, EA Sport Active o Jillian Michaels Fitness Ultimatum 2009, ne sono diventati i primi e più assidui utilizzatori. Questo è accaduto, oltre che per innegabili questioni di moda, perché i videogiochi e i dispositivi legati ai fitness-game sono stati pensati appositamente per restituire esperienze d’uso perfette per risolvere precise esigenze della società contemporanea. Se non si ha il tempo (il denaro, l’assiduità o la spregiudicatezza) per andare in palestra tutti i giorni, se di inverno la corsetta mattutina nel parco sotto casa diventa un’impresa sadomasochistica che ben poco a a che fare col il mantenersi in forma, quale migliore sostituto per bruciare qualche caloria di troppo o mettere in moto i muscoli rachitizzati dalla vita sedentaria se non una console di gioco collegata alla TV? Certo, per quanto analogico possa essere il sistema di interazione della Wii - e tra sensori di movimento, accelerometri e bilance misurabaricentro l’analogia può diventare davvero significativa - non si può considerare un totale sostituto delle attività fisiche vere e proprie, ma sicuramente un ottimo surrogato sì. Wii Fit si preoccupa così di monitorare il nostro peso giorno dopo giorno, riprendendoci quando non manteniamo i nostri obiettivi di calo ponderale e dandoci consigli sul mantenerci in forma. Il vecchio, ma sempre validissimo, Wii Sport ci permette così di sfogarci fino al punto di sudare dandoci dentro con sport come il tennis o la boxe, mentre Il mio coach di fitenss registra in maniera maniacale le nostre misure e redige un programma di allenamento che ben pochi personal trainer avrebbero le capacità, o semplicemente, la voglia, di preparare appositamente per noi e di seguire nel tempo. Dallo yoga svolto seguendo la guida interattiva e monitorato tramite i sensori di controllo del baricentro della balance board, al footing simulato in un parco (decisamente molto più stimolante di qualsiasi tapis roulant da palestra), le attività di allenamento che con i giochi adatti possiamo svolgere nel salotto di casa sono davvero numerose.

21

No pain no game: che sudata giocare .  Daniele Cerra .

note


Un fitness-game che si rispetti restituisce esperienze interattive significativamente credibili, offre spunti di allenamento stimolanti e adattabili, spiega tecniche efficaci in maniera assolutamente professionale e soprattutto si inserisce con costanza nelle abitudini di vita quotidiana, indipendentemente dalle classiche condizioni impedienti che costituiscono i più diffusi alibi che giustificano la pigrizia. Certo, se si considera che lo scopo di un videogame di questo tipo è quello di farci sudare, ecco che i game designer si trovano di fronte a una sfida decisamente ardua.

22

No pain no game: che sudata giocare .  Daniele Cerra .

note


Matteo Ronchi

Contenuti 3D all’interno di siti Flash, una nuova era di skip-intro? http://www.uxmagazine.it/visual-communication-design/contenuti-3d-allinterno-di-siti-flash-unanuova-era-di-skipintro/

Adobe Flash, prima Macromedia Flash, nasce nel 1996 come evoluzione da future ‘splash animation’ e fin da subito si pone come strumento principe per creare e rendere fruibili online animazioni vettoriali di grande impatto visuale. Già le prime versioni di Flash offrono alcuni limitati strumenti di scripting agli sviluppatori che però vengono sfruttati molto poco, essendo inizialmente Flash un prodotto destinato all’ emergente figura dei web designer. In questo periodo storico la figura professionale dell’interaction designer è ancora in fase di gestazione, diventerà realtà concreta negli anni a venire man mano che la comunicazione multimediale diventerà sempre più preponderante. Nel 1996 e fino agli inizi del nuovo millennio la scarsa, se non inesistente, disponibilità di connessioni a banda larga limita molto i web designer nelle scelte grafiche e comunicative per ovvi motivi di tempi di fruizione da parte dell’utente finale. Con l’avvento delle connessioni ISDN e successivamente ADSL il nuovo millennio porta come dote ai web designer la possibilità di poter esprimere la propria creatività senza dover fare i conti con i forti limiti imposti dalla scarsa connettività precedentemente disponibile. Nel frattempo le tecnologie web si sono evolute offrendo nuove funzionalità e tecnologie che ampliano di molto gli orizzonti di ciò che è possibile offrire come contenuto dell’esperienza di navigazione online di un utente. L’aumento della diffusione di connettività a banda larga porta con se un’ondata di siti web caratterizzati da un uso esagerato di animazioni vettoriali e da pressoché onnipresenti animazioni iniziali. Questo periodo storico è per l’appunto caratterizzato dai siti ‘skip-intro’ di ogni genere: è possibile trovare animazioni e video introduttivi come apertura di siti e portali dei più diversi generi. Le animazioni in apertura sono un vero e proprio ‘must’, non è praticamente possibile trovare siti graficamente ben curati e propensi all’innovazione che non propongano la propria interpretazione di animazione iniziale. Anche siti più tradizionali, orientati a una comunicazione tecnica o istituzionale, tendono a offrire animazioni iniziali. Dopo i primi mesi anche gli utenti meno assidui della rete cominciano a non sopportare più le animazioni iniziali dei siti, non solo quelle note ma anche quelle di siti mai visitati prima. La diffusione quasi esasperata di animazioni introduttive ha generato come effetto collaterale nell’utente web l’abitudine, ormai molto radicata, di cercare istintivamente il pulsante ‘skip-intro’ con l’intento di saltare il più in fretta possibile l’animazione iniziale per poter accedere ai contenuti ai quali si è realmente interessati.

23

Contenuti 3D all’interno di siti Flash, una nuova era di skip-intro .  Matteo Ronchi .

note


Quest’effetto collaterale purtroppo ha limitato di molto uno strumento, le animazioni iniziali, che invece usato adeguatamente potrebbe offrire diverse possibilità interessanti nella scelta del tipo di comunicazione desiderata. Se pensate a quanti siti, tra quelli che visitate più di frequente, utilizzano delle animazioni iniziali vi renderete conto di come ormai questo strumento di comunicazione venga pressoché ignorato dalla maggioranza degli sviluppatori web. Molti siti che si presterebbero all’uso di animazioni iniziali, per mascherare il caricamento di contenuti pesanti per esempio, spesso preferiscono implementare delle semplici barre di caricamento per evitare di perdere il fuoco dell’attenzione dell’utente. In fondo è di questo che stiamo parlando: come mantenere viva l’attenzione dell’utente sul nostro prodotto il più a lungo possibile. Nell’ultimo anno il web ha iniziato a scoprire l’interazione 3D in tempo reale. Dapprima confinata al solo mondo dei videogiochi di ultima generazione, la grafica 3D ha cominciato lentamente a sconfinare nel mondo dei siti web di nuova generazione. Quest’apertura al 3D in tempo reale nel web è dovuta a computer e schede grafiche sempre più potenti e performanti e alle più recenti innovazioni apportate al Flash player e allo sviluppo di siti web dinamici. Il Flash Player dalla versione 9 ha completamente ridefinito i propri limiti e le proprie possibilità, offrendo una nuova macchina virtuale con prestazioni eccezionali e un nuovo linguaggio di programmazione: Actionscript 3. Queste due novità hanno reso possibile la scrittura di motori di elaborazione 3D in tempo reale per siti e applicazioni Flash. Nonostante il 3D in tempo reale in applicazioni Flash non possa disporre di risorse hardware dedicate, ma resti un’implementazione puramente software, i risultati che è possibile ottenere sono in ogni modo degni di nota. Fino a pochi mesi fa il 3D in tempo reale in Flash era accessibile solo a una minoranza di sviluppatori con capacità di programmazione molto avanzate, ma ora con il crescere dell’interesse verso questa tecnologia stanno nascendo soluzioni usabili anche da utenti più orientati alla grafica che alla programmazione. Inoltre da poche settimane anche Google ha scoperto le sue carte rilasciando un motore di elaborazione 3D in tempo reale per sviluppatori Javascript: O3D. La comunità di sviluppatori Ajax è molto più ampia di quella legata al mondo flash e quindi l’aumento di contenuti 3D in tempo reale nel web è destinato a crescere notevolmente nei prossimi mesi. Un possibile rischio è che la comunità degli sviluppatori web ricada in dinamiche simili a quelle dei siti ‘skip-intro’. L’interazione 3D in tempo reale non è ovviamente un candidato ideale per animazioni d’apertura di un sito ma è uno strumento potente che ingolosisce lo sviluppatore con il rischio di farne diventare l’uso un abuso. Il 3D in tempo reale apre nuove strade inesplorate nel mondo della comunicazione interattiva sulla rete: interfacce di navigazione 3D, interfacce a presentazione di contenuti progressiva in funzione della propria posizione in contesti virtuali e molto altro ancora. Il punto focale è che il 3D in tempo reale si presta a diversi possibili impieghi ma non a qualsiasi impiego. Come tutte le tecnologie è uno strumento

24

Contenuti 3D all’interno di siti Flash, una nuova era di skip-intro .  Matteo Ronchi .

note


e come tutti gli strumenti, se usato nel modo appropriato, può portare a risultati notevoli. Il rischio è di usare erroneamente questo strumento portando gli utenti web ad associare interfacce 3D in tempo reale a perdita di tempo, fruizione confusa di contenuti e così via. Se non si vuole ripetere l’esperienza dei siti ‘skip-intro’ è necessario che gli sviluppatori di comunicazione sulla rete: creativi e programmatori si avvicinino al 3D in tempo reale progressivamente, imparandone pregi e difetti e cercando d’inserirlo gradualmente in linee produttive già assodate e solide. Così facendo si accompagnerà l’utente verso la conoscenza e la fiducia in questo nuovo potente strumento di cui ora disponiamo.

25

Contenuti 3D all’interno di siti Flash, una nuova era di skip-intro .  Matteo Ronchi .

note


Luca Mascaro

Un nuovo approccio al design agile http://www.uxmagazine.it/information-architecture/nuovo-approccio-al-design-agile/

La progettazione centrata sugli utenti (UCD) nasce come definizione diversi anni fa per organizzare in un processo strutturato, in un contesto dove fare software voleva dire lavorare su grandi sistemi molto complessi e strutturati. Per fare un’esempio storico buona parte delle formalizzazioni fatte dall’ISO o da associazioni come l’UPA sono state fatte negli anni precedenti e di inizio dell’era di internet. In ogni caso il processo di progettazione centrata sugli utenti e soprattutto i metodi in essa contenuti nascevano principalmente per prevedere tutto ciò che all’utente sarebbe potuto servire e come avrebbe voluto utilizzare il software. Purtroppo (o per fortuna) l’avvento del web nella sua forma odierna ha dimostrato i limiti di questa via in quasi tutte quelle applicazioni che richiedono una grande flessibilità, ma qual’è l’alternativa? Per circa 10 anni progettisti ed ingegneri interessati all’HCI si sono posti questa domanda cercando di adattare il processo originale verso una sua forma più snella. Essendo che lo UCD portava comunque un innegabile vantaggio in termini di aumento dell’usabilità, diminuzione dei cambiamenti di requisiti e aveva comunque delle caratteristiche minime di flessibilità date dalla sua capacità di iterare verso l’inizio del nuovo secolo sembrava essersi raggiunto un buon compromesso con quell’insieme di tecniche e metodologie integrative che oggi vengono chiamate “user experience design” (UXD). Con questo nuovo approccio al design ci si avvicinava parecchio alle esigenze di tutti quei progetti software per applicazioni e portali online che richiedevano un esperienza d’uso gradevole, semplice ed efficace (e non unicamente concentrata sull’usabilità) ed allo stesso tempo una minima capacità di evolvere nel tempo. Nel 2004 però, con l’avvento del 2.0, emerse a livello di design e gestione del prodotto/servizio una nuova tendenza chiamata perpetual beta che in pratica richiedeva allo stesso di continuare ad evolvere a ciclo continuo seguendo i feedback portati dagli utenti direttamente sulla versione rilasciata al pubblico. Questa novità richiedeva un’ulteriore integrazione allo UXD/UCD in quanto il ciclo di sviluppo e di vita di una versione poteva arrivare a durare solo poche settimane prima di evolvere.

L’introduzione dell’agile nel design Questa necessità di rispondere ad un cambiamento continuo rappresenta oggi il livello massimo di flessibilità richiesta al mondo del design dell’esperienza d’uso e una possibile risposta ci è stata data dal mondo dello sviluppo software che doveva realizzare tecnicamente questi servizi. Il mondo dello sviluppo ha infatti trovato una via per rispondere al continuo cambiamento attraverso le metodologie agili.

26

Un nuovo approccio al design agile .  Luca Mascaro .

note


Le metodologie Agili nascono sulla base di una serie di principi tecnici e umanistici molto semplici permettono di accettare e gestire un cambiamento continuo dei requisiti. In pratica si potrebbero riassumere tali medotologie nell’idea di organizzare il lavoro in tanti piccoli cicli iterativi, molto focalizzati su pochi punti, dove persone “concentrate” e “competenti” cercano di risolvere problemi nel minor fattore di rischio possibile per il progetto. Queste ultime permettono di fatto di cambiar rotta a piacimento su un progetto (seguendo dunque le esigenze degli utenti) in maniera relativamente rapida (il che non vuole dire però che il servizio completo si ottenga più velocemente) e senza compromettere l’impianto del progetto stesso elidendo così in parte il rischio di fallimento. Data l’apparente idoneità di questo approccio il mondo del design da un paio di anni lo sta integrando nei suoi progetti sperimentando successi ma anche fallimenti ed iniziando oggi a comprendere quali sono le criticità di questo approccio. Infatti se l’adozione di principi di agilità aiuta l’UXD a muoversi nel mondo di questi servizi il continuo cambiamento senza delle basi progettuali solide e senza una strategia di lungo termine ha portato più volte il risultato del progetto a diventare un po’ un’aberrazione di se stesso dove l’utente pur ricevendo le singole funzionalità secondo i suoi desideri si trova in un’ambiente ostico che gli cambia spesso sotto i piedi con ovvi problemi di usabilità. Anche nel piccolo mondo del mio team ci siamo resi conto più volte di come una gestione puramente tattica, giorno per giorno, di un progetto può portare a delle soluzioni non ottimali e dunque nell’arco degli ultimi mesi ci siamo interrogati su come si potrebbe fare evolvere ulteriormente il processo UXD.

Un nuovo processo “agile UXD”

Osservando gli errori commessi ed i risultati che ottenevamo ci rendevamo conto di come lo UXD/UCD tradizionale ci portava una serie di vantaggi di qualità e controllo che si perdevano nell’agile puro a vantaggio di una flessibilità estrema. La riflessione che è emersa a quel punto è però la constatazione di come questi due approcci così in antitesi (uno completamente strategico e l’altro tattico) sarebbero stati molto più efficaci nel seguire le richieste degli utenti se fossero stati fusi in un unico approccio.

27

Un nuovo approccio al design agile .  Luca Mascaro .

note


L’utente infatti non ci chiede altro che ambienti consistenti e coerenti dove mano a mano emergono funzionalità sviluppate secondo le sue esigenze. La cosa curiosa è che l’ambientazione consistente nel tempo è una caratteristica data dalle prime fasi dello UCD mentre la capacità di evolvere si ottiene bene nell’agile dopo i primi cicli di “rodaggio”. L’idea di processo che abbiamo dunque sviluppato e che stiamo testando con successo è quella di un processo “agile UXD” che durante le prime fasi più tradizionali si occupi di comprendere bene le macroesigenze degli utenti, definire alcuni obiettivi ed una strategia per raggiungerli. Il risultato di questa fase di ricerca e definizione viene consolidando in un macro-progetto del sistema che funge da inibitore dell’approccio agile che viene poi perseguito nel tempo. Questo nuovo processo permette di fatto di rispondere a standard qualitativi più alti a scapito di un inferiore accellerazione iniziale, accettabile comunque in un mercato che continua a richiedere sia flessibilità sia qualità.

28

Un nuovo approccio al design agile .  Luca Mascaro .

note


Dafne Gobbi

Morte e internet: le conseguenze http://www.uxmagazine.it/innovation-design/morte-internet-le-conseguenze/

Negli ultimi anni abbiamo assistito al boom dei Social Network. Noi utenti della Rete abbiamo cominciato a crearci i nostri spazi personalizzati, i nostri account personali, e ciascuno ha ora il proprio mondo virtuale. Ci siamo iscritti su molte piattaforme e abbiamo creato profili di ogni tipo, senza curarci di quel che sarà della nostra vita privata un giorno che saremo morti. Come si comporteranno gli altri utenti davanti al fatto che nella vita reale non ci siamo più, mentre online sì? Ultimamente, mi sono imbattuta in un caso di questo tipo. Volendo organizzare una rimpatriata della scuola elementare, ho cercato su Facebook i nominativi dei miei vecchi compagni. Tutti hanno accettato la mia richiesta d’amicizia tranne uno. Perplessa per il suo mutismo, ho preso a scrivergli messaggi quasi quotidiani. Solo dopo 3 settimane ho scoperto il motivo del suo silenzio: il mio compagno di classe era deceduto. La medesima questione è stata motivo di discussione tra Luca Mascaro, Franco Papeschi e la sottoscritta, durante lo scorso Lift di Ginevra. Il confronto tra noi è stata molto stimolante e quella che segue ne è una delle soluzioni raggiunte.

Premessa Nel mondo virtuale la cancellazione o l’abbandono di un profilo non sono visti in modo positivo. Ogni Social Network cerca di rendere il più difficile possibile la chiusura di un profilo utente poiché perdere l’utente significa danneggiare la rete di contatti che ruota attorno ad esso, attuali o futuri. Questo comportamento lo osserviamo anche nel meccanismo di notifica. Quando ricevo una richiesta di amicizia mi arriva una mail di notifica. Questo messaggio di avviso arriva solo nel caso io abbia una richiesta di contatto e mai quando qualcuno mi elimina dal suo profilo. Questo è già una parte del problema, poiché dimostra che il meccanismo di relazione funziona a senso unico notificando solo il positivo dell’esperienza online. Questo è uno dei motivi per cui in caso di morte non è accettabile la cancellazione del profilo di un utente perché porterebbe il Social Network a ridurre la rete di contatti tra le persone.

Il problema Cosa succederà tra 20 anni quando ci saranno molti profili inattivi? Le persone defunte in Rete vengono considerate utenti attivi? Qui di seguito abbiamo analizzato il problema da due punti di vista, quello economico e quello umano.

Aspetto economico Facebook, il Social Network più utilizzato ad oggi, conta 200 milioni di utenti iscritti. Se cerco Mario Rossi, riceverò 515 risultati. Io presuppongo che tutti questi profili, ottenuti dalla mia ricerca, siano

29

Morte e internet: le conseguenze .  Dafne Gobbi .

note


di persone reali e quindi vive. Ma non ne c’è la certezza di questo dato. E’ quindi lecito presupporre che tra i 515 profili, ce ne siano di persone defunte. Alla luce di questo dato, ci si domanda: è corretto dividere i profili degli utenti di un Social Network, tra utenti vivi e utenti defunti? Ad esempio, se la Svizzera dovesse lanciare un nuovo servizio, calcolerà sicuramente le proprie risorse in base alla popolazione attiva e quindi viva che è di circa 7 milioni di abitanti. In questo conteggio verosimilmente i deceduti non verranno contemplati poiché non saranno futuri fruitori del servizio offerto. Una volta appurato che i profili di persone defunte sono di fatto utenti non più attivi, ci si accorge di una cosa interessante: Il profilo continua a generare attività in maniera indiretta e pageview, ottenute ad esempio dai cari che continuano a visitare le pagine o chi, per errore, si imbatte nel profilo. In questo modo la persona, anche se defunta, risulta comunque un utente d’interesse per il Social Network: la pubblicità sulle sue pagine potrebbe diventare completamente nuova, legata ad esempio alla commemorazione e altre tipologie che al momento non sono così diffuse.

Aspetto umano Quello che ho potuto osservare sul profilo del mio compagno di classe deceduto è stato che, piano piano, gli amici ed i familiari esprimevano pensieri di condoglianze, messaggi di saluto ed ogni tanto parlavano in modo diretto all’utente morto. Questo sistema di gestione del profilo funziona bene se le persone che scrivono sanno che l’utente è defunto. Diversa invece è l’esperienza di navigazione per un utente che non è a conoscenza del decesso del contatto. Oggigiorno non c’è nulla che contraddistingua il profilo di un utente vivo da quello di uno morto. Sarebbe doveroso trovare un sistema di notifica per esempio un’icona che faccia capire che l’utente è deceduto ed eventualmente un messaggio che giunga ai contatti dell’utente. Una possibile soluzione Una soluzione sarebbe quella di creare un “tutore” di noi stessi, un super account che correli tutti i nostri profili online ed i blog personali. L’utente potrebbe scegliere tra tre opzioni di come i suoi account verranno visti dagli altri: 1) Rendere il profilo statico, semi oscurato. Una pagina statica che attesta l’esistenza della persona, ma che ne protegge tutti i dati, rilevando solo una fotografia (scelta dall’utente) e la data di decesso con, eventualmente, un messaggio. 2) Profilo visibile al 100%. Questa scelta permette ai contatti di poter rileggere o rivedere foto del passato, senza però aver la possibilità di aggiungere nuovi contenuti. 3) Completa possibilità di interazione con il profilo del deceduto. Questa scelta permette di scrivere frasi di condoglianze, pensieri e commenti a tutti gli amici del profilo. Dunque l’attività continua malgrado la persona sia morta.

30

Morte e internet: le conseguenze .  Dafne Gobbi .

note


Tutte e 3 le possibilità contrassegnate con l’icona e la data di decesso. Questo account-testamento sarà gestito da altre persone. La persona (ancora in vita) creerà questo “account-testamento” e sceglierà un numero fidato di persone alle quali darà i dati d’accesso. Gli utenti scelti vengono ordinati per gerarchia: se il primo “incaricato” è impossibilitato ad aggiornare il mio “account-testamento”, subentrerà il secondo e così via.

Come funziona? Il giorno che sarò morto, il primo incaricato tra le persone che ho scelto dovrà: - entrare nel mio account testamento - leggere le mie ultime volontà - inserire la data di decesso - aggiornare la foto secondo i miei voleri - inserire un eventuale messaggio - impostare una delle 3 modalità del mio profilo (vedi sopra) L’attività del tutore è quella di trasmettere i voleri dell’utente in questione e non quella di gestire i suoi Social Network. Non è funzionale chiudere un profilo da nessun punto di vista, né per il marketing, poiché ne danneggerebbe il network, né per l’utente perché per le persone è importante lasciare una traccia. Penso che questo account-testamento possa risolvere il problema, poiché è accessibile da diverse persone e permette di aggiornare i profili online della persona defunta. Personalmente trovo un po’ inquietante l’idea che dopo la mia morte i miei profili rimangano attivi ma non gestiti da me. Con il super account sarei invece in grado di perpetuare il mio ricordo online nel rispetto però della mia privacy.

31

Morte e internet: le conseguenze .  Dafne Gobbi .

note


Gianluca Brugnoli

Progettare il sistema dell’esperienza utente http://www.uxmagazine.it/information-architecture/progettare-il-sistema-dellesperienza-utente/

Progettare l’esperienza utente non è cosa semplice. Soprattutto in tempi in cui l’innovazione tecnologica e l’evoluzione dei relativi comportamenti umani corrono a grande velocità, una delle cose più difficili del progetto è capire proprio in cosa consista l’esperienza utente, cosa va progettato e perché. Quello che invece (più o meno) sappiamo è come l’esperienza utente può essere analizzata e progettata, quali sono le competenze in gioco e come arrivare passo dopo passo alla soluzione del puzzle.

Le nuove sfide La progettazione dell’esperienza utente è un ambito professionale e scientifico ancora piuttosto giovane, attraversato da accese discussioni su contenuti e confini disciplinari e professionali che dovrebbero caratterizzarlo. Tuttavia lo scenario di contorno è in costante e veloce evoluzione e introduce nuove sfide per i progettisti, che dovranno certamente pensare nuovi strumenti e approcci al problema. Prima fra tutte la sfida della convergenza tra design digitale e industrial design, tra hardware e software, tra applicazioni e servizi, che a volte sfocia perfino nella progettazione degli spazi (interni ed esterni) in cui l’esperienza avviene. In questo caso la sfida più grossa è quella della multicanalità e della multidimensionalità dell’esperienza, e di quelle che Joel Grossman chiama “esperienze ponte”. L’esperienza oltre lo schermo. L’interazione non avviene più soltanto con un’interfaccia grafica usando un mouse. Sul mercato sono ormai diffusi dispositivi dotati di schermi a contatto e sensori di movimento e di posizione che permettono interazioni più intuitive, innovative e sofisticate, con relativi impatti sull’esperienza utente. Guardando avanti nel futuro (ma non troppo), allo scenario degli Spimes delineato da Bruce Sterling, avremo continue interazioni basate su sensori ambientali, sparsi fisicamente nello spazio in cui ci muoviamo, in grado di manipolare flussi di dati senza nemmeno che l’utente debba compiere azioni volontarie. La pervasività. I tempi del PC come unico e statico centro dell’esperienza utente stanno tramontando. Oggi grazie all’esplosione delle reti e dei dispositivi mobili l’utente tende a interagire con molti servizi senza vincoli di spazio e di tempo, in contesti e situazioni differenti, magari con diversi strumenti connessi in rete. In questo caso l’esperienza utente avviene all’interno di sistemi d’interazione, toccando e collegando molteplici punti di contatto che appartengono a servizi e applicazioni diverse. Infine, lo User Centered Design non è (sempre) sufficiente. A vari livelli è in corso un dibattito critico sul UCD, incolpato di essere una tecnica troppo tattica, a volte conservativa, che impedisce l’innovazione e la creatività. Senza entrare troppo nell’argomento (che richiederebbe un articolo a parte), non c’è dubbio che l’UCD non

32

Progettare il sistema dell’esperienza utente .  Gianluca Brugnoli .

note


può dare, e probabilmente non deve, tutte le risposte di un progetto, ma va usato insieme ad altri strumenti. Una direzione alternativa è il paradigma Activity-Centered, al quale ha aderito entusiasticamente (forse anche un po’ troppo) lo stesso Don Norman. Nella letteratura sono spesso indicati come modelli alternativi, ma preferisco vederli come strumenti complementari che, a seconda dei casi, possono essere combinati nel processo di progettazione. I designer devono avere la mente aperta: uno dei peggiori ostacoli per qualsiasi processo creativo di progettazione e innovazione sono i dogmi e le chiusure disciplinari.

Le fasi del progetto Comunemente un processo di progettazione è visto in funzione della soluzione di studiare e implementare. Potremmo dire che questa è la vista del cliente, al quale giustamente interessa il risultato finale. Osservato da un altro punto di vista, quello del progettista, il processo di progettazione è invece più simile a un percorso di analisi e di apprendimento, dove il primo obiettivo è mettere a fuoco il problema di partenza, individuare le domande e le esigenze cui dare risposta. Contrariamente alle apparenze, un progetto è un processo che organizza informazioni, strumenti e risorse per individuare la soluzione adatta tra quelle possibili, “spinto” dal problema di partenza. E’ quindi cruciale impostare correttamente il lavoro di analisi e di studio iniziale. Visto in dettaglio, un processo progettuale è normalmente composto da queste fasi e obiettivi principali: Analisi ed esplorazione Scoperta e selezione di concetti innovativi Progettazione e valutazione delle soluzioni Sviluppo e rilascio Schemi più o meno simili sono ormai consolidati e applicati professionalmente in tutto mondo. Ovviamente sono una rappresentazione sintetica di un lavoro e di un processo che nella realtà è molto più complesso e che non si svolge in modo così lineare. Letti in modo superficiale questi schemi possono anche condurre ad alcuni errori importanti. Per esempio, l’attività di analisi non dovrebbe fermarsi alla prima fase, ma continuare lungo tutto il processo di progettazione. Allo stesso modo i designer devono essere presenti e partecipare a tutte le fasi di analisi e verifica, invece di lasciare in campo solo i ricercatori. Anche la tecnologia, attraverso l’impiego di prototipi di complessità e fedeltà variabile, può entrare molto presto nel processo, aiutando a studiare e verificare nel mondo reale le soluzioni e le applicazioni che si vanno via via progettando.

L’esperienza è un processo Cosa vuol dire progettare l’esperienza utente? Ci sono tante risposte. Storicamente è un’attività strettamente connessa allo User Centered Design, da cui ha tratto filosofia di base, metodi e strumenti. Qualcuno la definisce mettendo insieme le competenze o gli ambiti disciplinari che concorrono al progetto (Steve Psomas), oppure elencando cosa non è. Qualche anno fa Peter Morville propose un modello con sette facce che descrivono le qualità dell’esperienza utente . Più recentemente Nathan Shredroff ha proposto un modello simile basato su sei dimensioni.

33

Progettare il sistema dell’esperienza utente .  Gianluca Brugnoli .

note


In generale la maggior parte degli schemi proposti sono adatti alla progettazione di un sito web o di un software, dove alla fine il principale punto di contatto con l’utente è un’interfaccia grafica. Tuttavia faticano ad abbracciare esperienze più complesse e innovative, come quelle descritte all’inizio di questo articolo. In parte questa è l’eredità dello UCD, anche se il dibattito su questo punto è piuttosto acceso. Facciamo comunque un piccolo passo indietro alla definizione di esperienza utente. Malgrado esistano molti punti di vista anche discordanti, la maggior parte delle definizioni la concepiscono come un “prodotto”, come un risultato, anche in senso figurato, oppure ancora come una “somma” di interazioni o qualità, e più in generale come qualcosa che alla fine esiste soprattutto nella mente dell’utente. Trovo questi approcci poco convincenti, un po’ parziali e generici. In particolare non aiutano a mettere a fuoco uno dei problemi chiave per chi deve progettare: capire cosa fa davvero l’utente e il sistema tecnico e culturale che rende possibile l’esperienza utente. Credo sia più utile e interessante guardare l’esperienza utente come un processo, un rete di azioni che si svolge nel tempo attraversando un sistema fatto di differenti strumenti e contesti d’uso, in cui l’utente connette diversi punti di contatto seguendo i propri obiettivi e attività. Un processo che può avvenire in modo casuale e non progettato dall’utente, superando anche barriere tecniche, culturali e di mercato. In questo modo il problema non è più quello di concepire un’esperienza astratta, seppur dotata di molte qualità, facce e dimensioni (di principio più che condivisibili), ma quello di progettare concretamente il sistema che la rende possibile. Progettisti e aziende dovranno dunque progettare e realizzare la “piattaforma di gioco” con le sue regole, mente l’esperienza resta qualcosa che l’utente vivrà e realizzerà in modo personale e individuale, conducendo il gioco a modo suo, all’interno delle regole date dal sistema.

Progettare il sistema dell’esperienza utente Come si progetta questo sistema? Seguendo quando descritto, propongo un processo che si basa su quattro pilastri portanti: il contesto, il sistema, i punti di contatto e i prototipi. - Analizzare il contesto e gli utenti. Usando una metafora teatrale, è la scena, il palcoscenico dove avviene l’interazione degli attori, cioè gli utenti. Questa è la parte di ricerca strategica e di analisi degli utenti, dove si cerca di capire quali sono i confini del problema, i fattori di business, tecnologici e sociali che influenzano l’esperienza; chi sono gli utenti, che obiettivi hanno e come si comportano. È importante che questa fase di analisi del problema sia condivisa nel team di progetto e con cliente in modo da fornire obiettivi comuni e condivisi. - Studiare l’organizzazione del sistema. Questa è la parte della struttura dove si studia l’architettura della piattaforma di interazione: quali sono i confini, i componenti e come sono connessi; quali sono i punti di ingresso e di uscita per l’utente. Si definisce come possono essere organizzate le informazioni, i flussi e gli strumenti che aiutano l’utente a svolgere le sue attività e raggiungere i suoi obiettivi all’interno del sistema. Si parte sviluppando uno o più mappe del

34

Progettare il sistema dell’esperienza utente .  Gianluca Brugnoli .

note


sistema, i “Customer Journey” dell’esperienza utente, per poi arrivare all’architettura dell’informazione e all’analisi dei processi e dei compiti dell’utente. - Progettare i punti di contatto. Sono tutti gli elementi con cui l’utente entra in contatto o attiva durante l’esperienza: applicazioni e servizi software, hardware, dispositivi, strutture e spazi fisici. Un punto di contatto può essere un’interfaccia grafica, una tastiera o dispositivo hardware, un sensore invisibile e perfino un cartello stradale. In modo più esteso, anche un commesso dietro un bancone, il numero di telefono di un call center o un indirizzo e-mail sono da considerarsi punti di contatto che fanno parte del sistema e che vanno progettati in modo armonico all’interno di unico quadro. Non è solo un problema di usabilità e di efficienza, ma anche di organizzazione tecnica, di efficacia funzionale, di coerenza complessiva, di riconoscibilità e perfino di piacevolezza. - Sviluppare prototipi. Più se ne fanno e maggiori sono i benefici che ne possono trarre, indipendentemente dal grado di fedeltà con il prodotto finale. Ogni prototipo, sia esso uno scenario o un modello fisico, permette di rendere tangibile l’esperienza, anche se solo in parte. Racconta una storia sull’esperienza dell’utente che non può sempre essere rappresentata con altri mezzi. Soprattutto in quei casi in cui l’interazione vive oltre lo schermo e supera l’interfaccia grafica, sperimentare sensori e altri modelli di interazione con una qualche forma di prototipazione è sempre necessario.

35

Progettare il sistema dell’esperienza utente .  Gianluca Brugnoli .

note



www.sketchin.ch/workshop/

09/10 aprile Introduzione all'usabilità e ai design pattern 28/29 maggio Progettazione visuale per il web 18/19 giugno Architettura dell’informazione

17/18 settembre

Progettazione di interfacce per web e mobile

15/16 dicembre

Progettare servizi online con metodologie di design agile Luca Mascaro

Luca Mascaro - Dafne Gobbi

Nella realizzazione di siti e applicazioni web è fondamentale la progettazione dell'interfaccia ed il suo funzionamento, in modo coerente ed efficace per l'utente. Nella progettazione centrata sugli utenti, e più in particolare nell'interaction design, si utilizzano una serie di tecniche di disegno strutturate che descrivono questo funzionamento. Il workshop offre un'introduzione a queste tecniche e porta i partecipanti a sviluppare in maniera strutturata i primi progetti d'interfaccia.

Ti prepariamo all’utilizzo del metodo agile nella progettazione di servizi online per gestire al meglio cambiamenti e tempi di risposta.

Cosa aspetti? website: www.sketchin.ch/workshop/ e-mail: workshop@sketchin.ch tel. 0041916002660


Emmanuel Trogu

Creativi, Designer, Programmatori. L’incontro e lo scontro degli elementi per una user experience corretta

note

http://www.uxmagazine.it/visual-communication-design/creativi-designer-programmatori-lincontro-lo-scontrodegli-elementi-una-user-experience-corretta/

Non tutti i siti web nascono come progetti web fini a se stessi, spesso nascono da un progetto di comunicazione più ampio che si sviluppa su più media. Al creativo spetta il compito di elaborare un concept che segua il desiderio del cliente, al designer quello di tradurre la creatività in fattibilità, e nel caso del sito web, ai tecnici quello rendere il design in elementi funzionali e usabili. Lo scopo principale di queste tre figure, è “vendere” un progetto che abbraccia il fattore emozionale, il fattore funzionale e d’uso, e il fattore business. Vediamo qualche consiglio per far convivere queste tre professionalità.

Pensare web Spesso purtroppo i creativi non hanno le conoscenze adeguate per “pensare web”. Pensare web significa conoscere e applicare nella “bozza concept” gli elementi grafici non solo come forme e colori per generare appeal e comunicare, ma come elementi con cui l’utente si troverà in un rapporto di uso vero e proprio. A tradurre questo concept per i programmatori ci sono i web designer, giocolieri del compromesso tra creatività e programmazione, tra immaginazione e realtà, tra sfumature, angoli smussati, immagini a tutto campo, e dall’altra dimensioni del carattere, compatibilità cross browser, menù, animazioni, database.

In tutto questo l’utente dov’è? L’ experience design nasce qui. Nasce dove l’occhio e l’attrattività sono forme e contrasti pronti a catturare l’interesse in determinate zone del sito, nasce dove la comunicazione diventa una spinta all’azione, nasce dove la tecnologia trasforma il sito da una semplice visita in un’esperienza d’uso. “What the user should focus on first, second, and third is absolutlely your responsibility” All’utente infatti rimane il gusto di navigare il sito, di ritrovarsi in esso e di muoversi liberamente interagendo e sfruttando al massimo i contenuti e le aree in cui, noi, abilmente potremmo dirigerlo.

Trasformare il concetto in esperienza Il creativo che non ha cognizione della progettazione web deve essere considerato come una spugna; dalla sua immaginazione e dalle sue idee il web designer deve estrapolare il succo e scremare le informazioni necessarie per riadattare al meglio disposizione di contenuti e grafica. “Si fa presto a parlare di contenuti e grafica”, vi sento. In effetti dire contenuti equivale a dire: testi, menu di navigazione,

38

Creativi, Designer, Programmatori. L’incontro e lo scontro degli elementi per una user experience corretta .  Emmanuel Trogu .


messaggi, claim, banner promo, aree di registrazione, aree informative, notizie. Così come è facile parlare di grafica, ma ad immaginarla è tutto molto più difficile; Caratteri, colori, forme, aree illustrate, elementi iconografici, fotografie, immagini, metafore visive.

note

Elementi pratici sul campo E’ doveroso fare alcune riflessioni prima di iniziare a sfoderare palette di photoshop e lorem ipsum. Partendo dalla bozza dell’ art director, il pensiero del designer deve essere propositivo, e deve trovare una via corretta tra design e programmazione per rendere al meglio il prodotto finale, da passare poi al programmatore.

Interfaccia utente e design DO/COSA FARE: Attenzione all’uso dei colori; porre un occhio di riguardo all’uso del contrasto tra colore in primo piano, ad esempio del testo, e colore in secondo piano, colore di background. Ricordiamo che il sito deve essere visto su dispositivi mobili e monitor. Il colore è un elemento importantissimo per farci vivere quell’elemento emozionale che può far la differenza nel proseguire o meno una visita al nostro sito web. Uso di metafore e/o icone; può esserci utile nella navigazione, rendendo così più semplice l’accesso ai contenuti per l’utente. Creare sistemi di navigazione di facile e intuibile comprensione, ritrovabile in tutto il sito. Uso del carattere: Tipografia chiara e leggibile. Link chiari e identificabili; è possibile farlo giocando con colori, accentuandone la forza variando peso, colore e dimensione. DON’T/COSA NON FARE: Mixare troppi colori, teniamoci su una palette colori non troppo ampia Creare sistemi di navigazione complessi che cambiano di volta in volta e che ci fanno perdere la logica del nostro navigare, rendendo l’esperienza in un incubo da cui scappare. Usare troppa varietà di caratteri nella pagina, confonde la comprensione e la fruibilità dei contenuti. Non abusare di immagini e di linguaggi iconografici perché la varietà può confondere.

Comunicazione e marketing DO/COSA FARE: Presentarsi, far capire chi siamo,cosa offre, ma soprattutto di cosa tratta il sito. Creare sistemi che facciano agire l’utente, che gli lascino un impressione positiva, che lo inviti a tornare e a interagire. Creare attenzione, sorpresa, atmosfera (area emozione) con immagini e messaggi chiari e impattanti.

39

Creativi, Designer, Programmatori. L’incontro e lo scontro degli elementi per una user experience corretta .  Emmanuel Trogu .


Stare al passo con i tempi, e se possibile, anticiparli.

note

Creare fidelità con il target, attraverso strumenti come Newsletter sono l’ideale per creare un database selezionato e affidabile di clienti che sono interessati ai nostri prodotti e ai nostri servizi. Attraverso questi possiamo informare e far ritornare l’utente a visitarci. Contatti: inseriamo in modo evidente le modalità di contatto. DON’T/COSA NON FARE: Il target non perdiamo mai di vista il nostro target. Nascondere il concetto in troppi passaggi, per arrivare alla comunicazione effettiva limitarsi al massimo a 3 click dell’utente. Non scrivere troppo tutto e subito, ma presentare un testo e dare la possibilità all’utente di approfondire un determinato argomento, me nemmeno essere prolissi. Inserire elementi animati a discapito della qualità degli stessi. Creare interazione solo per avere elementi animati che si muovono all’interno della nostro sito, senza che essi abbiano un senso, può solo screditare la nostra immagine.

Programmazione e tecnologia DO/COSA FARE: Capire (e perché no, anticipare) le nuove tecnologie. Creare dinamiche e navigazioni intuitive e logiche, senza necessità di creare help per l’utilizzo Proporre o creare un CMS, un content management system , se il cliente lo richiede, in modo così che si possa gestire aree e contenuti in libertà, tenendo aggiornate le informazioni su di se e sui proprio servizi. L’utente darà valore e porrà attenzione alla frequenza di aggiornamento delle informazioni del sito. Testing: testare il sito per verificarne punti di forza e punti vulnerabili. Verificare il sito su più browser e sui sistemi operativi conosciuti. Offrire alternative di navigazione e pensare sempre all’utente finale; uso intuitivo di ogni parte del sito, sia essa di comunicazione sia essa di interazione. Quando creiamo un’ applicazione pensiamo innanzitutto a chi la userà. DON’T/COSA NON FARE: Creare sistemi complessi che il cliente non riesce a usare perchè di difficile comprensione. Usare applicazioni e sistemi tecnologici solo perchè si possono realizzare. Le applicazioni non sono dei gadget, ma delle opportunità di creare interessanti user experience. Non inserire elementi flash troppo pesanti da caricare, evitare di usare animazioni obsolete: solo per un fade in-fade out non è necessario usare flash!

40

Creativi, Designer, Programmatori. L’incontro e lo scontro degli elementi per una user experience corretta .  Emmanuel Trogu .


In conclusione

note

L’ effetto di questi piccoli accorgimenti (anche se la lista dei do/dont è sicuramente molto più ampia) è che il nostro progetto nascerà e crescerà con dei criteri funzionali e logici che non escludono certo l’appeal e il fascino grafico che esso potrà avere. Ai Creativi: se dovete progettare web, imparate dal web stesso, le risorse non mancano. Ai Web designer: siate pazienti quando vi capita un art director che di web non capisce nulla. Spiegate e motivate le vostre scelte, e scendete al compromesso solo fin dove è possibile. Ai Programmatori: anche voi abbiate pazienza, nessuno crea siti per mettervi in difficoltà (anche se alla fine vi piacciono tremendamente le sfide). L’evoluzione del web passa in gran parte tra le vostre righe di codice.

Risorse di grafica, web, programmazione Volutamente non suddivisi, in modo che i Programmatori vadano a vedersi un po di grafica, e i Creativi vadano a curiosare in quelli che sono alcune basi del web design. - Designer Daily - Typetester - Snook - Graphic Exchange - Wirenode - Bluevertigo - Cssremix - Designmeltdown - Gridr - Smashing Magazine - WebDesigner Depot - Joomla - Colour Lovers - Grixel - Color scheme designer - Design radar - Computer Love - WebDesigner wall - Mini Ajax - Ajax Rain - The FWA - Magento

41

Creativi, Designer, Programmatori. L’incontro e lo scontro degli elementi per una user experience corretta .  Emmanuel Trogu .


Nicola Palmarini

Storie di umana usabilità http://www.uxmagazine.it/user-experience-design/storie-di-umana-usabilita/

Ufficio postale di Finale Ligure, Italia, paese di dodicimila anime. Un sabato mattina. Il sistema smista-code funziona. Prendo il mio ticket, numero A89, davanti a me 5 persone per tre sportelli disponibili. Una situazione così poco italiana. Non fosse che le tre-impiegate-tre stanno discutendo tra loro, da sportello a sportello, su come risolvere il problema innescato da una delle tre che ha fatto, credo, crediamo noi tutti numeri presenti sulla scena, un errore di data entry. Le signore analizzano tutte le chance possibili per venirne fuori: fare un finto prelievo di cassa e poi rimettere i contanti. “no, no, sei matta!” dice l’altra “meglio se fai scattare il sistema che poi ti ritorna la cedola e quando si chiude la cassa la fai rientrare”. Intanto i minuti passano. Noi siamo lì, in sei. Il display indica sempre A84 l’ultimo numero servito (quanto tempo fa? chi può dirlo?). Entra qualche altro “cliente”, la coda pigramente si allunga. Ma le madame-de-la-poste instancabili procedono nel loro risiko. Mentre noi rosikiamo. La situazione comincia a farsi paradossale. Non fosse altro per il layout della scena. Noi ordinatamente seduti sulle ply-chair d’ordinanza in file da quattro rivolti al palcoscenico improvvisato degli sportelli 3-4-5. Una rappresentazione teatrale con i controfiocchi. Con noi “clienti” come involontari spettatori. Ed è in quel momento che mi chiedo: “io esisto?”. Agenzia 508 della banca Popolare di Milano. Il cartello affisso sul vetro d’ingresso recita: orario 8.30-13.30. Provo ad andare appena apre, vorrei evitare di passarci la mattina e, incredibile, ma vero, sono il primo ad entrare. Solo che con me entrano anche i dipendenti. E lo sapete bene: mettere in moto la cassa di una banca non è proprio una passeggiata. Accendi il sistemone, apri la cassaforte, sposta i contanti di qua, attiva procedure di là. Insomma, si fanno le 8.40 abbondanti quando il cassiere alza gli occhi e mi vede. Perché un “buongiorno”, così tanto per comunicare, non era stato previsto fino ad allora. Ora voi direte, “vabbè con il conto in banca che ti ritrovi che pretendi?” Avete ragione anche voi, però il caso vuole che questo modus-openendi dell’Agenzia 508 di BPM di Milano si ripeta tutte le sante mattine, o almeno tutte le volte che io abbia provato a entrare alle 8.30. E qui mi chiedo: “io esisto”? Linate, Check-in Alitalia. Mentre sto facendo le procedure con la hostess della SEA, sulle mie spalle arriva la starlette di turno con il suo codazzo di boys e valigette. “Sulle mie spalle” non è un eufemismo perché si piazzano fisicamente sulle mie spalle. Come se potessero accelerare la stampa della carta d’imbarco pressando il mio corpo contro il bancone. Per venirne fuori, girandomi, inciampo nella valige messe attorno a me come un muro di cinta. Nessuno si sogna di dirmi niente. Oltre al desiderio crescente di mandare tutti a fanculo, mi chiedo: “io esisto?”.

42

Storie di umana usabilità .  Nicola Palmarini .

note


note

Umani? Siamo fantasmi, comparse, ombre, passanti, trasparenze di questo quotidiano o esistiamo? Credo che una esperienza dell’usabilità abbia a che fare - prima di ogni altra cosa, prima di essere discussa, progettata, scritta, insegnata, mappata, codificata - con la capacità di considerare un mondo fuori dalla nostra sfera di confidenza. Con l’educazione. Con la cultura dell’altro. Senza questo non esiste la possibilità di progettare l’esperienza. Perché possiamo disegnare il miglior flusso del mondo, ma se poi questo è messo in mano a chi non ha la minima sensibilità umana (sto parlando di umanità di base, sto parlando di “buongiorno, come sta”, delle fondamenta) il nostro bel lavoro si brucia. Si tratta di usabilità dell’essere umano. C’entra qualcosa con il dominio della materia sugli scenari della tecnologia? In qualche modo sì. Primo per una questione di metodo. Entrare nella sfera di confidenza degli altri non te lo insegnano in nessuna scuola, deve essere una parte di te, devi essere tu predisposto a farlo. E per farlo devi cambiare, devi impegnarti, devi considerarti umano in un orizzonte di relazioni umane non necessariamente importate da Facebook. Non è possibile ricondurre tutto a una mappa di regole, a un corso di disegno, a dove mettere quattro icone, a tracciare un flusso. Solo così potrai disegnare degli scenari credibili. Secondo per una questione storica. La necessità di usabilità umana cresce con il crescere della consapevolezza dell’invisibilità delle persone e del loro ruolo, ma al tempo stesso si scontra con la massa acritica delle innovazioni che dobbiamo subire. Nuovi processi, nuove interfacce, nuovi modi. La corda viene tirata ai due estremi. E noi nel mezzo, in una epoca che per definizione non ha punti fermi. Tutto è beta, tranne la mia anima. Terzo per una questione tecnologica intrinseca. Mi chiedo se sia possibile esistere su questo pianeta anche senza essere dentro un database. Possiamo semplicemente segnalarci come “esistenti” senza sprofondare nei grovigli della privacy? Il paradosso qui è rilevante: da un lato, sulla rete, “scompare il diritto all’oblio, il diritto di essere dimenticati (…) l’eterno presente, il passato che non passa” come dice Mauro Paissan che ci vede marchiati a fuoco finché morte non ci separi dalla nostra pelle. Dall’altro, in alcuni luoghi fisici, non esistiamo.

Nevrosi Eppure siamo sorvegliati da telecamere 24 ore su 24, tracciati – dal GPS alla cara vecchia carta di credito -, esplicitamente ci autosegnaliamo con la nostra partecipazione sociale on-line, siamo indelebilmente presenti in qualche db, MA al tempo stesso inesistenti davanti a uno sportello. Il paradosso sfiora tutti i trend, compreso Twitter che è l’iperparadosso: ”, “la dimostrazione concreta dell’ansia continua di non esserci” secondo Giuliana Bruno. Ma se stiamo dicendo che ci siamo, come possiamo dire di non esserci? Nevrotico al punto giusto per questa epoca così instabile. “Se non siamo capaci di vivere globalmente come persone, almeno facciamo di tutto per non vivere globalmente come animali” dice Saramago. Mi accontenterei di essere notato quando è il mio turno. Di non essere scavalcato in una fila perché, semplicemente, “esisto”. Di essere

43

Storie di umana usabilità .  Nicola Palmarini .


lasciato con un metro quadro vitale attorno a me quando è il momento di imbarcare un volo EasyJet (ma che sistema idiota è quel format di imbarco?). Mi accontenterei anche solo di un buongiorno. Mi sembra il minimo. Sempre che il minimo esista.

Bibliografia - Josè Saramago, Cecità, p. 113, Einaudi, 1995 - Gabriella Colarusso, D di Repubblica, anno 14 n° 648, Abbasso Twitter, viva la Piazza, pp 41-42 - Il web ennepuntozero e l’antipanopticon

44

Storie di umana usabilità .  Nicola Palmarini .

note


Federico Badaloni

Molecole di senso http://www.uxmagazine.it/information-architecture/molecole-di-senso/

Come giornalista e come architetto dell’informazione di un gruppo editoriale ho maturato nel tempo la convinzione che una buona architettura e un buon progetto sono possibili soltanto se c’è una conoscenza profonda del contenuto che verrà pubblicato. Ovviamente non intendo dire che bisogna conoscere in anticipo i titoli degli articoli o dei contenuti multimediali, mi riferisco piuttosto alla necessità di analizzare l’argomento principale, il “taglio” che avrà, gli obiettivi editoriali, il ritmo di produzione. Nella progettazione di siti di informazione, in sostanza, bisogna partire dallo studio delle dinamiche attraverso le quali i redattori adempieranno alla loro funzione primaria: la costruzione e la ricostruzione del senso. Se l’obiettivo del sito è vendere un bene materiale, ad esempio magliette, è naturale che il baricentro della progettazione debba essere l’utente cosiddetto “finale”. Quando però l’obiettivo del sito è la costruzione del senso, il design non può che essere centrato con pari intensità sia sugli utenti-giornalisti che sugli utenti “finali”, ma ho difficoltà ad usare questo termine, anche fra virgolette. Il punto infatti è proprio questo: la costruzione del senso online tende sempre di più ad essere un processo partecipativo in cui tutti possono concorrere alla manipolazione degli elementi costitutivi della narrazione.

I sistemi della narrazione Comunicare il senso, il significato, vuol dire narrare una storia e si tratta di un processo fortemente influenzato dal supporto attraverso il quale si svolge. Se pensiamo alla carta stampata, si può dire che una storia è “tutto quel che entra in una pagina”. La narrazione si svolge in uno spazio bidimensionale definito dai confini fisici della pagina. Lo spazio costituisce un sistema, cioè un contesto che rende possibile la comunicazione. Attraverso di esso si esprimono le gerarchie fra gli articoli, le funzioni narrative dei diversi elementi, si “tiene insieme” il racconto (immaginate ad esempio una pagina dedicata a una finale di campionato, con in alto il titolo che offre la sintesi della storia, quindi articoli di contorno, di colore, di approfondimento, di analisi, foto, pagelle, schede tecniche). Quando è il tempo a costituire il sistema della comunicazione, come accade in radio e in tv, si può dire che una storia è “tutto quello che entra in scaletta”. L’importanza, il ritmo, la scansione dei diversi elementi, le funzioni narrative vengono tutte veicolate attraverso il tempo. Se la narrazione è vincolata alla finitezza di un asse spaziale o temporale, essa non può che essere un’istantanea, una fotografia che fissa su un piano sincronico la storia in un determinato momento. Nell’ambiente dei giornali stampati si dice infatti che una notizia è tutto quel che accade prima delle dieci di sera, orario in cui il giornale viene “chiuso” e dato alle stampe.

45

Molecole di senso .  Federico Badaloni .

note


Con il superamento di questi limiti, come accade online, la narrazione diventa un processo continuo. Grazie agli strumenti di collaborazione la costruzione del senso diventa partecipata, diffusa e dinamica. Sebbene anche in un giornale stampato ci siano ovviamente i mezzi grafici per rappresentare il percorso di costruzione di una storia; la differenza con il web si trova nella continuità, nella reperibilità e nelle molteplici possibilità di rappresentare questo processo. “In print, the process leads to a product. Online, the process is the product”, dice Jeff Jarvis.

La storia è una molecola La narrazione online si deve rendere disponibile a molteplici “viste”, consentendo all’utente di navigare secondo la propria soggettività. Mi riferisco alla possibilità di agire su filtri, tag, viste cronologiche, in sostanza alla capacità di manipolare e ricombinare il racconto, di inviarne gli elementi ad amici innescando un processo virale, di partecipare attivamente alla narrazione attraverso l’invio di commenti, di contributi audio, video o fotografici. Dal punto di vista dell’architettura dell’informazione, questo significa creare sistemi in grado di gestire il versioning dell’intera storia, non soltanto (come ad esempio fa il Guardian) del singolo elemento di essa. Sono convinto che una chiave per affrontare questa sfida è immaginare che così come una molecola è composta da atomi e legami fra di essi, una storia è composta da elementi, items, e da legami fra di essi. Questi legami possono essere di vario tipo, a seconda del significato e della direzionalità della relazione fra gli oggetti narrativi collegati. Essi sono costituiti da notizie brevi, video, fotografie, contenuti interattivi, gallerie, contributi audio, schede di approfondimento, sondaggi, dialoghi con gli utenti e tutto quello che il web riesce a rappresentare all’interno delle sue pagine. Questa possibilità combinatoria porta allo scardinamento progressivo della centralità dell’elemento-articolo. La storia diventa una molecola, come si diceva sopra, una molecola policentrica che ogni utilizzatore (internet non si legge: si fa) può ruotare come vuole, cambiando l’oggetto in primo piano. Il legame fra gli atomi diventa quindi l’architrave dell’architettura, ancora più importante degli atomi stessi. Kevin Kelly scrive infatti “information is not as meaningful as connection”. E’ progettando secondo questi presupposti che possiamo permettere all’utente, che ad esempio sia stato condotto da un motore di ricerca direttamente in una pagina di dettaglio di una storia, di ricostruirne il senso complessivo e navigare consapevolmente attraverso i vari atomi della molecola narrativa. Andrew Hinton in The Machineries of Context afferma in proposito: “appena cominciamo a digitalizzare le nostre fonti e aggiungiamo hyperlink, l’informazione esce dai confini imposti dalle dimensioni fisiche e comincia a ri-assemblarsi contemporaneamente in molte altre strutture. (…) La natura aperta dell’hyperlink consente di fare emergere praticamente qualunque struttura immaginabile, confondendo i confini fra l’elemento linkante e l’elemento linkato” (via journalofia.org). Tenere traccia del processo di creazione ed evoluzione delle molecole narrative, vuol dire renderne possibile la rappresentazione. Questo consente di ricostruire “le puntate precedenti” di una vicenda, di

46

Molecole di senso .  Federico Badaloni .

note


comprenderne le dinamiche, in alcuni casi può offrire un grado di predittività rispetto agli sviluppi futuri. Molti si stanno muovendo in questa direzione. Gli esempi più significativi vengono da motori di ricerca come Google (News Timeline) o Wolfram-Alpha (suggerisco in proposito la lettura di questo post su Usereffect), ma anche da Wikipedia con il servizio Wiki Dashboard, che consente di visualizzare la storia delle modifiche di un argomento. Anche siti di informazione come il Telegraph hanno offerto visioni diacroniche delle loro storie. Questa ad esempio è stata realizzata in occasione della clamorosa inchiesta sui rimborsi spese dei parlamentari del Regno Unito. E’ chiaro che costruire narrazioni con queste caratteristiche significa consentire ai giornalisti di lavorare in modo diverso e con strumenti diversi. Lo sanno bene gli architetti dell’informazione del Washington Post, recentemente rivoluzionato nel suo organigramma e nel processo di costruzione delle notizie (si legga in proposito l’interessante post di Mario Tedeschini Lalli).

Tirando le somme Kristina Halvorson ha affermato di recente: “most companies lack resources to care for content as a critical business asset. Content is complicated, it takes people and time. It demands process and effort. We can’t continue to pretend we can fix content later”. Nel percorso di progettazione non possiamo considerare i siti come stampi in cui qualcuno verserà un contenuto. I siti sono il contenuto. È proprio la distinzione forma/contenuto che sta perdendo progressivamente la sua utilità ed il suo valore euristico. Nel lavorare congiuntamente sulla forma e il contenuto, la tentazione è di inventare una chimica artificiale dell’informazione, una sorta di molecola sintetica prodotta in vitro su cui costruire le architetture dei siti e all’interno della quale costringere poi i contenuti. Cedere a questa tentazione sarebbe un peccato mortale. Occorre piuttosto utilizzare le tecniche elaborate in linguistica, etnologia, psicologia sociale, gli strumenti del design centrato sull’utente, per studiare con un nuovo spirito la costruzione del senso così come esiste (ed è esistita fino ad ora) “in natura”: cioè nei giornali, in radio, in televisione, ma anche nelle dinamiche del dibattito orale e della elaborazione linguistica collettiva. Solo sulla base di questa osservazione (partecipante) possono essere ri-conosciute e rappresentate le strutture portanti di una architettura non più legata alla progettazione di ambienti, ma di ecosistemi dell’informazione. Le parole che concretizzano questo nuovo modo di progettare non sono nuove: “aggregazione”, “ontologie”, “link meta-descritti”, “tag”, “correlazioni”. Il cambiamento di prospettiva però porta ad una nuova sintassi e ad un nuovo discorso che si può costruire con queste parole. Ci stiamo lavorando su e crediamo che questa strada possa portare lontano.

47

Molecole di senso .  Federico Badaloni .

note


Stefano Bussolon

A C.H.I. serve il design? http://www.uxmagazine.it/interface-interaction-design/chi-serve-il-design/

Ho sostenuto l’esame di ergonomia, all’Università di Padova, nel lontano 1992. Ho creato il primo sito web (il sito ufficiale del dipartimento di Psicologia Generale, sempre a Padova) nel 1996. Sono stato cultore della materia nel corso di Ergonomia dal 1997 al 2000. In quel periodo ho iniziato ad occuparmi di usabilità dei siti internet. Negli ultimi anni mi sono occupato di architettura dell’informazione, e agli aspetti teorici e pratici della classicazione ho dedicato la mia tesi di dottorato. Credo dunque di potermi definire un esperto di interazione uomo computer, per gli amici C.H.I. (computer human interaction). Da qualche anno, però, nell’ambiente si parla molto meno di C.H.I (o H.C.I) e molto più di Interaction Design. A sugellare il cambio di nome, uno dei manuali più importanti di HCI, Rogers et al. (2007), nelle ultime edizioni titola, appunto, Interaction Design. In questi mesi sono impegnato, come coordinatore d’aula, in un corso di specializzazione proprio dedicato all’Interaction Design. Nel constatare questa trasformazione mi sono chiesto se la novità fosse esclusivamente terminologica, oppure se cambiava qualche cosa anche nella sostanza della materia; mi sono chiesto in che cosa differisse l’Interaction Design dalla Human Computer Interaction. Mi sono chiesto se la C.H.I. avesse davvero bisogno del design. Raccontata così, la mia sembra la storia di un dinosauro dell’ergonomia spaventato dall’introduzione di un nuovo paradigma. So di non esserlo, ma so anche di essere, per certi aspetti, un conservatore. Nel 1994 visitai un importante centro di ricerca nella provincia in cui vivo. Fra le tecnologie di punta che ci mostrarono vi era un robot che si muoveva per i corridoi; la previsione era che, nell’arco di 10 anni, in ogni casa ci sarebbe stato un robot di quel genere. Di anni ne sono passati 15, ma credo che la previsione non si sia avverata nemmeno in Giappone. Lo stesso istituto, anni fa, si concentrò sulla speech recognition, che doveva essere il nuovo paradigma di interazione fra uomo e computer; quanti di voi, nel 2009, usano il microfono per dettare un articolo al pc? Un secondo motivo di perplessità era proprio l’uso del termine design. Cosa significa, mi sono chiesto, questo termine? La parola mi evocava l’idea di un approccio estetizzante o, addirittura, artistico, dove il designer deve sentirsi libero di esprimere la propria creatività, a prescindere da tutto il resto. Leggo di user experience, di emotional design, ma fatico a trovare le basi teoriche. La sensazione è che tutto questo possa annacquare le fondamenta della H.C.I. e risolversi in una moda molto accattivante ma poco fondata. Volevo, però, capirne di più; capire se le mie preoccupazioni fossero sensate, ma soprattutto capire se il nuovo paradigma potesse portare,

48

A C.H.I. serve il design .  Stefano Bussolon .

note


accanto a qualche folata modaiola, anche dei contributi importanti, capaci di far crescere sostanzialmente la materia. Per farlo mi sono documentato su due fronti: da una parte ho voluto capire dove sta andando l’interazione uomo computer, dall’altra capire cosa si intende, davvero, per design. Nella mia ricerca bibliografica mi sono reso conto che i due aspetti (cos’è il design, dove sta andando la CHI) siano piuttosto legati. Per capire quali sono i nuovi sviluppi della HCI-ID mi sono basato prevalentemente su due lavori: The Three Paradigms of HCI di Steve Harrison, Deborah Tatar, Phoebe Sengers, e New theoretical approaches for HCI, di Yvonne Rogers. Secondo Harrison et al. (2007) quello che sta emergendo in questi anni è il terzo paradigma all’interno della human computer interaction. Il primo approccio all’interazione uomo computer fu quello ingegneristico, caratterizzato dai concetti di Human Factors, finalizzato ad ottimizzare l’adattamento fra uomo e macchina. Il secondo ha visto l’avvento delle scienze cognitive classiche, che vedevano mente e computer come processori di informazioni e l’interfaccia come finalizzata allo scambio di informazioni, e si preoccupava principalmente dell’usabilità degli artefatti. Questi paradigmi, sebbene estremamente potenti, difficilmente riescono a spiegare fenomeni in se apparentemente poco razionali o funzionali: perché molte persone, anche adulte, giocano ai videogames? Perché vi sono molti più utenti Windows che Mac (o Linux)? Perché un’interfaccia piacevole dovrebbe essere migliore di una interfaccia brutta? Più nel dettaglio, secondo Harrison et al. (2007) vi sono dimensioni sempre più importanti nell’uso degli artefatti interattivi di cui i paradigmi ingegneristici e cognitivi faticano a tener conto: l’uso ubiquito e pervasivo dei devices interattivi, in contesti di lavoro ma anche di svago, con degli utilizzi che non si limitano più ai compiti produttivi classici ma che prendono parte ad attività più complesse, diversificate e distribuite nel tempo e nello spazio, dove fattori ambientali, sociali, culturali e motivazionali entrano prepotentemente in gioco. Anche secondo Rogers (2004) la HCI sta cambiando perché deve affrontare nuove sfide e nuove opportunità: internet, wireless, dispositivi handheld, strumenti di tracking; l’ambito delle HCI si sta espandendo, sta diventando un boundless domain, ed i modelli tradizionali sembrano insufficienti a tener conto delle mutate esigenze. Rogers (2004) imposta il suo articolo su di una rassegna degli sviluppi teorici dell’HCI: dalle scienze cognitive classiche, che si imposero nei primi anni ‘80, a prospettive teoriche quali la activity theory, la psicologia ecologica, la cognizione esterna, la cognizione distribuita, la situated action e l’etnometodologia. Una rassegna delle differenti teorie va oltre lo scopo di questo articolo. A mio avviso può essere utile però fare una distinzione a livello metodologico. Facciamo un esempio: le teorie di cognizione esterna e cognizione distribuita sono, per molti versi, piuttosto simili. Metodologicamente, però, emergono delle differenze importanti: i teorici della cognizione esterna tendono a mantenere un approccio empirico di tipo scientifico, e la teoria sembra voler

49

A C.H.I. serve il design .  Stefano Bussolon .

note


allargare gli orizzonti delle scienze cognitive classiche. I teorici della cognizione distribuita, dell’azione situata ed esplicitamente - dell’etnometodologia adottano strumenti empirici più qualitativi e descrittivi. Questa metodologia ha, secondo Rogers (2004), alcuni svantaggi, fra loro legati: la descrizione è a livello di dettaglio; essendo focalizzata sugli aspetti contestuali è difficile generalizzare i risultati, e dunque questi modelli hanno un basso potere generativo (riescono a descrivere le situazioni ma non a prevederle). L’enfasi sul contesto, sulla situatedness costituiscono d’altro canto uno dei tratti distintivi del terzo paradigma. Harrison et al. (2007) distinguono fra situatedness di interazione (il modo in cui utente, azione, circostanze materiali e sociali interagiscono), ecologica (con esplicito riferimento a Gibson (1977)) e sociale (ogni individuo è socialmente situato). Un secondo tratto distintivo secondo Harrison et al. (2007) è il rapporto fra teoria e pratica, più di tipo deduttivo nella HCI classica, più circolare nel terzo paradigma. Inne, secondo Harrison et al. (2007), nel terzo paradigma si pone meno enfasi all’elaborazione e trasferimento di informazione, in quanto si assume una costruzione di significato, basata sugli attori, sulle attività, sui contesti. Un ulteriore livello di analisi, oltre a quello metodologico ed a quello teorico, riguarda i fondamenti epistemologici e filosofici sottostanti le differenti teorie. Se il cognitivismo classico si rifaceva, più o meno esplicitamente, ad una tradizione razionalista e cartesiana (e il modello GOMS rappresenta forse l’esempio più evidente di questo approccio nell’HCI) il terzo paradigma si rivolge piuttosto esplicitamente alla tradizione fenomenologica. Signicativo, sotto questo profilo, il fatto che nella raccolta Theories and practice in interaction design, curata da Bagnara and Smith (2006), l’autore di gran lunga più citato sia Martin Heidegger. L’azione situata, ad esempio, si rifà esplicitamente al pensiero heideggeriano, così come alcuni dei contributi di Winograd. Nello stesso volume, però, Claudio Ciborra (2006) si chiede quanto del reale pensiero di Heidegger sia stato davvero assorbito e quanto invece se ne sia fatta una vulgata perdendone alcuni aspetti fondamentali. La questione è, a mio avviso, estremamente interessante, in quanto l’adozione seria e sistematica della fenomenologia heideggeriana può costituire davvero una rivoluzione scientifica non soltanto per la HCI ma per le scienze cognitive nel loro insieme, e in questa prospettiva la HCI-ID può costituire una delle avanguardie di questa nuova prospettiva. Per fare questo, però, sarà necessario affrontare due strade. Da una parte - come giustamente sostiene Ciborra - riuscire a cogliere appieno la portata del pensiero heideggeriano. La seconda sfida, non meno impegnativa, riguarda il rapporto fra fondamenti filosofico-epistemologici e metodologie. Appare a molti naturale pensare che le metodologie più scientifiche, sperimentali e quantitative siano di esclusiva pertinenza di un paradigma razionalista cartesiano, mentre un approccio fenomenologico debba necessariamente abbandonare ogni pretesa di scientificità ed adottare esclusivamente metodologie qualitative. Questo pregiudizio, estremamente radicato (mi pare che lo stesso Ciborra (2006) lo condivida), può costituire un grave ostacolo nell’ambito delle scienze cognitive, ma avrebbe ripercussioni negative anche nella pratica dell’interaction design. Io sono profondamente

50

A C.H.I. serve il design .  Stefano Bussolon .

note


convinto che sia possibile adottare una metodologia sperimentale anche nell’ambito della fenomenologia, non solo nella gloriosa tradizione gestaltiana. Credo ad esempio che molto di quello che oggi possono dirci le neuroscienze cognitive possa essere letto in una chiave fenomenologica. Credo di avere, a questo punto, un’idea più chiara di dove sta andando la comunità della HCI. Se questo è lo scenario presente e futuro, non posso che dirmi d’accordo, a patto che siano affrontate le due sfide che ho appena accennato.¨ Ma in tutto questo, cosa c’entra il design? Per rispondere a questa seconda domanda, ho cercato di capire che cosa si intende con il termine design. E non mi sono sorpreso nel constatare che vi sono diversi modi di intenderlo. Daniel Fallman (2003) distingue tre approcci al concetto di design: l’approccio conservatore, quello romantico e quello pragmatico. L’approccio conservatore vede il design come un processo scientifico o ingegneristico, che parte dai requisiti formali per arrivare alla realizzazione, attraverso una sequenza di passaggi metodologici discreti, razionali, strutturati e ben codificati. In questo approccio si assume che il design sia una forma di problem solving: si parte da un problema, si assume che la descrizione del problema possa essere esaustiva ed accurata, che vada espressa in forma di speciche di requisiti. Compito del designer è di trovare delle soluzioni progettuali che rispettino le specifiche dei requisiti e i limiti di costi, tempi e performance. Il processo di design si divide in una fase di analisi, che consiste in una sistematica raccolta di informazioni ed una fase di sintesi, che segue processi formali di tipo logico. L’approccio romantico si focalizza sul designer, che viene visto come un personaggio dotato del genio creativo e con capacità semi-magiche. Il design è paragonato all’arte, e il designer deve poter esercitare tutta la sua libertà espressiva. Nel processo di design è insito un aspetto mistico, sostanzialmente inesplicabile e non analizzabile. L’approccio che Fallman (2003) definisce pragmatico, infine, vede il design come un processo calato in un contesto, situato, legato alle persone, agli artefatti, alle pratiche, con le loro storie, identità, piani e obiettivi. In questa prospettiva il processo di design non è né scienza né arte, ma una forma di processo ermeneutico di interpretazione e creazione di signicato, in cui i designer interpretano iterativamente gli effetti del loro progetto nella situazione presente. È, citando Schön, una conversazione riflessiva con i materiali della situazione di progetto. Wolf et al. (2006) distinguono fra design ingegneristico e design creativo. Il design ingengeristico corrisponde a quello che Fallman definisce conservatore. Citando Löwgren, il design creativo viene definito nei termini di una interazione fra problem setting e problem solving, dove lo spazio

51

A C.H.I. serve il design .  Stefano Bussolon .

note


di design è esplorato attraverso la creazione di molte idee e concetti in parallelo. Le assunzioni sul problema vengono continuamente messe in discussione, e il processo e i risultati sono sostanzialmente imprevedibili, e dunque il designer gioca un ruolo personale nel processo. Nell’ambito della letteratura HCI, lamentano Wolf et al. (2006), ci si è spesso focalizzati più sulle differenze fra i due approcci che sulle somiglianze. Visser (2006) distingue fra l’approccio di Herbert Simon (centrato sul concetto del processamento simbolico, symbolic information system) e l’approccio situato, e propone una propria prospettiva, dove il design è un processo di costruzione di rappresentazioni. Secondo Visser (2006) il processo di design consiste nel realizzare un artefatto, dati dei requisiti che specificano (spesso non esplicitamente né completamente) una o più funzioni che devono essere previste, e i bisogni e gli obiettivi che devono essere soddisfatti dall’artefatto, in determinate condizioni espresse da vincoli. Consiste nello sviluppare rappresentazioni dell’artefatto finché non sono così concrete, dettagliate e precise che la rappresentazione ultima consiste nell’implementazione dell’artefatto. Le rappresentazioni devono esprimere tre aspetti del progetto: cosa, come e perché. Yamamoto and Nakakoji (2005) si rifanno alla teoria della cognizione esterna nel proporre un modello di design in cui le modalità di esternalizzazione (rappresentazione esterna) influenzano il corso del progetto, in quanto i designer interagiscono con tali rappresentazioni; che tali esternalizzazioni sono finalizzate sia per esprimere delle soluzioni (parziali) che per interpretare le situazioni (e dunque lo stato del problema), e che il processo progettuale procede nei termini di un circolo ermeneutico. L’idea di design come circolo ermeneutico è espressa esplicitamente anche da Snodgrass and Coyne (1997). La loro visione della scienza positivistica è piuttosto datata, e nel loro escursus teorico scivolano in un antiscientismo che non mi piace affatto. Interessante, al contrario, la loro idea della progettazione come processo ermeneutico, dove il designer si muove nello spazio di design portando con se i propri pregiudizi, e dove il dialogo fra designer, progetto (e a mio avviso stakeholders e utenti) porta ad una costruzione di significato emergente. Mi piace molto la loro affermazione secondo cui la capacità di raggiungere un obiettivo progettuale dipende dall’abilità del designer di anticipare le potenzialità nascoste. Il processo di design, secondo Snodgrass and Coyne (1997), è un dialogo fra il designer e la situazione progettuale. Il designer deve portare nella situazione la propria conoscenza, ma contemporaneamente dev’essere capace di metterla in discussione, evitando i premature commitment che possono impedirgli di vedere le possibilità nascoste nel contesto progettuale. Cercando di tirare le somme, mi pare che vi siano tre modalità di vedere il design.

52

A C.H.I. serve il design .  Stefano Bussolon .

note


La concezione romantica, estetizzante, è quella che mi spaventa. È un approccio che io ritengo dannoso per l’interaction design, ma anche per l’arte. Le altre due macro-visioni, quella ingegneristica razionalistica e quella ermeneutica, mi pare abbiano una relazione con i tre paradigmi definiti da Harrison et al. (2007): ingegneristici e razionalisti i primi due paradigmi, più fenomenologico il terzo. La mia sensazione è che entrambi questi approcci abbiano dei vantaggi. Quando possibile, cercare di formalizzare e standardizzare un processo di progettazione può essere molto utile, perché permette di rendere espliciti i requisiti e di operazionalizzare i passaggi progettuali. Spesso, però, un’analisi razionale ed esaustiva delle condizioni iniziali non è possibile, per diverse ragioni: a volte non si hanno a disposizione da subito tutti gli elementi, e spesso i vincoli e i requisiti non sono espliciti. Ecco che il processo di progettazione diventa meno formale, il progettista mette in campo le sue conoscenze, ed inizia un dialogo ermeneutico con la situazione: i committenti, gli utenti (in un approccio partecipativo), le informazioni, la tecnologia, le risorse economiche. L’ampliamento degli ambiti applicativi degli artefatti computazionali (dal mainframe al pc da ufficio al device ubiquito) ha inoltre ampliato lo spettro di requisiti che questi devono soddisfare: quando ad usare i calcolatori erano soltanto scienziati ed ingegneri, i requisiti erano esclusivamente funzionali: l’hardware ed il software dovevano funzionare, punto. Quando il pc è entrato in ufficio ed in mano ai professionisti e agli impiegati, doveva essere anche facile da usare. Nel momento in cui i devices computazionali sono diventati ubiquiti è necessario che rispondano anche ad esigenze diverse, di tipo estetico ed emozionale. Accanto ai requisiti classici, hard, si impongono dunque dei requisiti più soft. Il concetto di requisiti soft è sviluppato esplicitamente dal lavoro di Alessia Rullo (2008). L’autrice distingue fra requisiti funzionali e requisiti soft, dove questi ultimi si riferiscono esplicitamente agli aspetti estetici dell’artefatto. Sebbene io non sia del tutto d’accordo con questo modello teorico, ritengo estremamente interessante l’approccio metodologico, in cui si cerca un equilibrio fra i diversi requisiti, utilizzando sia un approccio partecipativo che un’analisi di tipo euristico. Come infatti giustamente sottolinea Rullo (2008) sebbene il coinvolgimento degli utenti sia estremamente utile, non sempre questi ultimi hanno la capacità di rendere espliciti i loro bisogni latenti. Ancor più interessante è il contesto in cui la metodologia è stata utilizzata: Alessia Rullo ha utilizzato questo approccio nella riprogettazione delle unità di terapia intensiva neonatale. Nel leggere l’articolo non ho potuto non pensare ad un ormai classico lavoro di psicologia animale comparata, che sta alla base della teoria dell’attaccamento di Bolwby. Gli esperimenti realizzati da Harlow and Zimmermann (1958) erano piuttosto crudeli: neonati di scimmia venivano allontanati dalla propria madre e messi in gabbie sperimentali, per studiare il loro comportamento. Una delle osservazioni che gli autori fecero era che i cuccioli si attaccavano morbosamente a delle coperte che erano incidentalmente presenti nelle gabbie per coprire dei

53

A C.H.I. serve il design .  Stefano Bussolon .

note


macchinari. Nell’esperimento più noto, vennero messe nelle gabbie due madri artificiali, ovvero dei manichini di ferro con una cannuccia alla quale i neonati potevano allattarsi. L’unica differenza fra queste due figure era che mentre una era costituita da una rete metallica, l’altra era stata rivestita da una coperta di materiale morbido. In una condizione sperimentale i cuccioli venivano allattati soltanto dal manichino metallico. In questo modo i due manichini implementavano i due requisiti: il manichino metallico il requisito funzionale di allattare il cucciolo, il manichino rivestito il requisito soft di offrire un contatto morbido. Ebbene, le piccole scimmie trascorrevano molto più tempo sul manichino soft che su quello da cui bevevano il latte. Da altre osservazioni sperimentali Harlow and Zimmermann (1958) evinsero che la presenza di coperte, cuscini, insomma di materiali morbidi costituiva un requisito essenziale anché i cuccioli potessero sopravvivere e svilupparsi. La situazione della terapia intensiva neonatale è, per alcuni aspetti, simile a quella delle scimmiette dell’esperimento: per motivi terapeutici i neonati devono essere allontanati dalle loro madri per essere curati e monitorati all’interno di un ambiente articiale. I risultati di psicologia animale comparata ci dicono che i requisiti soft sono non meno funzionali dei requisiti strettamente ingegneristici e medici: un ambiente morbido e protettivo è necessario affinché il neonato possa trascorrere in maniera più naturale e meno traumatica possibile il periodo di terapia intensiva. Sebbene quello descritto da Rullo (2008) sia un caso limite, può in qualche modo fornirci un fondamento teorico che giustichi l’ampliamento dello spettro di requisiti - impliciti ed espliciti - che il designer deve soddisfare. Per concludere, mi permetto di notare che quelli che Harrison et al. (2007) definiscono i tre paradigmi dell’HCI assomigliano molto alle tre qualità che, 2000 anni fa, Vitruvio attribuiva al design architettonico: rmitas, utilitas, venustas: la solidità, l’utilità, la bellezza (sono debitore a Niccolò Ceccarelli per questa citazione). Se per design intendiamo questo, allora l’interaction design costituisce non solo il naturale sviluppo dello HCI, ma anche un’importante sfida all’evoluzione delle scienze cognitive.

Riferimenti bibliografici - Bagnara, S. and Smith, G. (2006). Theories and practice in interaction design. Lawrence Erlbaum Assoc Inc. - Ciborra, C. (2006). Situatedness revisited: The role of cognition and emotion. In Bagnara, S. and Smith, G., editors, Theories and practice in interaction design. Lawrence Erlbaum Assoc Inc. - Fallman, D. (2003). Design-oriented human-computer interaction. In Proceedings of the SIGCHI conference on Human factors in computing systems, pages 225-232. ACM New York, NY, USA. - Gibson, J. (1977). The theory of affordances. Perceiving, acting and knowing: toward an ecological psychology, pages 67-82. - Harlow, H. and Zimmermann, R. (1958). The development of affectional responses in infant monkeys. Proceedings of the American Philosophical Society, pages 501-509. - Harrison, S., Tatar, D., and Sengers, P. (2007). The three paradigms of HCI. alt. In CHI’07. - Rogers, Y. (2004). New theoretical approaches for HCI. ARIST: annual review of information science and technology, 38:87-143. - Rogers, Y., Sharp, H., Preece, J., and Tepper, M. (2007). Interaction design: Beyond human-computer interaction. NetWorker-Craft of Network Computing, 11(4):34. - Rullo, A. (2008). The soft qualities of interaction. ACM Trans. Comput.-Hum. Interact., 15(4):25.

54

A C.H.I. serve il design .  Stefano Bussolon .

note


Luca Mascaro

Progettare applicazioni per iPhone http://www.uxmagazine.it/innovation-design/progettare-applicazioni-iphone/

Negli ultimi mesi l’iPhone ha preso una fetta di tutto rispetto del mercato della telefonica mobile ma ancora più importante è diventato il device leader dell’internet mobile, anche quello europeo. C’è chi oggi si ritrova il 60% degli accessi in mobilità al proprio sito da parte di iPhone e iPod ma dentro questo fenomeno c’è un fenomeno ancora più grande. Infatti gli affezionati utenti del melafonino non solo navigano normalmente in internet ma usano anche la connessione per decine di applicazioni installabili e raggiungibili a portata di tocco. Da recenti statistiche di apple pare che ogni utente abbia installato almeno 2 ulteriori applicazioni a quelle di default che utilizzano la connessione per vivere e che le usino regolarmente. Recentemente ho seguito diverse conferenze sul tema e con mio team abbiamo lavorato sulla progettazione di alcune applicazioni e siti web ottimizzati per iPhone. Ultima di queste conferenze è stata l’iPhone Tech Talk World Tour a Roma dove apple ha presentato ufficialmente tecniche, statistiche, metodologie e case history sul come progettare e realizzare applicazioni per iPhone. I due concetti chiave su cui apple consiglia di focalizzarsi e su cui anch’io ho potuto avere riscontri positivi sono: - concentratevi solo sulle funzionalità rilevanti in mobilità, saranno quelle di maggior valore per l’utente; - “done right” cercate di mantenere una qualità del prodotto alta in quanto i controlli qualità sono molto severi e la competizione sulla qualità in uso è rilevante. Detti questi concetti generali l’approccio che si suggerisce di usare è composto da quattro fasi in cui studiare e formalizzare alcuni aspetti del prodotto.

Think Definite la proposta del vostro prodotto con un application definition statement che corrisponde ad una frase che dice cosa fa l’applicazione (key task) per chi (purpose), ad esempio: “permette di caricare le proprie fotografie per utenti flickr che hanno l’iphone”. Questo esercizio che sembra molto “semplice” in realtà richiede spesso grandi riflessioni in quanto corrisponde un po’ alla missione che si da un’azienda e dunque dovrebbe essere la linea guida principale del prodotto (che deriverà poi nel pitch elevator).

Model È la fase in cui bisogna definire nei dettagli la propria soluzione ed in genere si approccia facendo un brainstorming generale sul funzionamento e tanti, tanti sketches che ne spieghino in maniera semplice il funzionamento ideale che gli si vuole dare. In questa fase si tralascia il voler essere coerenti e/o precisi l’importante è capire cosa si vorrà realizzare. A seguito del brainstorming l’ideale è definire e raffinare un feature

55

Progettare applicazioni per iPhone .  Luca Mascaro .

note


set limitandosi a quelle funzionalità che hanno senso in mobilità e distinguendole tra critiche e non critiche (questo darà la priorità nella progettazione e sviluppo). Al termine di questa fase è importante andare ad indagare qual’è il modello mentale dei propri utenti con le classiche tecniche (interviste, field study, usability test, …) in modo da capire quali sono gli oggetti/ metafore che gli utenti si aspetta, i task che effettuerebbe, i ruoli dell’utente e del sistema e soprattutto le relazioni tra questi elementi.

Realize La fase di realizzazione è quella più corposa ed è composta da forti attività di interaction design e sviluppo. L’approccio suggerito da apple è quello di lavorare con metodologie agili e mantenendo uno stretto contatto tra IDX e DEV.

Dal punto di vista progettuale su iPhone il primo step da effettuare è quello di capire come posizionare il proprio prodotto per capire che esperienza d’uso offrire. Il suggerimento qui è quello di capire come posizionarla su un diagramma di due assi seria/divertente produttiva/ intrattenimento. Il relativo posizionamento ci dirà se la nostra applicazione dovrà avere un’esperienza d’uso immersiva o trasparente, con una gerarchia profonda o no, ecc… Una volta ottenuto il posizionamento si riprendono in mano le funzionalità e il modello mentale degli utenti e si suggerisce di partire facendo paper design e wall sketches cercando di lavorare con modalità rapide nello sviluppare i potenziali infiniti meccanismi di interazione… verificare testando e ricominciare :) Alla fine si formalizza tutto in wireframes funzionali.

Finalize La fase di finalizzazione finale è intesa da apple quella che copre i fattori estetici ed emozionali dell’applicazione che spaziano dall’aspetto grafico, alle icone, alle animazioni, ecc sempre usando una buona dose di buon senso nell’applicarli (attenzione a non perdere la comprensibilità e l’efficienza dell’interfaccia). Questo approccio secondo apple dovrebbe garantire una sufficiente qualità dell’applicazione e superare tutti i loro controlli di qualità. In

56

Progettare applicazioni per iPhone .  Luca Mascaro .

note


termini di numeri e di time to market ci sono un paio di case-study di riferimento (evernote, things, tap tap tap, ecc..) che danno delle indicazioni di massima sui tempi e costi di progetto. In genere un prodotto di buona qualità per iphone viene sviluppato da team che vanno da 3 a 5 persone in 3/4 mesi di lavoro con una ripartizione del lavoro che si bilancia in 50/75% UX e in 25/50% sviluppo software. Come si può osservare il peso verso il design è molto sproporzionato in confronto agli altri prodotti software però questo è il mondo apple ;) Articolo originale pubblicato su http://www.lucamascaro.info/blog/userexperience/progettare-applicazioni-per-iphone.html

57

Progettare applicazioni per iPhone .  Luca Mascaro .

note


Valeria Gentile

Emergenza d’uso: il caso Abruzzo 2009 http://www.uxmagazine.it/visual-communication-design/emergenza-duso-il-caso-abruzzo-2009/

In un contesto sempre più differenziato, in cui il web evolve velocemente e in numerose direzioni, si discute molto sulle tecniche di progettazione incentrate sull’esperienza utente e come debbano essere ricercate, analizzate e progettate. Si tratta di un ambito nuovo e in costante evoluzione, che interessa sia hardware che software ed ha origine da parole chiave come architettura dell’informazione, interaction design, visual design, user experience design e così via. Un po’ meno dibattuto è, invece, il percorso che si deve fare, dopo (o ancor prima?) aver creato contenitori all’avanguardia, per pensare in modo completamente diverso anche la produzione dei contenuti che in essi vengono proposti, soprattutto per quanto riguarda il rapporto tra utente ed informazione.

L’esperienza dell’emergenza È passato qualche tempo dal 17 gennaio del 1991, quando per la prima volta nella storia abbiamo potuto guardare le immagini di una tragedia in tempo reale. Quel giorno, in cui il mondo poté guardare in diretta tv il bombardamento di Baghdad che diede il via alla Guerra del Golfo, qualcosa è cambiato: un conflitto lontano era diventato estremamente vicino e reale e noi potevamo sentirlo realmente vicino, non solo immaginarlo basandoci sui racconti dei combattenti o, peggio ancora, sulla propaganda dei vincitori. Nella nostra realtà, il 6 aprile del 2009 qualcosa di molto simile è accaduto, ma sulla Rete. Qualcosa che ha rappresentato un piccolo passo avanti verso un nuovo concetto di esperienza d’uso. Per la prima volta nella storia dei sismi in Italia abbiamo assistito ad un flusso informativo enorme, e dalle caratteristiche inedite. Un flusso nuovo che è nato da un’evoluzione dei bisogni comunicativi delle persone, che non sono più clienti, spettatori; non so no più lettori, ascoltatori, destinatari di un’informazione piatta ed unidirezionale; sono utenti che hanno bisogno, mentre fruiscono dei contenuti, di fare un’esperienza (apportandovi quindi qualcosa essi stessi) che sia forte, unica e completa. Grazie alla pessima qualità di gran parte dei telegiornali e dei programmi di (pseudo)approfondimento, all’incompetenza di certi operatori dell’informazione, alla pigrizia del giornalismo italiano e all’incoerenza dell’agenda setting, è nata una nuova fascia di utenti di Internet, senza che ce ne fossimo accorti del tutto, anche in Italia. Utenti con un impellente bisogno di “esperienza dell’emergenza”che non è più soddisfabile da meri bollettini, fredde cifre o inutili dietrologie, e che quindi si sono decisi a creare, da soli, i presupposti per questo salto di qualità, attraverso siti web, blog, forum e strumenti come Tumblr, Facebook, Twitter e FriendFeed, utilizzando un disastro come un’occasione di produzione e comunicazione. Alcuni di loro si trovavano già sul posto, o nelle regioni limitrofe; altri sono partiti per rendersi conto con i propri occhi della reale situazione post-terremoto; altri ancora sono rimasti a casa, ma tutti, in un modo

58

Emergenza d’uso: il caso Abruzzo 2009 .  Valeria Gentile .

note


o nell’altro, hanno contribuito al manifestarsi, quasi irruente, di questo fenomeno straordinario. La pervasività della piena informativa ha paradossalmente creato un vuoto negli abitanti della Rete, che sono ormai arrivati alle loro seconde e terze generazioni. Proprio come i bambini di oggi sono più acuti e pretenziosi di quelli di ieri, gli utenti di oggi non credono a tutto quello che gli viene detto e spesso ne sanno molto più di chi glielo dice. Non sopportano i trucchi da quattro soldi, fanno domande scomode e vivisezionano le risposte, ma soprattutto sono consapevoli del proprio bisogno di narrazione e sanno come soddisfarlo.

Cosa vogliono gli utenti Progettare contenuti incentrati sulle necessità dell’utente non è compito facile. Raccontare una storia come quella del terremoto in Abruzzo e renderla un’esperienza implica però la necessità di viverla ancor prima di riportarla (esattamente come occorre aver utilizzato il prodotto o il servizio che si vuole vendere, prima di promuoverlo). È molto più semplice sedersi ad una scrivania, mettere le mani sulla tastiera e rielaborare i pezzi del puzzle, così facilmente rintracciabili senza sforzi grazie all’innovazione tecnologica. Ma ciò non significherebbe produrre contenuti validi ai fini della user experience, l’esperienza che va oltre lo schermo. Ecco quindi quali sono i 10 ingredienti principali di una buona comunicazione per il web incentrato sull’esperienza utente. Attivazione dei cinque sensi. L’utente vuole dimenticarsi del mouse, del touchpad o della scrollbar. Vuole vedere i colori del luogo di cui si narra, sentirne i suoni e gli odori. Vuole sapere i nomi dei protagonisti della storia, e li vuole sapere subito, senza dover aspettare i titoli di coda. Vuole mettere le mani nella faccenda e sporcarsele, vuole sperimentare in prima persona il significato delle parole e immaginarne la consistenza. Varietà. La noia è il peggior nemico di chi fa il web, ma anche il migliore amico. Se sfruttata in maniera giusta si rivela una risorsa eccezionale, che deve portare a spaziare tra i diversi aspetti del tema che si affronta e farlo da diverse prospettive, perché l’utente vuole qualcosa di irresistibile, qualcosa da cui non riesce a distogliere l’attenzione. Plusvalore. L’innovazione e la creatività non bastano perché un contenuto sia di qualità: occorre avere qualcosa da dire e un modo unico al mondo per dirlo. Che sia il tono della voce (o della scrittura, o della scala cromatica) oppure le corde emotive che si toccano, che siano i tempi che ci si prende o le re-azioni che il contenuto, a sua volta, pretende dall’utente, deve avere qualcosa che ci differenzi dal resto. Convinzione. Se non sei sicuro di quello che dici, non dirlo. Non perchè sia rischioso, superficiale o falso, ma semplicemente perché all’utente non interessa. Non vuole credere in qualcosa in cui non credi tu prima di tutti e per essere credibile devi rivolgerti a lui parlando in prima persona, o con uno stile narrativo che richiama una relazione immediata. Omogeneità. Se ti sei dimenticato quello che volevi dire all’inizio, o come volevi dirlo, stai sbagliando strada. L’utente ha bisogno di punti di contatto coerenti tra di loro per affrontare l’esperienza in

59

Emergenza d’uso: il caso Abruzzo 2009 .  Valeria Gentile .

note


maniera costante: solo così può attivare le proprie connessioni mentali e seguire le proprie inclinazioni. Se si trova davanti ad un contenuto che presenta omogeneità nella sua struttura di base troverà più facile il raggiungimento dei suoi obiettivi, riconoscerà più velocemente l’impronta ed il plusvalore che gli proponi, e gli piacerà anche molto di più il risultato finale. Complementarietà. Come tutto ciò che riguarda la user experience, gli strumenti ed i contesti d’uso a disposizione dell’utente non devono essere alternativi, ma complementari e perfettamente sincronizzati. Per questo chi progetta deve essere in grado di combinarli nel processo di ideazione e coinvolgere l’utente a 360 gradi: l’esperienza si estende su più canali di comunicazione, quindi deve trovare un ponte tra i vari settori dell’universo umano, quello fisico, quello mentale e quello emotivo. I ponti di esperienze (i bridge experiences di Joel Grossman ) aiutano a preservare l’omogeneità di un’esperienza utente, mantenendo quindi un senso di continuità in ogni aspetto di essa. Semplicità. Il linguaggio non deve essere troppo colloquiale, ma nemmeno troppo ostico. Ricordati di usare un codice semplice, di esprimere schiettezza nelle tue posizioni e di non cedere mai a ridicole manie di complottismo, ché all’utente fanno venire il prurito. È sconveniente scegliere una terminologia pesante (lo stesso concetto che vale per l’usabilità nel design), perchè l’utente si affatica ad esperire e getta la spugna. Trasparenza. Essere corretti e leali è fondamentale per dare il via ad una conversazione in modo vincente. A riprova di questo, i contenuti che riguardano il caso Abruzzo 2009 e che più hanno avuto successo nel web sono quelli che hanno più esplicitamente di altri mostrato rispetto. In due direzioni: verso gli abruzzesi innanzitutto, e in secondo luogo verso gli utenti. I migliori contenuti, è inutile dirlo, sono quelli che prendono le mosse dalla realtà e che non fanno leva sulle opinioni ma su fatti, dati, esempi ed analisi. Flessibilità. È vero che la prima cosa da fare è chiedersi a chi ci rivolgiamo, quali sono gli obiettivi dei nostri utenti e cosa essi si aspettano da noi. L’ingrediente principale di un contenuto web incentrato sulla user experience, però, è la sua estrema elasticità, il suo essere adattabile a qualsiasi tipo di utente. Condivisione. Oggi assistiamo all’evoluzione dei processi informativi sul web in qualcosa che assomiglia sempre più ad una conversazione. Dopo aver sentito cosa hai da dire, l’utente vuole sentire cosa hanno avuto da dire gli utenti che lo hanno sentito prima di lui, per poi dirti la sua o integrare il tuo contenuto con qualcosa in più (o quantomeno vuole sapere di poterlo fare). Attivare discussioni, colloqui, dialoghi o anche solo chiacchierate, è un processo vitale per la produzione di qualcosa di valido e ne sono parte integrante e fondamentale. Per far sì che questo accada bisogna creare un terreno fertile per le interazioni, attraverso l’uso di canali aperti ed una disponibilità all’ascolto. Un altro passaggio da non sottovalutare è condividere, oltre ai contenuti stessi, anche i processi di preparazione ed i risultati che si ottengono strada facendo.

Prospettive e scenari futuri Mentre qualcuno si ostina a negare l’evidenza di questo fenomeno

60

Emergenza d’uso: il caso Abruzzo 2009 .  Valeria Gentile .

note


e a cercare di contenerlo, le evoluzioni della comunicazione e del fare informazione sulla Rete presentano visibilmente una tendenza partecipativa straordinaria. Le caratteristiche di unidirezionalità, esclusivismo ed autorefernzialità che troviamo all’interno della struttura stessa dei media tradizionali, sul web lasciano il posto alla conversazione democratica e alla condivisione nel significato più ampio del termine. È importante, quindi, lavorare sull’architettura dell’informazione e sul design della comunicazione, ma non bisogna perdere di vista nemmeno il valore intrinseco dei contenuti di qualità, che associati ai primi possono rappresentare la carta vincente ed il fulcro della user experience. Solo così si può passare finalmente ad una comunicazione sul web che da prodotto si fa processo. Ma occorre sperimentare tanto. E credere nel futuro.

61

Emergenza d’uso: il caso Abruzzo 2009 .  Valeria Gentile .

note


Marco Zamarato

Progettare attraverso le storie http://www.uxmagazine.it/visual-communication-design/progettare-attraverso-le-storie/

Raccontare storie è fondamentale per tutti gli uomini. Gli uomini sono fondamentali al design (non solo a quello utentecentrico… ). Quindi le storie sono fondamentali per tutti i designer. Questo post è il primo di una breve serie con cui intendo analizzare e mostrare le possibili connessioni tra il mondo della narrazione e la realtà della progettazione di prodotti e servizi. Raccogliere, assimilare, elaborare e raccontare storie sono le principali attività cognitive che impariamo a svolgere a partire dai primi anni della nostra vita. Ordiniamo gli eventi in sequenze temporali e causali lineari. Utilizziamo queste sequenze per interpretare il mondo che ci circonda, comprendere il comportamento delle altre persone e stabilire il nostro. Esistono sottili fili narrativi che legano assieme anche i più piccoli gesti della nostra quotidianità, guidano e giustificano le nostre scelte e ci permettono di dare senso alle azioni. Dall’interazione uomo macchina siamo passati all’usabilità, per arrivare all’esperienza totale delle persone attraverso un percorso in cui i prodotti e i servizi sono diventati sempre più volatili, pervasivi e modulari e i designer hanno visto allargarsi il campo delle conoscenze e delle pratiche da cui attingere nuovi strumenti. Non sto dicendo nulla di nuovo; sto solo tentando di fornirvi una prospettiva leggermente diversa su un argomento su cui si è scritto e detto molto. Il termine storytelling ricorre in molti ambiti della comunicazione, del marketing e dell’experience design tuttavia con questo termine identifichiamo spesso una serie di attività che avvengono ex post, dedicate alla trasmissione di un messaggio che è già stato progettato, chiuso e codificato. Utilizziamo gli scenari per mostrare e spiegare il progetto e non per crearlo. Le personas spesso risultano profili piatti a rischio di stereotipo. Allora perché non immaginare di sfruttare la nostra innata perizia narrativa in maniera attiva già nelle prime fasi della progettazione? Si tratta di tradurre la narrazione in uno strumento creativo - uno dei tanti, non necessariamente il migliore - che i designer possono utilizzare in tutti i casi in cui il valore della progettazione si esprime nel campo dell’immateriale e trascende il piano della funzione e dell’estetica. Un libro può rivelare e raccontare molto dell’autore, difficilmente un telefono cellulare o un sistema di navigazione GPS rappresentano la soggettività delle persone che sono state coinvolte nella loro progettazione eppure non possiamo negare che le nostre scelte di consumatori avvengono in parte anche nei termini del potenziale narrativo che alcuni di questi prodotti intrinsecamente ci offrono. È come se gli oggetti fossero sempre immersi in un universo narrativo che contiene una serie di elementi e caratteristiche capaci di attivare una serie di script su come costruire la nostra “storia quotidiana”. Inserire questi universi narrativi nel numero di variabili che un

62

Progettare attraverso le storie .  Marco Zamarato .

note


designer deve governare porterebbe al doppio beneficio di semplificare il marketing rendendolo meno invasivo e contribuire ad offrire servizi e prodotti più “sinceri” e intimamente legati alle necessità degli utenti.

Un approccio narrativo alla progettazione La morfologia della fiaba studiata è sintetizzata da Propp nel 1929 sebbene sia uno strumento dal punto di vista della narratologia ampiamente sorpassato permette di sottolineare alcuni dei legami basilari che uniscono il racconto alla progettazione. Si tratta di una versione semplifica della morfologia di Propp in cui è possibile in estrema sintesi identificare due istanze che si sviluppano in progressione: la storia del soggetto (il protagonista della storia) e la storia oggettiva (la sequenza di accadimenti della storia). Immaginate il vostro utente di riferimento come il protagonista della ‘fiaba’ creata dal vostro servizio/prodotto. Ci sono alcuni punti interessanti: il protagonista è sempre spinto all’azione da una qualche forma di mancanza (a cui corrisponde una necessità o un desiderio). L’impresa che il protagonista deve compiere mette sempre alla prova lo stesso, mettendo in dubbio il suo sistema di credenze. Da questo deriva che a livello personale riuscire nell’impresa colmando la mancanza equivale a confermare e rinforzare la propria identità personale. Non mi riferisco solo a imprese epiche ed eroiche… anche provare ed acquistare un nuovo abito, partire per una vacanza o fare degli esami all’ospedale sono esperienze che rientrano a pieno titolo in questa morfologia. Alla storia personale del protagonista corrisponde una storia oggettiva, fatta di problemi da risolvere, decisioni da prendere e azioni da compiere. Questa è la storia oggettiva. Seguendo Propp questa storia prende due strade principali: la storia del riconoscimento e quella del falso soggetto. Il riconoscimento è la sequenza corretta di azioni che il protagonista deve compiere per essere riconosciuto come eroe mentre il falso soggetto e la storia dell’antagonista non superando le prove e facendo le scelte scorrette viene smascherato, identificato come antieroe e punito. A questo punto diventa facile intravedere tra le funzioni di Propp qualcosa di familiare: la storia soggettiva, quella oggetti e la storia del falso soggetto diventano una metafora delle funzioni e delle variabili che un experience designer tiene normalmente in conto durante la progettazione. Sotto la superficie di un prodotto o un servizio c’è la messa in scena della storia soggettiva: tutto ciò che non è immediatamente tangibile ma sfrutta i nostri desideri/bisogni e agisce sulla nostra identità di persone e di utenti. La storia oggettiva diventa la superficie, l’interfaccia sistema-uomo che racconta delle azioni da compiere, suggerisce le soluzioni che possiamo trovare e ci guida nel raggiungerle. Dentro la superficie la storia del falso soggetto diventa il percorso dell’utente, il flowchart, le regole del sistema che prevengono e gestiscono i dubbi e gli errori. Finora niente di nuovo. Creare connessioni tra discipline diverse non crea e non distrugge nulla. Ma può cambiare per un attimo il punto da cui osservare. Avvicinare il diagramma di Propp alla pratica dell’experience design offre al momento la possibilità di sintetizzare e organizzare secondo un paradigma narrativo quello che facciamo ogni

63

Progettare attraverso le storie .  Marco Zamarato .

note


giorno con il nostro lavoro ed è solo il primo passo verso un approccio narrativo alla progettazione. Esistono strutture narrative più complesse che possono descrivere in maniera più dettagliata il percorso delle persone attraverso i servizi e il loro rapporto con gli oggetti ed è possibile applicare questi principi a diverse realtà della progettazione. Gli argomenti che intendo trattare nelle prossime uscite sono: - narrazione e strategia della progettazione: come pensare strategie narrative per la definizione e lo sviluppo di nuovi prodotti. - strutture narrative basilari e tecniche di brainstorming: una serie di strutture narrative e tools riutilizzabili in diversi contesti come strumenti di analisi e brainstorming. - gestione narrativa del progetto: il paradigma narrativo come strumento di gestione del progetto, del gruppo di lavoro e della produzione.

64

Progettare attraverso le storie .  Marco Zamarato .

note


Daniele Cerra

I videogame come sperimentazione dei nuovi paradigmi di interazione uomo-macchina

note

http://www.uxmagazine.it/interface-interaction-design/videogame-sperimentazione-dei-nuoviparadigmi-di-interazione-uomomacchina/

Quando Nintendo Wii fu lanciata sul mercato in molti pensavano si trattasse di un esperimento rischioso. Stravolgere il paradigma e mettere al centro dell’esperienza di gioco “quello che fa il giocatore” piuttosto che “quello che succede nel videogame” era probabilmente un azzardo considerato il successo di Playstation e Xbox. A oltre tre anni di distanza, anche Microsoft e Sony hanno però deciso di introdurre importanti novità nel sistema di controllo e di interazione tra i giocatori e le rispettive console, confermando così che quello di Nintendo più che un azzardo era una visione. Ecco i “rivoluzionari” sistemi di controllo presentati all’E3 di Los Angeles all’inizio di giugno 2009. Wiimote, Nunchuk e, a mesi di distanza, Balance Board. Con questi strumenti Nintendo è riuscita non solo a conquistare un esercito di videogiocatori (allargando il mercato anche a chi i videogames non se li era mai filati) ma anche a sottoporre all’attenzione del mondo intero un nuovo concetto di interazione tra uomo e macchina. Tracciando alcuni parametri fisici relativi al corpo del giocatore (direzione del movimento, posizione nello spazio, velocità dei gesti, peso, spostamento del baricentro) alcuni giochi per la console Nintendo più famosa di sempre hanno divertito chi li ha utilizzati e fatto corrucciare il mento (in segno di “peccato non averlo”) anche ai più accaniti sostenitori di PS3 e Xbox360, le altre due console di nuova generazione. Se pur con anni di distanza, la presentazione all’E3 di Los Angeles dei nuovi sistemi di controllo per PS3 e Xbox360 lascia intendere come ormai il solco sia stato tracciato e che decidere di ignorare questa rivoluzione sarebbe controproducente per il business. Ecco che, così, i due colossi che stanno alle spalle di PS3 e Xbox360 sono finalmente entrati in competizione con Nintendo sfidandola direttamente sullo stesso campo: l’interazione uomo macchina. La scelta meno originale, ma per questo motivo forse anche meno rischiosa, è stata quella di Sony. All’E3 ha infatti presentato la bacchetta magica (esattamente lo stesso nome e la stessa forma che era stata ipotizzata per alcuni prototipi del Wiimote sperimentati ormai 5 anni prima) che ha un funzionamento analogo a quello del Wiimote di Wii, molto probabilmente, da quanto si intuisce dalle immagini, potenziato da un giroscopio. Guardate il video della presentazione ufficiale. Xbox360 ha invece adottato un approccio più radicale, portando all’attenzione del pubblico il cosiddetto Project Natal. In questo caso il sistema di interazione è basata su una Webcam in grado di rilevare con grande precisione la posizione del corpo e degli arti nei tre assi

65

I videogame come sperimentazione dei nuovi paradigmi di interazione .  Daniele Cerra .


spaziali e da un sistema di riconoscimento vocale. Come si vede dalle varie demo ufficiali, che essendo qualcosa di ben diverso da una prova sul campo sono in realtà da prendere con le pinze, sembra di essere di fronte a una consistente innovazione, in grado di aprire le porte a videogames radicalmente nuovi come Lionhead, simulazione in cui il giocatore e il personaggio dentro lo schermo interagiscono passandosi di mano oggetti e parlando.

note

Insomma, sembra che in futuro (al momento di scrivere questo articolo Sony e Microsoft non hanno ipotizzato date di rilascio per queste tecnologie e per giochi che le sfruttino pienamente), Nintendo dovrà faticare per mantenere la leadership dell’innovazione nel campo dell’interattività. Forse per questo, e per mantenere un certo distacco, ha annunciato sempre all’E3 il Wiimotion Plus (il giroscopio da collegare al Wiimote), già compatibile con diversi giochi che saranno lanciati nelle prossime settimane contestualmente alla piccola periferica hardware, e il Vitality Sensor, un misuratore digitale (nel senso che si infila nel dito :) ) di parametri vitali che potrà essere utilizzato, oltre che per monitorare pulsazioni e forse altri dati biometrici nei fitness game anche per “far accadere” in altri tipi di giochi eventi legati al nostro stato emotivo e di stress. Se si conta che nel frattempo anche le software house stanno utilizzando la console di Nintendo come piattaforma di innovazione dei loro giochi (Ubisoft ha appena presentato un interessante videogame in esclusiva per Wii per l’allenamento fisico che utilizza una webcam per monitorare la correttezza delle posizioni assunte dal giocatore) ecco che sembra che il volando messo in moto da Wii stia cominciando a girare con una velocità interessante. Interessante, per finire, vedere come una conferenza un tempo dedicata ai videogame dipendenti oggi si dimostri uno degli eventi a livello mondiale più significativi per quanto riguarda l’HCI.

66

I videogame come sperimentazione dei nuovi paradigmi di interazione .  Daniele Cerra .


Dario Rodighiero

Biblioteconomia 2.0 http://www.uxmagazine.it/interface-interaction-design/biblioteconomia_2/

Nel 2006 dopo una laurea in informatica e un’esperienza lavorativa tra interaction design e grafica, il primo lavoro utile che trovo mi porta sulle rive del Lago Maggiore. Qui è situata una delle sedi della Commissione Europea, nello specifico il Joint Research Centre. Il centro nacque negli anni ’50 atto alla ricerca nucleare, mentre ora svolge un più generico ruolo di supporto tecnico al processo di creazione della legislazione europea. Il progetto, sul quale a distanza di tre anni sto ancora lavorando, consiste nella realizzazione di un sistema di information retrieval atto a integrare le differenti risorse che descrivono l’ambiente lavorativo del JRC. Nello specifico 1) la legislazione europea, 2) i documenti scientifici prodotti all’interno del centro e 3) il posseduto della biblioteca del sito. I tre insiemi di documenti sono indicizzati attraverso tre diversi vocabolari controllati, oggetti che all’inizio del lavoro mi erano totalmente sconosciuti. Sono stato fortunato, dopo MILK per me questo è il secondo progetto a lungo termine dove è realmente possibile sviluppare un software seguendo un processo completo di design, senza prototipazioni veloci o rigidi vincoli di tempo. La prima parte del processo di design è sempre affascinante e affrontarla con la dovuta calma è un lusso. Questa parte consiste nell’immedesimarsi nell’ambiente, studiarlo assieme alle persone che lo popolano, informarsi e approfondire. Come scritto poco prima, dato che non sapevo cosa fosse un vocabolario controllato, la prima cosa che mi misero tra le mani fu Documentazione e Biblioteconomia¹, un manuale a cura di M. P. Carosella e M. Valenti che tratta con chiarezza svariati argomenti che gravitano attorno al mondo delle biblioteche. La quarta di copertina recita: “locali e attrezzature, acquisizione, ordinamento, ricerca, diffusione e utilizzazione dei documenti e delle informazioni, automazione e micrografia [...]”. Questo articolo è lontano dall’essere un’introduzione alla Library and Information Science, non vuole nemmeno essere una panoramica del progetto su cui sto lavorando con tanta passione². Piuttosto l’obiettivo che mi sono prefissato è quello di scrivere una piacevole digressione nella quale concetti di diverse discipline si mischiano per diventare meticci³. Inanellare termini, discorsi, riflessioni che nascono da approfondimenti legati alla biblioteconomia, ma si riflettono nitidamente alle tematiche legate a Internet. Infine mi piacerebbe trasmettere anche le impressioni dell’ambiente della biblioteconomia, un mondo che mi ha stupito per la limpidezza, la passione, la storia. Senza dimenticare le persone che ho conosciuto e che fanno di questo mondo una piccola isola preziosa ora che tutto è un caos.

67

Biblioteconomia 2.0 .  Dario Rodighiero .

note


note

Concetti Carlo è la persona che mi ha coinvolto nella realizzazione di questo progetto. Abbiamo avuto gli stessi professori, abbiamo lavorato con le stesse persone ed entrambi ci siamo laureati in informatica con un condiviso scetticismo. Nonostante questo continuiamo ad amare i libri nella forma di oggetti cartacei. Agli inizi del progetto, Carlo mi ha lasciato una pila di libri ed è scappato. La settimana seguente è tornato per rispondere ai miei dubbi ed è scappato di nuovo. Spesso le discussioni che si innescano fra noi durano manciate di minuti, poi Carlo scappa. Potrei definirlo come un uomo ricco di spunti spesso in fuga. La digressione inizia con l’argomento che ha portato alla prima fuga di Carlo, il senso di concetto. I coniugi Leonard e Sheena Will sono due graziosi vecchietti inglesi che si occupano di gestione dell’informazione e gesticono un sito ricco di informazioni. Willpower Information è una preziosa perla nel mondo della biblioteconomia e sebbene non si presenti con uno stile grafico seducente, la qualità dei contenuti è elevata. Il sito fornisce anche un aggiornato glossario di termini, dal quale riportiamo la definizione di concetto. “Il concetto è un’unità di pensiero. [...]” Per aiutare l’utente nella ricerca, nelle biblioteche è stato introdotto l’uso dei termini, delle parole o delle frasi che vengono associate a un libro. Per esempio il libro di Donald Norman La caffettiera del masochista può essere associato al termine ergonomia cosicché un utente che cerca materiale legato all’ergonomia possa trovare il libro di Norman. Un punto interessante della biblioteconomia è che il termine ergonomia non porta in sé nessun significato, può essere considerato semanticamente vuoto. Tuttavia il termine assume significato quando viene associato a un libro. Nell’esempio che abbiamo fatto il termine ergonomia assume il suo significato quando viene associato al libro di Norman, ovvero quando l’associazione tra termine e libro dà vita a un concetto. L’associazione fra termini e libri viene chiamata indicizzazione. L’indicizzazione è un’attività che spetta al bibliotecario, a lui va la responsabilità della creazione dei concetti. Più legami termine-libro verranno creati, più nasceranno concetti. Inoltre un unico libro può essere associato a più termini a seconda della sua transdisciplinarità. Attraverso l’indicizzazione, una biblioteca con molto materiale porterà alla formazione di una lista con molti termini che verrà usata come strumento nella ricerca. In maniera analoga, un motore di ricerca come Google si comporta quasi come un bibliotecario: Google cerca le pagine web, le indicizza e le mette a disposizione degli utenti attraverso una ricerca testuale. Usando degli automatismi, Google crea dei concetti che saranno accessibili attraverso un’interfaccia di ricerca testuale. Ma cosa cambia tra un bibliotecario e Google? Molto direi.

68

Biblioteconomia 2.0 .  Dario Rodighiero .


Bibliotecario Prima di tutto il bibliotecario è una persona. Può essere banale, ma con una persona riusciamo ad avere un dialogo mentre con un motore di ricerca no, e se parliamo con un bibliotecario lui ne terrà conto mentre per Google saremo un’e-mail. Parto da questo perché la figura del biblotecario è protesa verso i suoi utenti, un bibliotecario senza utenti non ha senso di esistere. Se l’utente non trova materiale nella biblioteca, ammesso che questo esista, la colpa è solamente del bibliotecario. E dato che il successo della ricerca dei libri è strettamente legato all’indicizzazione, il bibliotecario si deve adoperare a manipolare la lista dei termini in modo che sia comprensibile all’utente. Questa manipolazione porta alla nascita dei vocabolari controllati. I vocabolari controllati sono delle liste di termini usate per indicizzare libri e successivamente per trovarli. Una buona gestione di vocabolari controllati porta a un diffuso successo nella ricerca dei libri. Partendo dall’assunto che i vocabolari controllati sono lo specchio delle biblioteche, si può dire che essi siano variegati quanto le biblioteche stesse: semplici o sofisticati, piccoli o sconfinati, in una o più lingue, soli o la somma di più vocabolari. Per esaminare le norme che ne regolano la forma e la gestione prenderò ad esempio il tesauro, un modello consolidato di vocabolario controllato. Immaginiamo Margherita come una motociclista. Ha letto Lo zen e l’arte della manutenzione della motocicletta 5 e vorrebbe conoscere un po’ meglio la sua Guzzi nel caso avesse qualche contrattempo. Arriva dal bibliotecario e chiede quali libri potrebbe consultare sull’argomento “moto”. Il bibliotecario risponde cordialmente che consultando i terminali della biblioteca troverà molto materiale sotto il termine “motocicletta”. Margherita ottiene la lista di libri corrispondenti al termine “motocicletta”, ne sceglie uno e inizia a consultarlo. Fa per lei, lo porterà a casa. Il bibliotecario per raffinare il tesauro ha degli strumenti chiamati relazioni, essi hanno la funzione di collegare due termini attraverso legami specifici. In questo caso “moto” è legato a “motocicletta” attraverso una relazione chiamata USE, ovvero “moto” USE “motocicletta”. Questo tipo di legame significa che se voglio cercare libri sull’argomento “moto” devo usare il termine “motocicletta”. Google è in grado di distinguere tra “moto” e “motocicletta”? No, i risultati che seguono le due ricerche sono diversi. Immaginiamo ora che Anna, agricoltrice per passione, voglia trovare libri sulla pesca. Il bibliotecario, sempre cordialmente, chiede se è interessata a libri sulla coltivazione del frutto o sulla disciplina sportiva. A seguito della risposta egli indirizza Anna verso una ricerca che la porterà a trovare i libri desiderati. Il bibliotecario per raffinare il tesauro questa volta userà relazioni di tipo gerarchico: il termine “pèsca” potra essere nidificato a “frutto”, mentre il termine “pésca” potrà essere figlio di “disciplina sportiva”. In questo caso si dirà che “pèsca” è un narrower term rispetto a “frutto”. Relazioni di tipo gerarchico sono importanti perché aiutano a delimitare il significato di un termine, a specificarlo o a generalizzarlo sempre a seconda del materiale posseduto.

69

Biblioteconomia 2.0 .  Dario Rodighiero .

note


In questo caso i motori di ricerca come Google e Yahoo hanno una sezione dedicata chiamata directory, non solo caratterizzata da una struttura di tipo gerarchico ma anche da relazioni trasversali alle discipline. Per esempio la ricerca di Anna l’ha portata a trovare libri sulla pesca legati alla disciplina dell’orticultura. Tuttavia potrebbe essere in seguito interessata anche all’uso della pesca in campo gastronomico. Per venirle incontro il bibliotecario interviene sul tesauro attraverso leganti trasversali chiamati related term, che nell’esempio specifico collegheranno la coltivazione della pesca alle ricette della pesca. Queste relazioni aiuteranno quindi l’utente a vedere un argomento da diversi punti di vista. Questi esempi sono serviti a dare un’idea di quali siano i meccanismi che regolano la gestione dei vocabolari controllati, ma soprattutto sono serviti a farvi capire che dietro a un qualsiasi tipo di vocabolario controllato (tesauro, classificazione, soggettario, tassonomia, etc.) esiste un profondo lavoro da parte del bibliotecario. Senza questo lavoro di manipolazione, difficilmente riusciremo a giungere a dei risultati soddisfacenti. Prendiamo ora in considerazione un social network come delicious, specializzato nella gestione dei bookmark. Una persona, dopo essersi iscritta, può salvare i suoi bookmark personali e condividerli con una comunità. Il tessuto di questo network è affascinante: si genera sulle azioni di indicizzazione di ogni singolo utente e la quantità di dati prodotta è impressionante. Fare delle ricerche in delicious può portare a risultati più interessanti rispetto ai motori di ricerca stessi. Tuttavia ha il grande limite di non poter distinguere tra pèsca e pésca o più semplicemente tra il singolare e il plurale. Anch’io sono un utente di delicious e per quanto mi posso permettere, cerco di tenere aggiornata la lista dei termini. Però, non essendoci un vocabolario comune, il mio sforzo non è condivisibile con la comunità. La biblioteconomia ha già risolto problemi come questi, ma il mondo di Internet non sembra interessaresene, anzi sembra ancora in uno stato di entusiasmo per le folksonomy. Un’altra grande differenza che divide Internet dal mondo della biblioteconomia è lo spazio. Sul web esiste una quantità tale di dati che si potrebbe considerare infinita, le biblioteche invece sanno che lo spazio costa ed è prezioso, eccezion fatta per la Biblioteca di Babele 6. Nelle biblioteche avere spazio limitato significa dover scegliere il materiale da esporre al pubblico. Anche questo è uno dei compiti del bibliotecario: introdurre e scartare volumi è la norma per mantenere una biblioteca aggiornata. Bisogna considerare inoltre che incaricare una persona a scegliere e valutare i libri è una garanzia di qualità. In questo modo in biblioteca difficilmente troverete un libro scritto male. Anche se ci finisse, col tempo sarebbe comunque destinato a sparire. In Internet invece una pagina è destinata a vivere quasi oltre la morte, creando così una quantità di rumore che va a danneggiare le ricerche. Inoltre una grande mole di dati tende a seppellire le informazioni e ora lo dimostreremo usando un paradosso. Avete mai usato Google per cercare Google? Se provate, ottenete due miliardi e mezzo di risultati. I primi quaranta risultati si riferiscono al dominio stesso di Google mentre i risultati dopo il cinquecento non sono nemmeno visualizzabili. Ci sono circa

70

Biblioteconomia 2.0 .  Dario Rodighiero .

note


due miliardi e mezzo di indirizzi non visualizzati, praticamente la quasi totalità dei risultati è seppellita e inaccessibile. Un bibliotecario di questi due miliardi e mezzo di pagine ne sceglierebbe tre, se parlassimo di una biblioteca specializzata potremmo arrivare a una decina. Invece con i motori di ricerca tocca a noi utenti fare una gran lavoro per trovare contenuti di qualità.

Conclusione La bibloteconomia è una scienza illustre, riconducibile al Vallo Adriano 7. Quello che mi premeva fare in questo scritto era di mettere in evidenza alcune tematiche che il mondo di Internet non ha avuto modo di approfondire e sviluppare adeguatamente. Penso che i nuovi media abbiano molto da imparare dalla biblioteconomia e che gli utenti dovrebbero essere educati maggiormente al loro ruolo, imparando a padroneggiare lo strumento conoscendone limiti e qualità. Vorrei concludere presentandovi quelle che vorrebbero essere i cinque principi di Internet. Sono stati volutamente e forzatamente riadattati dalle cinque leggi della biblioteconomia di Ranganathan 8, il padre della biblioteconomia indiana. In particolare “sito web” ha preso il posto di “libro” e Internet ha preso il posto di biblioteca. Nonostante questo le leggi non sembrano aver perso valore: 1. I siti web sono fatti per essere usati 2. Ad ogni utente il suo sito web 3. Ad ogni sito web il suo utente 4. Non far perdere tempo all’utente 5. Internet è un organismo mutevole

Bibliografia ¹ M. Valenti, M.P. Carosella, Documentazione e biblioteconomia. Franco Angeli (1998) ² D. Rodighiero, M. Halkia, M. Gusmini, Mapping for Multi-Source Visualization: Scientific Information Retrieval Service (SIRS). Human-Computer Interaction: Interacting in Various Application Domains. 13th International Conference, HCI International 2009, San Diego, CA, USA, July 19-24, 2009, Proceedings, Part IV ³ S. L. Star, Sorting Things Out. MIT Press (2000) 4 D. A. Norman, La caffettiera del masochista. Giunti (1996) 5 R. M. Pirsig, Lo zen e l’arte della manutenzione della motocicletta. Adelphi (1999) 6 J. L. Borges, Finzioni. Einaudi (2005) 7 G. Mangani, Cartografia Morale. Franco Cosimo Panini (2006) 8 S. R. Ranganathan, The Five Laws of Library Science. Ess Ess Publication (2006)

71

Biblioteconomia 2.0 .  Dario Rodighiero .

note


Alessandro D’Agnano

DirectGov, un esempio per le nostre PA? http://www.uxmagazine.it/user-experience-design/directgov-esempio-le-nostre-pa/

Iniziamo questa nuova serie di articoli che riguardano l’esperienza utente verso i siti e portali della pubblica amministrazione. Iniziamo, appunto, partendo da quello che è a oggi considerato il punto di riferimento per le PA, ovvero DirectGov. Analizzeremo prima l’esperienza d’uso che il sito offre, ovvero la rapidità di reperire informazioni, la facilità di leggerle e la chiarezza espositiva. successivamente daremo dei cenni sull’impiato tecnico e altri aspetti per gli addetti ai lavori.

L’esperienza d’uso E’ pensiero comune che un sito accessibile, semantico e adatto alle PA debba per forza essere sinonimo di semplicità. In effetti Directgov conferma proprio quest’impressione dell’utente medio. Sicuramente ci sono molti altri portali da cui prendere spunto per quando riguarda l’accuratezza grafica. Quello però che colpisce entrando nella Home Page è l’estrema chiarezza con cui sono espressi i concetti. Sia gli argomenti messi in evidenza che la navigazione sono esposti in modo chiaro, pronti per essere linkati, facili da raggiungere. A livello utente la HP non pecca nei principali compiti che una prima pagina deve assolvere. Il logo è posizionato nella giusta posizione (in alto a sinistra), la ricerca interna è facilmente accessibile e ben visibile, i link di servizio sono tutti in vista e anche la mission del portale è chiara ed esplicita “the official government website for citizens”. E’ stato scelto di non presentare molti contenuti direttamente in HP; infatti la pagina è per lo più un punto da cui partire per la navigazione interna. Molto spazio viene dedicato alla navigazione generale del sito, tutta racchiusa sotto il termine “straight to…” Vengono esposte le principali aree tematiche del portale con alcune sottosezioni di maggior interesse. Ad esempio sotto la voce “motoring” sono presentate alcune voci (crediamo maggiormente visitate) come “car tax” o “driving licence”. C’è da sottolineare che il portale ha una profondità di navigazione fino a 5 livelli. I link che vengono presentati nella HP non hanno tutti la stessa profondità, alcuni rimandano ad HP di sezione, altri ad argomenti di terzo livello. Questo potrebbe disorientare un pò l’utente anche perché manca un sistema di visualizzazione della posizione utente, di cui si parlerà successivamente. Oltre a tutto il sistema di navigazione generale, nella parte alta della HP proviamo invece un’area con degli argomenti in evidenza. Si tratta di 4 box con sfondo grigio che non sono altro che le ultime news, chiamate “newsroom”. Le altre news sono accessibili direttamente in HP dal box in basso a destra chiamato “in the news”. Nel box direttamente superiore a “in the news”, viene invece presentato un argomento ben preciso (nel momento in cui scriviamo è “budget 20009) con alcuni link interni all’argomento. C’è anche una sezione di “help” per gli utenti. La troviamo alla destra

72

DirectGov, un esempio per le nostre PA .  Alessandro D’Agnano .

note


dei link di navigazione generale, denominata con “real help how”. Qui troviamo “hot link” come per esempio “keeping your home” articolo che parla della crisi finanziaria e delle ripercussioni su chi rischia di perdere la propria casa. La pagina si chiude con 4 link di servizio, come le indicazioni sul servizio per device mobili oppure un link al portale per ragazzi (directgovKids). Ad un primo impatto, anche un navigatore esperto rimane un pò disorientato dalla struttura della pagina, soprattutto se viene da portali come quelli italiani. Viene data la possibilità all’utente di scegliere subito il suo percorso di navigazione, i contenuti non vengono esposti in modo esplicito (fatta eccezione per la sezione “real help no”) e questo crea intorno alla pagina un primo senso di disorientamento. Navigando il portale, ci si rende conto invece che questo tipo di impostazione ha numerosi vantaggi tra cui quello di essere un vero punto di partenza per tutte le ricerche e percorsi di navigazione dell’utente. E’ come avere una mappa del sito sempre a disposizione e sicuramente la frequenza con cui uno stesso utente nella stessa sessione di navigazione, torna spesso in HP. Forse in Italia siamo abituati a usare la HP con l’unico scopo di dare le impostazione generali alla grafica del sito/portale e ad esporre i contenuti più importanti. Ma entriamo dentro al portale. Come detto, partendo dalla HP non abbiamo il classico menù generale per navigare, ma una specie di mappa che riassume i principali argomenti del portale. Rispetto però alla HP, nelle pagine interne di secondo livello, abbiamo due percorsi di navigazione: “subject” e “people”. In breve, possiamo navigare seguendo la strada dei contenuti o argomentazione, oppure per il nostro profilo utente (se siamo giovani, disabili, over 50, ecc). Per la precisione ricordiamo che in HP i link che portano alla navigazione interna riguardano solo l’organizzazione del menu “by subject”. Il portale quindi ha questa particolarità molto utile. I due percorsi sono nettamente distinti con due menù separati. Cliccando su una delle voci del menù a sx accediamo ad un’ HP di secondo livello relativa a quell’argomento (stessa cosa se scegliamo il percorso “by people”). Questa pagina presenta un primo spazio in evidenza in cui viene proposta la descrizione della sezione oppure un link diretto ad un particolare argomento. Per il resto le pagine sono tutte organizzate in modo identico. Questo è un vantaggio per l’utente che viene così a trovarsi sempre le informazioni e la loro disposizione in posti ben precisi. Nel particolare, la pagina presenta altre sotto-sezioni di terzo livello con i relativi link. I titoli delle sotto-sezioni sono sempre indicati con il colore arancio e sono anch’esse dei link. Cliccandoci sopra la sottosezione diventa la nuova pagina principale, sempre organizzata allo stesso modo, con altri argomenti e link. Se da una parte questo tipo di organizzazione rende tutto molto ordinato e familiare per l’utente, dall’altra ci sono delle pecche nel modo in cui viene tracciato il percorso di navigazione. Dai test effettuati il portale ha in media 4 livelli di profondità per le informazioni richieste. Questa profondità non viene espressa bene nel sistema di navigazione. Inoltre il portale non dà all’utente la possibilità

73

DirectGov, un esempio per le nostre PA .  Alessandro D’Agnano .

note


di capire a che livello potrà trovare la sua informazione. Il menù generale a sinistra non aiuta molto in questo compito. Infatti serve solamente a salire di livello nella struttura gerarchica delle pagine. Se clicchiamo su una qualsiasi delle voci, la voce del menù relativa viene evidenziata, la pagina ci presenta le sotto-sezioni, ma il menù generale non ci dà la possibilità di poter scegliere le sotto-sezioni direttamente dall’elenco. Facciamo un esempio. Cliccando su “Education and learning”, ci viene presetanta la HP di sezione. Nella pagine troviamo il titolo, l’argomento in evidenza (nel momento in cui scriviamo è Budget 2009) e poi le sotto-sezioni con i relativi link. Nel menù generale capiamo che siamo in “Education and learning” dal diverso colore della voce, ma non ci viene presentata una navigazione diretta. Per andare in una sotto-sezione, ad esempio “Adult learning and skills” possiamo farlo solo dalla pagina. Operata la scelta, il menù a sinistra ci dà l’indicazione che sono nella pagina “Adult learning”, ma perdo le altre sotto-sezioni. Infatti la nuova pagina presenta solo i contenuti della scelta fatta (giustamente), ma per scegliere una sotto-sezione nuova (ad esempio “University and higher education”) devo per forza tornare indietro alla HP di sezione, ossia “Education and learning”. Questa operazione è possibile farla dal menù generale a sx, oppure (ovviamente) dal tasto “indietro” del browser. Quindi la criticità consiste nel fatto che il menù generale non è organizzato in modo dinamico e in modo gerarchico. Sarebbe stato più utile poter scegliere le varie argomentazioni direttamente dal menù, così da avere meno click e anche un maggior controllo sulla navigazione. Altra grave pecca è la mancanza delle “briciole di pane”, tecnicamente le Breadcrumb. Questo avrebbe permesso un’altra strada per risalire nella gerarchia delle pagine, ma soprattutto avrebbe dato all’utente in qualsiasi momento l’indicazione sulla sua posizione e profondità rispetto alla HP. Non capiamo il perché di questa scelta, ma in generale il portale non dà molte informazioni sulla posizione utente. Questo secondo me è davvero importante, in portali di grosse dimensioni, con tanti contenuti e con molti livelli di profondità. Come accennato prima, le HP di sezione, le pagine di argomento e quelle di dettaglio sono tutte organizzate allo stesso modo tra di loro. Anche la struttura principale della pagina non varia mai. I due menù principali rimangono sempre a sinistra, il contenuto principale della pagine al centro, mentre la spalla destra è occupata da box informativi, cross-link, banner e informazioni di servizio. Il tutto in una sobrietà che rasenta un pò la monotonia. Dal punto di vista nell’esperienza utente e navigazione non c’è molto altro da dire; alcune interessanti argomentazioni sono da fare per quanto riguarda l’usabilità e l’accessibilità del portale. Inutile dire che la struttura è ben concepita, ben organizzata e senza particolari sbavature. Le pagine come detto sono tutte coerenti, le informazioni e i link sono sempre indicati nello stesso modo e l’utente ha sempre la sensazione di avere il pieno controllo delle azioni che può compiere. Anche il motore di ricerca interno funziona bene, presenta le informazioni più coerenti come i primi risultati e le indica con una stellina come “directgov recommends”. A livello visuale, invece, come

74

DirectGov, un esempio per le nostre PA .  Alessandro D’Agnano .

note


si è potuto intuire non ci sembra sia stato fatto un grosso sforzo. Il portale è presentato in modo molto semplice (anche se estremamente ben fatto), è veloce da caricare e le immagini sono limitate allo stretto necessario. Quello in cui difetta il portale è “la piattezza” espressiva delle pagine. Ad esempio, i link e le sezioni propongono sempre lo stesso colore. Certo è utile che l’utente capisca che i link abbiamo sempre la stessa formattazione, ma si sarebbe potuto diversificare ad esempio i due percorsi di navigazione (by sucject e by people) con due colori diversi. Avrebbe sicuramente aiutato l’utente a capire sempre in che posizione di trova rispetto alla sua scelta iniziale. Un’altra cosa che confonde l’utente è il colore predominante, ossia l’arancio. E’ usato per evidenziare la maggior parte dei link, ma è anche usato per formattare i titoli principali delle sezioni e anche i titoli dei singoli argomenti (ultimo livello di navigazione). Anche in questo caso un sforzo verso la ricerca di altre soluzione cromatiche avrebbe giovato alla struttura delle pagine. Un’ultima cosa che non ci convince molto è lo stato “visited” dei link, ossia l’evidenza di collegamenti già visitati. Prima di tutto, questo tipo di evidenza viene data a link di 3 o 4 livello, quelli formattati con testo nero per intenderci. In questo caso, per le pagine già visitate il link viene colorato di grigio, anziché del nero di default. La nostra perplessità riguarda la scelta del grigio; si poteva senz’altro scegliere un maggior contrasto, sia rispetto allo sfondo della pagine (bianco), sia rispetto al colore dei link ancora d visitare. I due colori sulla scala cromatica sono molto vicina tra loro.

Cenni tecnici Facciamo una sintetica analisi sulla bontà strutturale e tecnica delle pagine. Come detto il portale è ben struttura a livello di codice, con un markup estremamente coerente, leggero e ben organizzato. La semantica delle informazioni rispetta i canoni di progettazione e il markup è completamente “tabless”. Anche se non dichiarato nelle specifiche il portale ha una buona validità rispetto allo standard W3C dichiarato (in questo caso il Transitional). La HP è completamente valida, le pagine interne presentano pochissimi errori e cmq di banale risoluzione. Anche disabilitando i css il portale è perfettamente navigabile e consultabile. Sicuramente il portale è basato su un sistema di content managment (CMS). Da apprezzare la scelta di dotarsi di un modulo di “url rewriting” che permette alle pagine di avere una url molto più descrittiva, utile per l’indicizzazione sui motori di ricerca. A livello grafico, abbiamo già parlato di una certa piattezza. C’è però da sottolineare l’estrema coerenza nella scelta degli stili come ad esempio il modo in cui vengono evidenziati i link al passaggio del mouse. Apprezzabile anche la struttura del layout. La grafica si presta ad un’impostazione “elastica” della pagine. Anche se il sito è impostato ad una risoluzione minima di 800×600 px, su un monitor “wide” o cmq di grandi dimensioni il layout fluido permette alle informazioni di riempire in modo uniforme l’ampiezza dello schermo. Non ci sono bug rilevati rispetto ai vari browser maggiormente in voga, nè rispetto a visualizzazioni con Mac o Pc.

75

DirectGov, un esempio per le nostre PA .  Alessandro D’Agnano .

note


Conclusione L’utente medio avrà sicuramente dei grossi vantaggi nell’esperienza d’uso di questo portale. La leggibilità dei testi è garantita dalle dimensione dei font e dal loro contrasto (classico testo nero su sfondo bianco), i link sono di facile individuazione e la velocità di caricamento dei contenuti è estremamente rapida (anche con connessioni lente). L’organizzazione dei contenuti in macro aree con diversi livelli di profondità facilita l’esplorazione, ma aiuta anche a trovare l’informazione voluta in modo logico e pratico. Abbiamo fatto diversi test sull’efficienza del sistema di navigazione e abbiamo notato che in nessun caso l’utente abbia avuto un insuccesso della sua ricerca di informazioni. A supporto, c’è anche l’ottimo motore di ricerca interno, veloce nel restituire risultati pertinenti e puntuali. Dalla nostra analisi emergono delle criticità dovute probabilmente a scelte nello sviluppo, ma che non pregiudicano la bontà di quando espresso sia a livello di contenuti che a livello tecnico. Inoltre il doppio percorso di navigazione da all’utente un ampio spettro di possibilità non comune sui portali nostrani. Sicuramente quello di directGov è un esempio da seguire, sia per le nostre PA che per i portali di servizio in generale.

76

DirectGov, un esempio per le nostre PA .  Alessandro D’Agnano .

note



Partecipa anche tu al prossimo UXmeetup. Partecipa al prossimo UXmeetup. Aggiungiti al gruppo. Incontriamoci ogni mese per discutere di esperienza d'uso, tecnologie e intrattenimento sul web. Raggiungici. E se sei troppo lontano richiedici un meetup itinerante. Perchè l'innovazione nasce da qui.

UXmeetup. Meeting Experience.


Pietro Malerba

Card Sorting: buone pratiche ed errori comuni http://www.uxmagazine.it/information-architecture/card-sorting-buone-pratiche-ed-errori-comuni/

L’organizzazione e la categorizzazione delle informazioni in un sito web è un elemento essenziale nell’ottica di una progettazione user centered. Gli utenti devono essere in grado di orientarsi in un sito e di raggiungere, in maniera semplice, i contenuti desiderati. Per questo motivo è importante coinvolgere non soltanto chi fornisce l’informazione, dal momento che, essendo una persona competente, in qualche modo ha una sua chiara idea di categorizzazione, ma anche gli stessi utenti, per capire cosa ne pensano e dove si aspettano di trovare determinati link, risorse e contenuti. Problemi stringenti sono quelli della categorizzazione, ovvero l’atto di raggruppare le risorse in categorie che siano tra loro omogenee, e del labeling, che serve invece a trovare le giuste etichette per le risorse del sito. La conoscenza è infatti immagazzinata nel nostro sistema cognitivo in forma di fatti, regole, immagini ed esperienze; quindi è fondamentale ridurre la complessità dell’ambiente attraverso il raggruppamento in categorie. Un concetto viene definito in base ad una serie di attributi che determinano le caratteristiche della categoria alla quale appartiene, ma gli individui possono classificare uno stesso oggetto come appartenente a due o più categorie che presentano organizzazioni concettuali alternative, cioè altre possibili organizzazioni derivanti dalle inevitabili correlazioni esistenti tra diverse categorie e differenti ordini di conoscenze. Uno dei più noti approcci user-oriented per far emergere i modelli mentali degli utenti sulle aspettative di categorizzazione della struttura dei contenuti di un sito web è il card sorting. Il card sorting è la tecnica di elicitazione della conoscenza più usata nell’area dell’interazione uomo-computer per far emergere i modelli mentali degli utenti, rendendo esplicite le loro aspettative di categorizzazione dei contenuti (Bussolon, 2007). I partecipanti raggruppano una serie di cartoncini, ognuno provvisto di un’etichetta, in insiemi che essi ritengono coerenti e propongono un nome per ogni gruppo di cartoncini creato. Questo sistema costituisce un metodo efficace per rappresentare i modelli mentali impliciti degli utenti, rendendo esplicite le loro aspettative di categorizzazione dei contenuti. Conoscere i modelli mentali e le categorizzazioni implicite permette di organizzare le informazioni in modo che siano più facili da trovare e da utilizzare.

Progettista vs committente/cliente Spesso nelle fasi iniziali di un progetto ci si trova a dover spiegare ai propri clienti perchè è utile svolgere un card sorting. Inutile e pericoloso in questi casi è addentrarsi in concetti quali “differenti schemi di organizzazione”, “classificazioni gerarchicoenumerative” o “classificazioni multidimensionali”. Basta spiegare che il card sorting è solo uno strumento per far coincidere gli scopi commerciali con gli obiettivi degli utenti. Si può 79

Card Sorting: buone pratiche ed errori comuni .  Pietro Malerba .

note


condurre un test in due o tre giorni e ottenere risultati considerevoli che miglioreranno sicuramente il processo di design. E’ importante (s)chiarire le idee al cliente in merito al test che si andrà ad effettuare. Il card sorting non è la “chiave di volta” per ottenere la perfetta e completa struttura di un sito. I clienti e gli stakeholders spesso, dopo una sommaria e indicativa spiegazione su cosa consista il test, presumono erroneamente che il card sorting produrrà una risposta chiara e precisa.

Perchè proprio il card sorting Il card sorting può essere particolarmente utile quando abbiamo necessità di organizzare e categorizzare una quantità sostanziosa di contenuti e non abbiamo idea da dove partire oppure quando abbiamo uno schema organizzativo che sappiamo non essere adeguato e vogliamo conoscerne il motivo. Inoltre può servire a confrontare due modelli organizzativi differenti e scegliere quello più valido. Solitamente il momento migliore per svolgere il test è dopo aver raccolto sufficienti informazioni sul dominio, sugli utenti e sui contenuti per focalizzare meglio le “risposte” che il test dovrà fornirci.

Basta come unico metodo di analisi? No, assolutamente. Il card sorting ci aiuta a far emergere i modelli mentali degli utenti sulle aspettative di categorizzazione della struttura di un sito web (come pensano e raggruppano categorie e concetti) e ci dimostra come tale processo avvenga quasi sempre in maniera idiosincratica e altamente personale. Non ci dice, ad esempio, quali sono i bisogni, le skills, i task degli utenti oppure le aree più o meno importanti del sito, nonchè i punti di criticità. Interviste, focus group, sondaggi, test di usabilità sono alcune delle tecniche complementari che possono essere affiancate al card sorting. E’ importante anche svolgere il card sorting nel momento più opportuno durante il processo di design. Spesso ho letto di card sorting svolti senza conoscere gli obiettivi del progetto, senza una chiara strategia o peggio ancora, in caso di redesign, senza un’attenta analisi preliminare come una survey piuttosto che un’audit dettagliata.

Card sorting aperto o chiuso Il test può essere svolto seguendo due modalità, aperta o chiusa, tra le quali la differenza sostanziale consiste nella presenza o meno di una categorizzazione a priori. Nella modalità aperta viene presentato all’utente unicamente l’elenco degli elementi e viene chiesto di organizzarli liberamente attribuendo ad ogni gruppo un’etichetta coerente. Questa modalità è quella utilizzata più frequentemente perchè ci consente di “esplorare” meglio i modelli mentali degli utenti e di valutare e confrontare i diversi gruppi creati. Possiamo anche decidere di non lasciare piena libertà agli utenti chiedendo loro di focalizzare l’attenzione su un particolare criterio di creazione dei gruppi (es. creare gruppi di elementi ed etichettarli secondo i punti di uno step di un particolare processo). Nella modalità chiusa invece, viene presentato sia l’elenco degli elementi che l’elenco delle categorie definite a priori, quindi viene chiesto agli utenti di associare ogni elemento alle categorie prestabilite. Con questa modalità si raccolgono molte meno informazioni ma è 80

Card Sorting: buone pratiche ed errori comuni .  Pietro Malerba .

note


comunque utile, soprattutto quando abbiamo una struttura che non può essere modificata oppure se dobbiamo aggiungere pochi nuovi contenuti ad una struttura esistente.

Raggruppare non significa categorizzare Alcuni sostengono che un card sorting chiuso è utile non solo ad ottimizzare bensì a verificare la “trovabilità” delle informazioni in un dato gruppo di categorie. Ma classificare non è certo sinonimo di trovare. Donna Spencer nel suo libro “Card Sorting: Designing Usable Categories” sostiene infatti: “Classifying content and finding it are dramatically different tasks. If you want to know where people would look for content, you should ask where they would look for it, not ask where they would put it [..] If you want to learn where people would look for information, that’s what you should ask them.”

Quanti cartoncini utilizzare e come scegliere i contenuti Tra i 30 e 100 cartoncini è il range consigliato per effettuare un card sorting, evitando sia di mettere in difficoltà l’utente nella creazione di gruppi, sia di generare confusione e disperdere l’attenzione dei partecipanti al test. La scelta dei contenuti è uno degli step più importanti. Non è sufficiente scegliere in maniera random diversi elementi o prendere semplicemente la sitemap di un sito e riportare i titoli delle pagine sui cartoncini: il rischio è quello di ottenere dei contenuti difficili da raggruppare in maniera coerente. Quando affrontiamo un nuovo progetto, è bene creare una lista di contenuti che il sito dovrebbe includere attraverso interviste, questionari, free listing, indagini con gli stakeholder, focus groups; confrontarli e uniformarli in base agli obiettivi del sito ed estrapolare una lista di elementi per il test. Se invece dobbiamo affrontare il redesign di un sito web, è bene analizzare i contenuti presenti con una content inventory per evidenziare eventuali patterns e selezionare elementi sufficientemente simili tra loro, che si prestano a formare potenziali gruppi. Possiamo anche selezionare elementi che non hanno una posizione precisa o difficili da categorizzare per studiare il comportamento degli utenti.

Test manuale “face-to-face” vs test online Standard nel card sorting è la presenza fisica delle persone che svolgeranno il test, supervisionati da un facilitatore che ha un ruolo considerevole: deve infatti introdurre e spiegare lo scopo del test, deve chiarire eventuali dubbi, rispondere alle domande degli utenti, valutarne i comportamenti, registrare i loro commenti e riflessioni e spronarli ad esprimere ad alta voce i propri pensieri, sensazioni, opinioni, frustrazioni. Combinare il card sorting con la metodologia del thinking aloud ci aiuta a comprendere il loro “approccio globale” al raggruppamento, ad intuire quali sono gli elementi con i quali hanno avuto più difficoltà e le ragioni delle loro scelte. Infine, per l’analisi dei dati, si può utilizzare l’ottimo foglio di calcolo elaborato da Donna Spencer disponibile gratuitamente per il download. Questo sicuramente è fattibile per test di piccole dimensioni che

81

Card Sorting: buone pratiche ed errori comuni .  Pietro Malerba .

note


prevedono il coinvolgimento di pochi utenti. Ci sono diversi studi e discussioni sul numero di partecipanti da coinvolgere in un test per ottenere risultati “statisticamente significativi”, uno su tutti quello di Jakob Nielsen che a questo proposito ha condotto un enorme numero di prove per stabilire quale fosse il “numero perfetto” di partecipanti. Secondo i suoi risultati il rapporto tra numero di persone coinvolte e problemi riscontrati ha un andamento asintotico verso un valore che evidenzia come al di sopra di una certa soglia non si abbiano più miglioramenti apprezzabili; quindi secondo Nielsen è inutile utilizzare troppi soggetti perché l’aumento dei costi non giustifica più il miglioramento dei risultati. In alcuni casi invece si rende necessaria un’analisi quantitativa più che qualitativa e pensare di testare con il metodo standard un numero molto elevato di utenti, ad es. 100 o 200, è scoraggiante. Per questo ci sono dei tools dedicati a questo compito che non solo ci permettono di svolgere il card sorting direttamente online ma ci aiutano di gran lunga nella fase dell’analisi dei risultati. Una lista aggiornata di tools dedicati al card sorting la trovate in calce all’articolo ma una menzione particolare va a Netsorting, software tutto italiano sviluppato da Stefano Bussolon, che permette di “computare dinamicamente, on line, le analisi dei dati più importanti”.

Una proposta alternativa: Focus group card sorting Se da un lato può essere interessante coinvolgere un gran numero di utenti in un card sorting online, la non presenza fisica rende sicuramente difficile l’interpretazione e valutazione dei comportamenti dei partecipanti al test. Michael Hawley, dalle colonne di Uxmatters, qualche tempo fa ha proposto come metodo innovativo il cosiddetto focus group card sorting, un approccio misto che consiste nell’invitare a turno 8-15 persone rappresentative del target a partecipare al test in una online conference. Ogni utente dal proprio notebook svolge il test individualmente, ma allo stesso tempo può condividere le proprie impressioni con il facilitatore e gli altri utenti (thinking aloud). La compresenza fisica in questo caso cede il posto ad una collaborazione virtuale figlia del nostro tempo, che tuttavia non impedisce di perseguire gli obiettivi del card sorting tradizionale, ma anzi apre nuove possibilità quali: il coinvolgimento di un target più ampio di utenti, la delocalizzazione, la registrazione ed archiviazione di tutto ciò che avviene online, la condivisone dei dati e infine la valutazione collaborativa dei risultati, aspetti diventati di uso comune nel cosiddetto web 2.0.

82

Card Sorting: buone pratiche ed errori comuni .  Pietro Malerba .

note


Simone Attanasio

Il mio pensiero è laterale http://www.uxmagazine.it/innovation-design/il-mio-pensiero-laterale/

Adesso potete utilizzare a vostro piacimento il pensiero laterale, avete intuito cos’è, come viene generato, di cosa si tratta. Forse anzi, visto che ancora non ne ho parlato, non sapete na mazza, cioè forse qualcuno già sa e mi dirà qualcosa o forse no, anche queste parole possono essere frutto del pensiero laterale. Non ci state capendo niente e manco io, ma partendo dal fatto che, il pensiero verticale si mette in moto solamente se esiste una direzione in cui muoversi e il pensiero laterale si mette in moto allo scopo di generare una direzione, andiamo a vedere codesta direzione. Il principio essenziale del pensiero laterale recita: ‘ogni modo particolare di considerare le cose è solo uno fra molti altri modi possibili’. In effetti è proprio la parola ‘laterale’ che suggerisce il movimento non rettilineo atto a creare modelli alternativi. Normalmente la nostra mente lavora col pensiero verticale, considerato il più naturale, grazie al quale ci si ferma all’approccio promettente; utilizzando invece il pensiero laterale, si riconosce l’approccio promettente come tale ma si generano ugualmente delle alternative che protrebbero portare delle migliorie. Se queste non risultassero tali saremmo sempre in tempo per tornare indietro, tutto ciò è permesso in quanto il pensiero laterale non blocca i modelli anzi tende a stimolarne di nuovi. Infatti il pensiero laterale non è mai un giudizio, una forma finita, è un metodo essenziale per la ristrutturazione delle informazioni. La presenza di tale pensiero nasce dalla tipologia della nostra mente, considerata come sistema mnesico automassimizzante di informazioni in grado di generare modelli e priva di meccanismi di rimodellazione, in questo senso l’uso del pensiero laterale è necessario per la ristrutturazione dell’informazione. Mnesico, generare, forma, approccio ma chi ci sta capendo qualcosa, sembra di essere a scuola, la professoressa spiega e voi guardate fuori dalla finestra, in attesa della campanella per mangiare la vostra nuova merendina, beh vi è anche questo nel pensiero laterale, affrontare situazioni palesemente ovvie cercando metodi alternativi. Tutto ciò può essere applicato in ambiti come la progettazione di interfacce per il nostro amico webbo: come, quando, perchè. Beh alla base di tutto c’è la riunione, cioè anche no, nel senso che determinate persone responsabili di un progetto si ritrovano in salette più o meno belle con sedie più o meno scomode ed iniziano a parlare di un determinato argomento, ovvero il progetto in questione. L’uso del pensiero laterale in questi casi è determinato dai diversi approcci che si possono avere nei confronti del progetto stesso. Praticamente esistono tre situazioni: - la descrizione - il problem solving - la progettazione La presenza di più persone alla riunione permette di avere diverse descrizioni sul progetto, lo scopo del pensiero laterale in questo caso è riuscire a considerare le diverse descrizioni valide per generare

83

Il mio pensiero è laterale .  Simone Attanasio .

note


approcci alternativi al progetto: ovviamente capiterà che c’è il capo, boss, il capoccia che dice che così va fatto e così è, però siete liberi di fare prove a casa (tenere lontano dalla portata dei bambini). Parlando invece del problem solving il pensiero laterale non ci viene incontro, ma ci salta proprio addosso in quanto uno dei principi fondamentali del pensiero laterale è proprio quello di cercare alternative, di risolvere una determinata situazione in modo non verticale, diverso e quindi attuare un cambiamento delle cose. Per quanto riguarda la progettazione, aspetto che forse maggiormente ci interessa, il pensiero laterale viene usato completamente, in tutte le sue parti, c’è bisogno di una maggiore creatività rispetto al problem solving, bisogna creare qualcosa di nuovo. Si utilizzano mezzi come quelli del confronto, ovvero cercare aspetti alternativi o già esistenti di quel dato oggetto, si sgretolano le cosiddette unità stereotipate, ovvero i modi standard di fare qualcosa vengono messi da parte e si cerca di dimostrare come altre vie siano possibili se non migliori. In pratica si stimola il progettista ad andare oltre. Fondamentale è la conoscenza della funzione del progetto, si analizza, si prende per buona la funzione principale, ma se ne cercano alternative per generare idee durante il processo di progettazione. Quindi cari miei oggi avete imparato parole come: laterale, generare, metodi e alternativi. Vabbè, ciao. Vostro pizzulata, buon capodanno.

84

Il mio pensiero è laterale .  Simone Attanasio .

note


Francesco Improta

Sfruttare le convenzioni nella progettazione http://www.uxmagazine.it/user-experience-design/504/

Quest’articolo inizia con il racconto di un’esperienza d’uso reale che ho osservato e ha ispirato la mia riflessione. Un’amica era alle prese con un documento in .pdf, e ovviamente utilizzava Acrobat Reader (versione 7) per la consultazione dello stesso. Nella lettura su schermo capita spesso di sfogliare il documento, piuttosto che leggerlo attentamente per intero. Come è normale in questi casi, la mia amica pensa di utilizzare la funzione di ricerca per tornare a consultare parti già lette, o semplicemente per saltare immediatamente all’argomento d’interesse. Beh, non riusciva a trovare il campo per la ricerca. Per me, abituato all’uso del programma, non è stato difficile trovarlo: si trovava al centro della barra degli strumenti, indicata con l’icona di un binocolo. Agli occhi della mia amica invece era passato totalmente inosservato, ipotesi confermata dalla sua affermazione “non l’avevo proprio visto”. Cosa è successo, perchè i suoi occhi non hanno subito notato che ciò che stavo cercando era proprio lì, al centro dello schermo? Partiamo dal modo in cui una persona legge e interagisce con un software, un sito, un’applicazione. Non legge tutto ciò che c’è sulla pagina, non segue i percorsi di navigazione pensati dal progettista. Gli occhi seguono un percorso a F che inizia dalla parte superiore sinistra dello schermo e prosegue lungo tutta la pagina. Non possiamo definirla una lettura vera e propria, quando una rapida scansione delle diverse aree. Per questo motivo è frequente che elementi disposti nell’interfaccia possano essere esclusi da questo processo e quindi risultare del tutto invisibili. Come può intervenire il designer per ovviare a questo problema e progettare un prodotto per l’utente che non presenti queste problematiche? L’obiettivo principale è l’usabilità del prodotto, semplificare le interazioni. Trovare ciò che si sta cercando deve essere un processo facile, veloce, anche piacevole, evitando ogni forma di “rumore cognitivo”. Raggiungere questo obiettivo può essere meno difficile del previsto se il designer sfrutta a pieno uno strumento molto potente: le convenzioni.

Convenzione o Innovazione Quando ci troviamo a dover scegliere tra innovare o seguire una convenzione, quale strada scegliere?

Le ragioni delle convenzioni Jakob Nielsen ha sempre sottolineato l’importanza di una maggiore standardizzazione nel design dei siti web per facilitare all’utente la ricerca delle informazioni. Un utente non deve perdere troppo tempo a capire, apprendere e riconoscere gli elementi principali di design, come la struttura della pagina e la navigazione. Se questi infatti si presentano in modo diverso da sito a sito, lo sforzo cognitivo richiesto finisce con l’aggravare l’usabilità generale dell’applicazione.

85

Sfruttare le convenzioni nella progettazione .  Francesco Improta .

note


“We must eliminate confusing design elements and move as far as possible into the realm of design conventions.” Jakob Nielsen Dunque, dobbiamo cercare di seguire il più possibile standard di progettazione definiti per migliorare l’esperienza d’uso dell’applicazione e fare in modo che ogni utente possa eseguire ciascun task senza difficoltà. Che vantaggi avremmo nel rispettare un insieme di convenzioni universalmente riconosciute e applicate? Vediamoli in breve: . Sapere quale feature si aspettano; - Come questa feature sarà visualizzata sull’interfaccia; - Sapere dove trovare questa feature all’interno del sito e delle singole pagine; - Evitare di dover interpreatare il significato degli elementi che compongono il design; - Non sorprendersi se qualcosa dovesse andare storto. Questi benefit incrementano il senso di padronanza dell’applicazione e l’abilità nell’usarla nel modo corretto. Seguire standard nelle scelte di design aiuta l’utente a navigare e muoversi rapidamente e senza problemi non solo sul nostro sito, ma anche su siti diversi costruiti secondo i medesimi standard. Avremo di conseguenza utenti soddisfati della loro esperienza d’uso che torneranno probabilmente a farci visita.

I vincoli delle convenzioni Nel progettare un layout si fa molto affidamento sulle interpretazioni convenzionali di simboli e del loro posizionamento. L’uso delle convenzioni è visto, da molti, come porre delle vincoli a ciò che stiamo progettando. Donald Norman identifica tre tipologie di vincoli: - fisico - logico - culturale I vincoli fisici sono strettamente correlati e incidono direttamente su le possibilità reali: ad esempio, non è possibile muovere il puntatore del mouse al di fuori dello schermo. Vincoli logici attivano la ragione per trovare delle alternative. Se chiediamo a un utente di cliccare su cinque elementi in una pagina e di questi 5 soltanto 4 sono immediatamente visibili, la persona deduce per logica che uno si trovi al di fuori della parte visibile dello schermo. Vincoli di tipo culturale sono convenzioni apprese e accettate come tali da un gruppo di persone che condividono una stessa cultura. Il fatto che una scroll-bar sia riconosciuta come strumento per scorrere la pagina lungo i due assi e che, per essere utilizzata, richieda un’azione di trascinamento tramite il mouse, è una convenzione culturale. Alla base di ogni tipologia d’interazione c’è sempre la volontà umana. Le scelte compiute sono frutto del libero arbitrio. Non esiste un’unica strarda per compiere una determinata azione, ma un’interfaccia ben progettata dovrebbe adeguarsi nel migliore dei modi ai processi cognitivi umani. Una convenzione si traduce in un vincolo quando proibisce alcune 86

Sfruttare le convenzioni nella progettazione .  Francesco Improta .

note


azioni e ne incoraggia delle altre. Mentre I vincoli fisici rendono impossibili determinate attività, quelli logici e culturali sono più “deboli” nel senso che possono essere anche ignorati o violati, ma ciò non toglie che siano un strumento fondamentale a disposizione del designer per progettare prodotti, software, applicazioni. Come possiamo sapere se gli utenti condividono e seguono le convenzioni? Le convenzioni culturali riguardano le azioni delle persone, come si comportano e relazionano in contesti ed ambiti diversi. Se vogliamo capire e analizzare questi comportamenti l’unico modo è osservarle. Non durante un test di usabilità, come afferma Don Norman, ma direttamente nel loro contesto naturale.

87

Sfruttare le convenzioni nella progettazione .  Francesco Improta .

note


Nicola Palmarini

TagMyLagoon: guidare, informare e indirizzare i visitatori in città attraverso device mobili

note

http://www.uxmagazine.it/team/tagmylagoon-guidare-informare-indirizzare-visitatori-citt-attraverso-device-mobili/

E’ possibile immaginare di gestire i flussi turistici in una città come Venezia utilizzando la tecnologia in possesso degli utenti? E’ possibile guidare e fisicamente “spostare” verso le zone meno conosciute o battute della città un flusso di persone che nel 2008 ha registrato la cifra record di 20 milioni di presenze? Ma anche: qual è l’esperienza di interazione tra i visitatori, il loro device mobile, una rete wifi e un sistema di sensori passivi presenti in città? E ancora: è possibile “sensorizzare” una città con le caratteristiche di Venezia dove ogni campo, ogni ramo, ogni salizada, ogni rio, ma anche ogni singola pietra rappresentano un pezzo di storia in un contesto ambientale unico?

Lo scenario Con l’avvento della rete wifi (lanciata nel cosiddetto Wifiday il 3 luglio in una giornata memorabile dal Vicesindaco Michele Vianello, www.cittadinanzadigitale.it) di fatto Venezia è diventata un parco di opportunità ben più vasto del suo arcinosciuto vissuto di città museo. Ma i problemi che la città deve affrontare ogni giorno restano davanti agli occhi di tutti. L’”invasione” di turisti che una città così fragile, esposta, scoperta deve subire ogni giorno è inarrestabile. Molto Venezia sta facendo: si pensi solo ad esempio al portale www. veniceconnected.it che ha come obiettivo quello di pacchettizzare la visita e quindi permettere all’Amministrazione un monitoraggio del flusso di accesso e quindi conseguenti possibili politiche di gestione. Ma una volta che i turisti hanno raggiunto la città? Come provare a indirizzarli verso un percorso anziché un altro, come supportare e guidare la loro visita, come spingerli a conoscere quello che non è segnalato su nessuna guida (ma che potrebbe essere vitale per il mantenimento economico di una parte della città) come avere feedback da loro e come fare tutto questo con il cellulare in loro possesso? E’ su queste basi, da un lato la rete wifi, dall’altro una necessità di creare delle practice di sostenibilità, gestione e guida/indirizzo del flusso turistico che è nato il progetto TagMyLagoon.

TagMyLagoon E’un progetto pilota, con il patrocinio del Comune di Venezia e con il contributo dell’Ufficio Marketing Progetto Turismo Sostenibile, attivo fino al 3 di ottobre 2009, che ha l’obiettivo di raccogliere i feedback da una serie di esperienze sul campo, per tracciare la fattibilità, la replicabilità e il successo (o meno) di iniziative in cui un mix di tecnologia mobile e statica, supporti una politica di gestione e indirizzo degli utenti. Il progetto si configura secondo una logica portata avanti da tempo dal Comune di Venezia che prevede ruoli ben distinti: da un lato l’Amministrazione con il compito di abilitare lo scenario infastrutturale, dall’altra player che intendono offrire servizi attraverso quello scenario.

88

TagMyLagoon: guidare, informare e indirizzare i visitatori in città attraverso device mobili .  Nicola Palmarini .


In questo modo TagMyLagoon, sfruttando la rete in essere, si propone di mettere in comunicazione luoghi fisici della città, contenuti e persone attraverso gli strumenti già in loro possesso.

note

Cosa intende misurare TagMyLagoon? L’esperienza dei visitatori: è una valutazione sia sugli aspetti di pura usabilità, sia di vera e propria interazione tra gli utenti e i sensori. L’applicazione dei sensori in città: data la configurazione architettonica delle città d’arte italiane è possibile, e se sì come, introdurre tecnologie nel contesto dell’arredo urbano della città? La politica dei contenuti: in piena logica 2.0 è possibile comunque fornire contenuti “di qualità certificata” ed è possibile coinvolgere le realtà locali per contribuire a questa politica? Inoltre, è possibile far incontrare contenuti “istituzionali” e UGC?

Le componenti TagMyLagoon è composto da tre anime: un’applicazione da scaricare sul proprio device (symbian, i-phone/via itunes, android), una serie di tag bidimensionali (o qr code) collocati in città che hanno la funzione di localizzare il visitatore e permettere di scaricare via wifi contenuti contestuali residenti su server remoti. I tag sono collocati lungo un percorso circolare che da Piazzale Roma porta verso San Rocco, Frari, San Tomà suggerendo una alternativa al flusso minstream che oggi, dopo l’inaugurazione del cosiddetto ponte di Calatrava – una attrazione in sè -, vede la massa seguire questa nuova direttiva, una volta inesistente, con pesanti ricadute economiche sulle zone della città oggi bypassate.

User scenario All’arrivo in città i visitatori possono scaricare gratuitamente l’applicazione sul proprio device (disponibile su I-tunes a partire da metà luglio). Lanciata l’applicazione il visitatore prende conoscenza del percorso, in questa fase unidirezionale, in formato mappa (Piazzale Roma>Giardini Papadopoli>Campo San Rocco Campo dei Frari >Campo San Tomà >Campo San Polo>Campo San Giacomo dell’Orio>Campo Nazario Sauro>Fondamenta San Simeon Piccolo>Piazzale Roma) di dove si trovano i punti di interesse associati ai tag. Fotografando i tag, questi vengono decodificati dall’applicazione fornendo contenuti relativi all’area in cui si trova il visitatore. L’obiettivo è quello di permettere ai visitatori sia di seguire step-by-step un itinerario, sia di poter ottenere informazioni su quella specifica area se e quando ne sentissero l’esigenza senza nessun obbligo procedurale. Una sorta di suggerimento libero più che di guida imposta.

Device e wifi Se il trend sembra indicarci che il mondo sarà prima o poi “i-phonizzato” (sarà davvero così?) c’è una domanda da porsi: e chi non dovesse essere possedere un i-phone? E se fosse Android il futuro? O se fosse Symbian a mantenere il grande vantaggio e a vincere questa sfida? E se nessuno di questi device fosse dotato di GPS? Di fatto il tema della compatibilità e dell’universalità dei device è decisamente attuale ed è una componente chiave del risultato di progetti come

89

TagMyLagoon: guidare, informare e indirizzare i visitatori in città attraverso device mobili .  Nicola Palmarini .


TagMyLagoon. L’obiettivo è quello di fornire contenuti e servizi alla più vasta gamma di device possibile in modo che questi servizi siano, raggiunto il livello di maturazione, device indipendent. Non si tratta però solo di sbrogliare il tema del sistema operativo in sè, ma anche e soprattutto dell’utilizzo dei cellulari: non è detto infatti, che chi possieda un device smart, lo utilizzi poi in modo smart. Un punto però è certo: è più facile usare qualche cosa che possiedo, mi appartiene e conosco che qualche cosa che mi venga dato ad hoc, senza contare quanto questa scelta abbia un peso dal punto di vista della gestione economica da parte di una amministrazione che volesse offrire servizi in mobilità ai propri visitatori attaverso stumenti proprietari: una opzione ormai insostenibile anche per i musei. La scelta di non includere RIM e Windows Mobile è fatta solo ad uso e consumo di questa fase del progetto: si è preferito, infatti, esplorare i trend (i-phone e Android) e il consolidato di massa (Symbian) per avere una fotografia piuttosto esaustiva di prospettiva e di mass-market allo stesso tempo. Infine il wifi: è un prerequisito del progetto per permettere di capire le potenzialità di questo tipo di connessione (e la propensione all’uso da parte degli utenti) come paradigmatica del trend urbano che vede il wifi come una sorta di commodity (free o a pagamento) che tutte le città del mondo stanno implementando o hanno in programma di mettere a disposizione dei cittadini e dei visitatori.

note

Il tema dei contenuti I contenuti sono forniti dalle guide di Venezia Arte e sono, ad oggi, di tipo artistico/culturale. In questo modo, l’Amministrazione può erogare contenuti secondo un proprio processo di controllo della qualità, processo che in futuro potrebbe permettere di segnalare operatori commerciali aderenti a determinate politiche di qualità del servizio. Inoltre viene segnalato il percorso per raggiungere il punto di interesse successivo e viene permesso agli utenti di lasciare un feedback sia sui punti di interesse, sia sul progetto. La logica è quindi diversa da un generico “around me”: l’utente sa che TagMyLagoon fornisce informazioni ufficiali, raccomandate dall’Amministrazione della città. L’evoluzione del progetto, terminata questa fase pilota e raccolti i feedback da parte degli utenti, potrebbe prevedere due scenari. Il primo è quello di coinvolgere le realtà sul territorio dando in “affido” l’aggiornamento e l’estensione dei contenuti a chi, identificato secondo parametri ancora da stabilire, vivendo in quella parte della città decidesse di prendersi cura di segnalare, alimentare, proporre eventi, iniziative, angoli nascosti da scoprire e così via. Una sorta di collettore di informazioni della comunità locale. Il secondo, logica conseguenza, è quello di permettere agli utenti stessi, specificando però in questo caso chiaramente la sorgente UGC, di alimentare il contenuto dei tag. In entrambi i casi il processo avviene via web: i tag, infatti, hanno solo la funzione di localizzare gli utenti, mentre tutto il corpo dei contenuti risiede lato server.

Collocare tag bidimesionali a Venezia E’ possibile sensorizzare Venezia utlizzando una tecnologia passiva, economica, interpretabile dalla stragrande maggioranza di device mobile oggi in commercio, sufficientemente robusta per resistere al clima e a un medio-vandalismo quotidiano, capace di integrarsi con il

90

TagMyLagoon: guidare, informare e indirizzare i visitatori in città attraverso device mobili .  Nicola Palmarini .


contesto urbano della città? I tag bidimensionali sono stati scelti (rispetto a chip rfid o beacon bluetooth o trasmettitori NFC) perché rispondono sicuramente ad alcune di queste esigenze, ma per quanto riguarda la robustezza e l’installazione si è dovuto inventare un processo particolare. Anzitutto i tag sono stati marchiati con il logo dell’iniziativa per permetterne una più facile identificazione, quindi sono stati “annegati” all’interno di piastrelle bianche 15×15 attraverso un particolare procedimento di cottura in forno che ne ha reso la superficie inscalfibile e lavabile. A questo punto le piastrelle sono state accoppiate a un supporto di polietilene di 1 centimetro di spessore sia per permetterne l’irrigidimento, sia per avere una superficie sufficientemente morbida e flessibile per permettere l’aggancio delle piastrelle all’arredo urbano gestito dal Comune stesso (lampioni, insegne, pali, cestini). E’ una soluzione efficace? I test effettuati dimostrano, ad esempio, che la leggibilità e fruibilità dei tag può avvenire anche di notte e in parte dipende dalla qualità del device. Ma non è solo questione di tecnologia. La sperimentazione, infatti, verte anche sugli aspetti di comportamento dei visitatori che devono fare i conti con il flusso che abbiamo citato prima: nel maggiorparte dei casi educato e rispettoso del fantastico luogo che sta visitando, ma anche propenso, a volte, a comportamenti ingestibili, uno su tutti, il famigerato tema delle chewing gum che si trovano appiccicate un po’ ovunque nella città.

91

note

TagMyLagoon: guidare, informare e indirizzare i visitatori in città attraverso device mobili .  Nicola Palmarini .


Marco Zamarato

Storie di cose e altre cose ancora: miti, fatti e promesse. http://www.uxmagazine.it/user-experience-design/storie-di-cose-altre-cose-ancora-miti-fatti-promesse/

Se analizziamo il modo in cui le storie nascono, si diffondono ed evolvono all’interno di una comunità possiamo individuare tre livelli: - Il fatto puro e semplice, il riassunto degli avvenimenti salienti e l’elenco delle persone coinvolte; - una serie di rimandi ad avvenimenti passati o ad altri elementi del sapere comune che possono inquadrare con rapidità il fatto, il suo significato, l’importanza e fornire una prima interpretazione; - una serie più o meno velata di considerazioni che creano il vero punto di vista sulla faccenda, spostano i pesi del giudizio e decidono le aspettative per la sua evoluzione; Basta leggere un articolo di cronaca o ascoltare un telegiornale per avere esempi di come questi elementi convivono in ogni ‘pezzo’ e del loro potere nei nostri confronti. Anche un romanzo non sarebbe nulla senza un adeguato numero di miti e storie pregresse su cui costruire la sua finzione a cui aggiungere la capacità dell’autore di attivare, guidare e sfidare il nostro giudizio. Insomma, per dirla come piace a me si tratta sempre di storie di cose e altre cose ancora che ci offrono alcuni dubbi e alcune possibilità. Questi elementi rendono ogni racconto uno strumento di selezione, arricchimento e rinnovamento del materiale narrativo precedente. Non credo che questa descrizione possa rendere il senso profondo di questa dinamica, eppure se oggi ricordiamo e riconosciamo i miti classici lo dobbiamo proprio a questa capacità della narrazione di evolvere e allo stesso tempo di mantenere la memoria del passato. Nel precedente articolo ho parlato delle analogie tra lo storytelling e la progettazione dell’esperienza dell’utente e anche questa volta voglio provare a creare un ponte tra il mondo della narrazione e la pratica della progettazione.

Miti, fatti e promesse Se gli oggetti raccontano storie è anche vero che essi stessi sono storie in continua evoluzione e che in una sorta di meta-narrazione si raccontano, si tramandano e si traducono in nuove possibilità. Non si tratta solo di un’idea teorica ma di un approccio strategico alla progettazione di sistemi che punta a inserire il design in un framework ‘narrativo’. Come le storie anche un sistema è composto da un certo numero di core functions, le funzioni basilari che definiscono il tipo di sistema che stiamo sviluppando e che di fatto rappresentano la maggiore attrazione per gli utenti. Ma come per le storie dentro e attorno a queste funzioni esistono altri elementi. Alcuni sono a tal punti radicati da essere quasi indistinguibili: tutto ciò che potremmo definire il mito di un sistema (le cuffie servono per ascoltare i suoni, i telefoni per telefonare!). Altri elementi orbitano incerti attorno al sistema: sono tutte le funzioni ‘marginali’ che spesso vengono definite inutili ma che finiscono in qualche modo per essere dannatamente seducenti al pari

92

Storie di cose e altre cose ancora: miti, fatti e promesse .  Marco Zamarato .

note


delle core functions. Spesso in un sistema questi tre insiemi sono ben distinti e facilmente riconoscibili, altre volte sembrano sovrapporsi come indice del fatto che qualcosa di strano è accaduto o sta accadendo nella progettazione del sistema. È interessante notare come questi contenitori cambiano durante l’evoluzione di un sistema. Quelle che prima erano core functions entrano a fare parte del mito del sistema e alcune tra le promesse ne diventano il nuovo fulcro lasciando spazio alle estremità a nuove funzioni extra, che per il sistema sono protesi verso il futuro, possibili percorsi che possono essere esplorati o meno ma e al momento esistono già, sono lì pronte per la prossima evoluzione. Per questo motivo esse diventano così interessanti per noi utenti finali: pur senza rappresentare il cuore del sistema esse ne tracciano le possibili evoluzioni future e solleticano la nostra fantasia lasciandoci immaginare nuovi e potenziali utilizzi, in un certo senso allenandoci ad apprezzare quello che verrà. Lo schema che propongo è molto semplice e nella maggior parte dei casi applicarlo equivale a fare una sorta di esercizio semantico sulle funzioni del prodotto o del servizio preso in esame. È un’operazione fatta a posteriori, una constatazione; ma se questo esercizio viene svolto anche durante la progettazione esso può diventare, oltre che un’attività di pre-marketing, un controllo di coerenza semplice che può aiutare a fare sintesi degli elementi che devono essere presenti nel disegno finale. Ogni sistema deve avere un’identità unica e precisa, un nucleo riconoscibile e solido, da cui spiccano alcuni elementi qualificanti e attorno ai quali si sviluppano un numero di promesse per il futuro abbastanza ampio da permettere al sistema di crescere e adattarsi alle richiesti degli utenti, del mercato e all’avanzare delle nuove tecnologie. Gli esempi migliori (nel bene e nel male) rischiano di essere anche i più banali: se considerate l’evoluzione dei telefoni cellulari degli ultimi anni e la storia del lettore mp3 della Apple noterete come nel caso dei primi ci sia stata negli ultimi anni una proliferazione di ‘promesse’ per il futuro con relativa saturazione e smarrimento del mercato mentre nel secondo sia avvenuto un percorso metronomico che ha continuato a tracciare per l’ipod un’evoluzione generalmente prevedibile eppure sempre efficace. Dopo aver archiviato anche gli sms come ‘miti’ del telefono cellulare c’è stata un po’ di confusione nell’area centrale delle funzioni principali: la macchina fotografica, la radio, la televisione, internet, il bluetooth, la memoria, internet, etc.. Molti terminali sono stati progettati e prodotti senza una dichiarazioni d’intenti precisa e soprattutto senza fornire un’indicazione di dove i produttori volevano andare a parare. Nell’immediato questo rende nebbiosa l’identità del prodotto e impedisce la creazione di un legame profondo con l’utente - che cerca nell’identità del prodotto la conferma o il rafforzamento della propria senza trovarla - e nel lungo periodo non partecipa alla definizione degli obiettivi e dei desideri dello stesso utente che in un certo si ritrova smarrito. Il percorso di un oggetto/sistema come l’ipod è un esempio opposto: a partire dalle primissime versioni la sua funzione primaria è stata definita in modo netto e ribadita fino a trasformarla non solo nel mito dell’oggetto ma addirittura nell’archetipo di un’intera categoria. Le

93

Storie di cose e altre cose ancora: miti, fatti e promesse .  Marco Zamarato .

note


nuove core functions e le promesse vengono da sé, una dopo l’altra: le immagini, i video, i giochi fino all’iphone e all’app store. Se la ricerca spasmodica di nuove funzioni non paga, almeno nei termini della qualità del rapporto tra utente e sistema, bisogna ammettere che anche l’estremo opposto porta con sé una serie di aspetti negativi. Le stampanti a getto d’inchiostro che trovo più o meno costantemente (anche se in scaffali sempre più piccoli) nei negozi e nei supermercati mi fanno sempre pensare al male che il re-design a volte può fare. Immagino ogni anno (o forse ogni sei mesi) manager che parlano con designer e chiedono nuovi materiali, una forma più semplice, un packaging diverso. Si possono introdurre diverse innovazioni piccole e grandi all’interno del processo industriale e non voglio negare l’utilità della riduzione dei materiali, del peso o delle dimensioni eppure, da utente consumatore, continuo a vedere le stesse scatole con le stesse funzioni. Nel passaggio da una versione di stampante alla successiva cambiano (o migliorano) una serie di fattori che non vengono tradotti all’utente nel design e nelle funzioni. In pratica i nuovi modelli non raccontano la loro storia e non offrono spunti agli utenti per considerarli qualcosa in più di uno strumento. Questa sensazione è rafforzata dalla scelta della quasi totalità dei produttori di puntare su un modello in cui i guadagni si costruiscono sulla vendita dei beni di consumo (cartucce, carte) più che sulle vendite delle macchine stesse. Incuriosito da questa idea ho cercato di compiere qualche ricerca per scoprire se i numeri sostenevano la mia sensazione e pur non essendo un esperto di economia ho scoperto un mercato che era già in perdita in tempi non sospetti. Dietro alle percentuali negative delle vendite ci sono sicuramente molte cause, di cui credo le scelte strategiche di progettazione occupano solo una percentuale. Tuttavia non possiamo evitare nel nostro lavoro di sperimentare tutti gli strumenti che possono ottimizzare e migliorare un prodotto.

Conclusioni La storia di un sistema non può essere prevista e scritta a tavolino, eppure mi sembra ragionevole immaginare che porsi queste domande quando ci si appresta a disegnare o aggiornare un sistema tracciarne la storie e provare a immaginarsene alcune più fantasiose per il futuro sia un passo fondamentale per assicurare al progetto la sintesi, la chiarezza e la lungimiranza necessari a renderlo unico.

94

Storie di cose e altre cose ancora: miti, fatti e promesse .  Marco Zamarato .

note


Jarno Marchetto

La User Experience e il principio di Pareto http://www.uxmagazine.it/user-experience-design/la-user-experience-il-principio-di-pareto/

UX e 80/20: tre concetti Vilfredo Pareto, un economista italiano, studiando la distribuzione dei redditi del suo Paese più di cento anni fa, notò come l’80% della ricchezza fosse di proprietà del 20% della popolazione. Il concetto esteso, che afferma che l’80% degli effetti è generato dal 20% delle cause, si diffuse come “principio di Pareto” o “regola dell’80/20” estendendosi a molteplici campi d’applicazione. Anche nel campo della user experience si può applicare il principio di Pareto e giungere a tre concetti di base. 1. L’80% degli utenti sono interessati unicamente al 20% delle funzionalità messe loro a disposizione. 2. L’80% degli utenti abbandona immediatamente i servizi o i prodotti loro proposti se essi non funzionano al primo tentativo. Solo il 20% persiste nel cercare una soluzione. 3. L’80% dell’utilizzo e dei relativi ricavi nel caso di servizi a pagamento sono generati dal 20% degli utenti. Naturalmente il rapporto 80/20 è indicativo e serve principalmente a riflettere sulle proporzioni tra i gruppi di utenti e sui loro comportamenti.

L’80% degli utenti vuole solo il 20% delle funzionalità Pensiamo a Google. Offre molteplici servizi, tuttavia la sua pagina iniziale è rimasta come agli albori: molto spazio vuoto e, nel mezzo, il campo dove inserire la propria ricerca. Questo facilita ciò che vuole la maggior parte degli utenti quando visita Google: effettuare una semplice ricerca. Unicamente la minoranza degli utenti è interessata anche agli altri servizi proposti da Google, e va oltre il semplice utilizzo del motore di ricerca classico. Google ha sempre mantenuto la sua pagina principale tale al fine di facilitare l’80% degli utenti che non sono interessati ad altro se non a effettuare una ricerca. È quindi importante cercare di eliminare il superfluo o “nasconderlo” all’attenzione per non distrarre la maggior parte degli utenti da ciò cui sono realmente interessati. Se ne hanno bisogno, essi troveranno gli altri servizi messi loro a disposizione in un secondo tempo. Di conseguenza, è fondamentale riuscire a suddividere in una struttura logica prodotti e servizi per massimizzarne il potenziale. Invece di colpire l’utente con una gran quantità d’informazioni, si dovrebbero prediligere la facilità di lettura e l’immediatezza, riducendo i servizi proposti al 20% ed eventualmente rendendo disponibile indirettamente il restante 80%. In seguito, il 20% dei servizi o dei prodotti con il maggior potenziale andrà sviluppato ulteriormente, fino a raggiungere un livello qualitativo ottimo. Ciò permette di distinguersi dalla concorrenza. Ricordiamo che l’utente non punta unicamente alla qualità, bensì a ottenere il miglior rapporto qualità/prezzo. Esso va ottimizzato secondo il target che si intende raggiungere e deve essere il migliore nella sua categoria se aspirate a diventarne i leader.

95

La User Experience e il principio di Pareto .  Jarno Marchetto .

note


Togliere il superfluo non significa comunque non applicare la teoria “the Long Tail”, al contrario: significa, infatti, cercare una nicchia dove dare il meglio, diventare leader e acquisire utenti. Indipendentemente dalle dimensioni del vostro business, focalizzarsi sul miglior 20% che potete offrire porterà solo benefici.

L’80% degli utenti abbandona servizi e prodotti che non funzionano al primo tentativo Eccezione fatta per i monopòli, in ogni business, sia esso lucrativo o non, esistono sempre dei concorrenti. L’utente, piuttosto che perdere tempo, preferisce cercare e provare delle alternative, a parte nei pochi casi in cui esse non siano applicabili per motivi ben definiti (ad esempio tecnici, economici, …). Quindi, se non si lavora in ambito monopolistico, durante l’intero ciclo di sviluppo di servizi e prodotti occorre concentrarsi sulla qualità, in modo che la user experience corrisponda alle aspettative dell’utente già al primo tentativo d’utilizzo. Decisivi sono la facilità d’uso, la chiarezza e l’immediatezza della documentazione, come pure il tempo necessario prima che l’utente sia operativo. Inoltre, i vantaggi dei vostri servizi e prodotti devono essere chiari fin dall’inizio all’utente. In questo modo egli sarà consapevole e convinto della sua scelta, e così avrete eliminato l’insidia della concorrenza. Di riflesso, se tutto funziona al primo tentativo d’utilizzo, avrete guadagnato un utente soddisfatto, che più facilmente sarà disposto a pazientare nel caso subentrassero problemi in un secondo tempo. Inoltre, egli diventa così una referenza preziosa e, anche se più tardi dovessero accadere dei contrattempi, salvo che essi persistano, difficilmente parlerà negativamente dei vostri prodotti o servizi ad altri utenti. Nel caso di servizi a pagamento, soprattutto se vi sono diverse varianti, fate sì che i costi siano chiari e trasparenti all’utente. Ad esempio, nella scelta di servizi di telefonia, il cliente preferisce una compagnia telefonica leggermente più cara ma con un tariffario chiaro dal quale non si aspetta brutte sorprese, piuttosto che un’altra compagnia che apparentemente offre prezzi più bassi ma difficilmente confrontabili e che non permettono di prevedere con precisione i costi globali d’utilizzo.

Il 20% degli utenti genera l’80% del business Questa regola è conosciuta da tempo ed è già stata menzionata da diverse fonti. La sua applicazione nell’area della user experience è tuttavia particolarmente interessante. Chiedete al 20% degli utenti più attivi cosa migliorerebbe dei servizi esistenti o cosa desidererebbe come novità. In questo modo si possono identificare rapidamente i campi d’azione più promettenti, massimizzando i risultati in rapporto all’investimento per l’implementazione di nuovi prodotti o servizi.

96

La User Experience e il principio di Pareto .  Jarno Marchetto .

note


L’applicazione nel ciclo di sviluppo di servizi e prodotti I tre concetti descritti possono essere integrati in un ciclo atto a ottenere un miglioramento continuo dell’offerta all’utente: - Si raccolgono idee per nuovi prodotti e servizi. - Le migliori idee vanno scelte in base al concetto che l’80% degli utenti è interessato solo al 20% delle funzionalità. - Si realizzano unicamente i prodotti e servizi più promettenti. - Vengono testate tramite degli utenti di prova (rappresentativi del target che si vuole raggiungere) la qualità, la facilità d’uso, … secondo il principio che l’80% degli utenti abbandona servizi e prodotti non funzionanti al primo tentativo. - Si lanciano sul mercato e si commercializzano servizi e prodotti eccellenti e mirati. - Considerando che il 20% degli utenti genera l’80% del business, si chiedono opinioni, consigli, potenziali miglioramenti e idee per nuovi prodotti e servizi agli utenti più attivi. Il ciclo si ripete iniziando nuovamente dal primo punto.

97

La User Experience e il principio di Pareto .  Jarno Marchetto .

note


Lea Landucci

TANGerINE: abbattere le barriere uomo-macchina http://www.uxmagazine.it/interface-interaction-design/tangerine-abbattere-le-barriere-uomomacchina/

Le nuove tecnologie offrono continuamente nuovi dispositivi high-tech allo scopo di divertirci, aiutarci, rendenderci la vita più semplice e piacevole. Ma raggiungono il loro scopo? Donald Norman, uno dei più importanti psicologi cognitivisti, nel suo “The Psychology of Everyday Things” ci mette in guardia da quello che lo stesso autore definisce paradosso tecnologico: il progresso tecnologo rischia di rendere la nostra vita ancora più complessa. Per evitare tutto questo la formula è chiara, ma non semplice: progettare e sviluppare sistemi human centered. Lo scopo della ricerca sulla Natural Human-Computer Interaction è quello di creare sistemi interattivi di nuova generazione in grado di integrare ed adeguare la tecnologia al linguaggio ed ai comportamenti umani. L’ obiettivo è quello di non “costringere” gli utenti ad apprendere l’uso di linguaggi artificiali, facendo in modo che i sistemi elettronici riescano ad interpretare correttamente alcuni comportamenti umani. L’idea è quella di sfruttare la naturale propensione dell’uomo a comunicare e comprendere utilizzando i sensi, ad imparare manipolando gli oggetti, lasciando che i sensori riconoscano quei comportamenti che derivano dalla sua memoria, dal suo bagaglio esperienziale, dalla sua conoscenza pregressa. Questi sistemi interattivi devono essere semplici ed intuitivi, attrattivi e non intrusivi, devono supportare l’interazione con sistemi elettronici senza l’utilizzo di periferiche di input/output tradizionali, quali mouse, tastiere, monitor. L’interazione avviene semplicemente attraverso la gestualità umana ed alcune particolari interfacce tangibili: oggetti intelligenti in grado di stimolare la manipolazione degli utenti che riescono così ad esplorare potenzialità e contenuti dei sistemi stessi. Una delle sfide più interessanti per la ricerca in questo campo è quella di progettare e realizzare sistemi auto-esplicanti introducendo linguaggi di interazione semplici ed intuitivi e sfruttando la affordance dei dispositivi coinvolti ovvero la loro capacità di suggerire il modo corretto per utilizzarli. M. Cohen nel 1998 scriveva: ”Instead of making computer-interfaces for people, it is of more fundamental value to make people-interfaces for computers”. Dalla ricerca sull’interazione tangibile e naturale condotta presso il centro di eccellenza MICC - Media Integration and Communication Centre dell’Università degli Studi di Firenze in collaborazione con il Micrel Lab dell’Università di Bologna, nel 2006 nasce il progetto TANGerINE. Il progetto ha come scopo quello di creare una piattaforma per lo sviluppo di interfacce ad interazione naturale e tangibile che sfruttino TANGerINE cube, un oggetto fisico intelligente a forma di cubo con sensori accelerometrici a bordo e tecnologia bluetooth che permettono al dispositivo di capire come viene manipolato. Un sistema di visione artificiale è in grado di tracciarlo all’interno di un’area attiva, la TANGerINE tabletop valutandone posizione e rotazione. TANGerINE cube risulta quindi uno strumento di interazione a tutto tondo: selezionatore, contenitore

98

TANGerINE: abbattere le barriere uomo-macchina .  Lea Landucci .

note


di oggetti digitali, manipolatore, avatar 3D. E’ stato scelto un cubo per la sua semplicità e neutralità, una delle prime forme che ognuno di noi ha conosciuto, riconosciuto, mosso e spostato, cosicché venga stimolata la naturale propensione istintiva di comunicazione e comprensione dell’utente attraverso la manipolazione, che troverà l’interfaccia a “misura d’uomo”, completamente al di fuori dei canoni tecnologici odierni che tendono verso la “non forma” degli oggetti. La natura collaborativa della piattaforma TANGerINE rende ampia la scelta del campo di applicazione, che possono essere: - sistemi interattivi legati all’entertainment, all’edutainment, al gaming; - tavoli ed interfacce che permettono il caricamento di contenuti da Internet, manipolabili ed esplorabili attraverso interfacce tangibili; - applicazioni che favoriscono brainstorming di team di creativi, permettendo l’organizzazionedi contenuti digitali in mappe concettuali che possono essere gestite in modo naturale. In particolare le principali applicazioni sviluppate dal centro di ricerca MICC che sfruttano questa piattaforma interattiva sono: - TANGerINE theatre - long form di improvvisazione teatrale interattiva; - TANGerINE tales - applicazione per lo storymaking digitale; - TANGerINE cities - strumento per la sonorizzazione creativa delle città moderne.

TANGerINE cities TANGerINE cities permette di sonorizzare la città del futuro attraverso la manipolazione collaborativa di oggetti sonori ispirati a città odierne. TANGerINE cities permette di scegliere ed elaborare suoni provenienti dalle nostre città, di raccogliere frammenti sonori del presente per poi ricomporli armonicamente per immaginare i suoni del futuro. E’ un mezzo di creazione sonora collettiva: uno spiraglio sul mondo sonoro della città del futuro. Come suonerebbe una città del futuro in cui venga sconfitto l’inquinamento acustico? Saremmo tutti condannati a vivere in un ambiente senza rumori grazie alle nuove tecnologie? TANGerINE Cities immagina altre soluzioni: rendere armonici i suoni che normalmente feriscono l’orecchio umano. Gli utenti sono chiamati a comporre tracce di “rumore” metropolitano raccogliendo gli oggetti sonori ispirati ai suoni delle città odierne. Tramite la manipolazione del TANGerINE cube, gli utenti possono sperimentare l’applicazione di diversi filtri armonici e musicali in modo da rendere l’effetto sonoro finale piacevole all’ascolto. Presentato in anteprima a Roma a Frontiers of Interaction V.

TANGerINE tales TANGerINE tales è un’applicazione per lo StoryMaking digitale, rivolto a bambini di 7-8 anni. Il progetto nasce da una collaborazione congiunta con la scuola di psicologia dell’Università di Nottingham. Le applicazioni di StoryMaking permettono a più bambini di collaborare nella creazione di una storia inventata, esattamente come

99

TANGerINE: abbattere le barriere uomo-macchina .  Lea Landucci .

note


avviene sui banchi di scuola. Invece di carta e penna, o di pupazzi e oggetti, i bambini hanno a disposizione una piattaforma interattiva arricchita di funzionalità che permette loro di usare contenuti digitali animati. Questi possono essere scelti di comune accordo, spostati, attivati ed arricchiti di dialoghi e suoni registrati dai bambini. La produzione finale è una storia che può essere riprodotta proprio come un video.

TANGerINE theatre TANGerINE theatre è una long form di improvvisazione teatrale interattiva. Gli ingredienti della performance sono: 6 attori, 6 scenografie multimediali, un cubo, il pubblico. I sei attori improvvisano sei storie diverse il cui unico filo comune è quello di essere ispirate ad una parola chiesta al pubblico. Ogni storia ha come cornice una diversa scenografia multimediale audio-video. Il pubblico può utilizzare il TANGerINE cube per cambiare tali scenografie: gli attori improvvisano di conseguenza adattando la storia ai diversi contesti in divenire. Il pubblico diventa in questo modo il vero regista della performance, capace di sceglierne il percorso narrativo e drammaturgico. TANGerINE theatre è stato presentato al Festival della Creatività, al Teatro Il Vascello (Roma, 8 Maggio 2008), alla Notte Bianca III di S. Giovanni Valdarno (21 Giugno 2008), ed è presente in una pubblicazione scientifica dal titolo “Evolving TUIs with Smart-object for Multi-context Interaction“, CHI 2008, Firenze. TANGerINE project è sviluppato dal MICC - Università di Firenze (Prof. Alberto Del Bimbo, Lea Landucci, Nicola Torpei, Stefano Baraldi, Matteo Bencini e Gianpaolo D’Amico) e dal MicrelLab @ D.E.I.S. - Università di Bologna (Prof. Luca Benini, Omar Cafini, Elisabetta Farella, Piero Zappi) e con la collaborazione della School of Psychology (Giulia Gelmini, University of Nottingham).

100

TANGerINE: abbattere le barriere uomo-macchina .  Lea Landucci .

note


Luigi Passerino

Dalla carta stampata all’invenzione dell’E-Ink http://www.uxmagazine.it/innovation-design/dalla-carta-stampata-allinvenzione-delleink/

Nel 2004 Antonio Tombolini, fondatore della Simplicissimus Book Farm, comincia ad interessarsi di ebook, guidato dalla passione per la lettura, i libri e la rete. Leggendo scopre delle ricerche e dei brevetti dell’americana E-Ink che stava mettendo a punto un approccio rivoluzionario alla visualizzazione di testi digitali: non più pixel illuminati che inviano radiazioni in continuo agli occhi, consumando molta energia e richiedendo un ben definito angolo direzionale per essere letti, ma una pagina di carta elettronica che si stampa sullo schermo e che durante la lettura resta spenta. Perciò leggibile in maniera assolutamente confortevole, anche in pieno sole, con un ampio angolo di visibilità, del tutto analogo a quello di una pagina stampata su carta. Leggibile sempre e ovunque, perchè non affatica la vista degli utenti in quanto lo schermo non è retroilluminato. Con in più tutto ciò che il testo digitale può fare e la carta no. Ad esempio la possibilità di portare con sè tutti i libri che si desidera avere, e poter interagire con lo strumento, scrivendoci sopra proprio come su un foglio di carta. Nel 2005 Tombolini comincia a parlare con alcuni amici delle possibilità in questo settore, sostenendo che “i lettori di ebook basati su inchiostro elettronico avranno per i libri lo stesso ruolo che iPod e i lettori mp3 hanno avuto per la musica”. È quello che sta accadendo oggi, è esattamente quello che Jeff Bezos affermò, un anno e mezzo dopo, per lanciare Kindle, il device di Amazon basato su eInk. Inizia a volerne sapere di più e a seguire in particolare l’evoluzione del progetto più ambizioso e avanzato, avviato dal gruppo Philips con la creazione di una società, iRex Technologies la cui mission consiste tuttora nello sviluppo di device basati su inchiostro e carta elettronica. Vede nascere da vicino iLiad, a contatto con alcuni dei ricercatori e sviluppatori iRex, fin dalle prime fasi di prototipazione. Su questa base matura l’opportunità di acquisire la distribuzione di iLiad per l’Italia, asset sulla cui base Tombolini ottenne la fiducia di alcuni privati investitori: siamo nel giugno 2006, e nasce formalmente la Simplicissimus Book Farm SRL. Oggi la Simplicissimus Book Farm si dedica alla distribuzione non solo di iLiad, ma di tutti i lettori ebook disponibili sul mercato europeo (Cybook, BeBook, etc). Ma si dedica anche, e anzi soprattutto, all’offerta di servizi di conversione, produzione e distribuzione ebook agli editori, nonché allo sviluppo di applicazioni professionali basate su eInk, per ridurre ed eliminare tutta la carta di cui si potrebbe fare a meno.

101

Dalla carta stampata all’invenzione dell’E-Ink .  Luigi Passerino .

note



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.