INTRODUZIONE
L’uomo, dopo aver superato la prima fase di evoluzione basata
sulla costruzione di utensili più o meno semplici, ha cominciato a
produrre macchine, congegni e, più in generale, sistemi. Con tale
termine siamo soliti indicare un insieme di elementi funzionalmente
collegati tra loro per fornire un dato risultato o valore. Tali sistemi
prevedono l’indirizzo e la partecipazione attiva dell’utilizzatore per
raggiungere il risultato previsto. In tal senso tutti i sistemi realizzati
dall’uomo sono scomponibili in due sottosistemi principali: quello
biologico, l’uomo, e quello “meccanico”: un’astronave, un impianto
hi-fi, una centrale nucleare, un gioco e così via. Ogni sistema, dotato
di propri scopi e di una logica interna di funzionamento, viene dotato
di “interfacce” che ne consentano l’uso previsto anche da parte di
utenti non esperti.
Il termine interfaccia è direttamente collegato alla comunicazione
tra sistemi. Nel rapporto tra sistema “biologico” e “meccanico” le
esigenze dell’utilizzatore sono sempre sostanzialmente le stesse. Il
“non esperto” necessita di mappe mentali che lo aiutino a
comprendere come interagire con il sistema al fine di realizzare il
risultato previsto. Questo si traduce nell’esigenza di sapere in che
stato si trova in ogni momento di utilizzo, quali azioni è possibile
compiere sul sistema e quali effetti produrranno le azioni consentite.
Si tratta, in sostanza, di rendere comprensibile la relazione tra i due
insiemi, azione del primo e reazione del secondo. In alcuni casi le
relazioni sono ovvie, come quelle basate su analogie spaziali; in altri
dipendono da pratiche culturali, come il colore di una spia, risultando
chiare solo a condizione di conoscere tali convenzioni. La
progettazione di una interfaccia basata su di un modello concettuale
comprensibile, completo e facilmente memorizzabile, è quindi un
problema vecchio come le prime macchine create dall’uomo.
3
Wiinterfaces
Tale problema è limitato a ciò che possiamo definire “interattivo”.
Un programma televisivo, come pure una proiezione cinematografica
non sono interattivi, non necessitano di una interfaccia con cui
l’uomo può impartire comandi. Un apparecchio televisivo invece,
reagisce ai nostri stimoli in quanto, ricevendo l’opportuno ordine, si
accende, cambia canale, modifica i valori di luminosità e contrasto,
la fonte di riproduzione. È interattivo ed ha quindi bisogno di
strumenti su cui agire. L’interazione uomo-macchina si occupa della
progettazione delle interfacce uomo-sistema o, più precisamente, tra
uomo e computer. Il suo scopo ultimo è rendere l’interazione
efficace e usabile nei vari contesti d’uso. Per fare ciò si devono
valutare tutti quei fattori che possono influenzare l’interazione tra
uomo e macchina. Entrano in causa un gran numero di discipline:
dalla psicologia alla semiotica, dalla linguistica all’information
technology, dalle discipline del design alla computer graphics. Tutte
queste discipline si confrontano sul terreno dell’interazione uomo-
macchina solo dopo l’avvento del computer.
La particolarità del computer sta nell’assenza di un compito unico,
specifico; non produce un valore definito e neanche radicalmente
nuovo. […] Un computer può fare calcoli come una calcolatrice,
scrivere come e meglio di una macchina da scrivere, gestire basi dati,
permettere di comunicare come un telefono, mostrare programmi tv e
radiofonici, controllare lavastoviglie, catene di montaggio, robot e
infiniti altri sistemi. Inoltre può emulare se stesso, nel senso di
“imitare il comportamento di un elaboratore dalle caratteristiche
diverse…”. Un computer, infine, può anche simulare le altre
macchine e le relative condizioni di utilizzo, e può anche simulare
1
sistemi non prodotti dall’uomo.
Questi strumenti sono impiegati per la ricerca, l’addestramento, la
formazione, l’informazione, la divulgazione e il gioco. Per ogni
emulazione o simulazione, il computer presenterà una diversa e
specifica interfaccia. Una combinazione tra hardware e software
1
Cfr. F. LUTRARIO, La multimodalità nell’intrattenimento e nelle simulazioni
digitali, in A. MUCCI (a cura di), I quaderni di Telèma, marzo, 2007.
4
Introduzione
deve mediare tra i due sistemi consentendo uno scambio nelle due
direzioni: input, ordini e richieste di esecuzione, e output, le risposte
del sistema. La presenza di diversi elementi di output va sotto il
nome di multimedialità, mentre la possibilità di avere diverse opzioni
di input definisce la multimodalità. L’obiettivo dell’informatica
attuale è quello di raggiungere la multimodalità tipica degli scambi
tra uomini aggiungendo ai sistemi tradizionali, mouse o tastiera, la
gestualità, il linguaggio naturale, il movimento dello sguardo. I
relativi vantaggi riguardano tanto specifiche classi di individui, da
quelli poco esperti ai disabili, quanto numerosissimi campi
2
applicativi, tra cui ovviamente l’intrattenimento.
Il gioco come attività umana, quello che gli anglosassoni
3
definiscono “play”, è infatti anch’esso un sistema. Come gli altri è
composto da un sottosistema biologico, l’uomo, e da uno meccanico,
“il game”. Il cuore di quest’ultimo è la meccanica di gioco, un
insieme di regole formali gestite da un supporto, un computer, e
rivestite da una “ambientazione” che ha l’obiettivo di creare
l’illusione di un mondo separato e fittizio. Qualunque gioco si basa
su di un “modello”, inteso come la rappresentazione di idee e
conoscenze relative ad un fenomeno sul quale è possibile agire per
verificare il risultato di tali azioni. Vi è poi un “obiettivo di vittoria”
con cui confrontarsi, a cui tendere. Vengono definite “leve” le
possibili azioni degli utenti sul meccanismo di gioco e “regole del
giocatore” le possibilità e le limitazioni all’uso di tali leve da parte
4
degli utilizzatori. Uno stesso gioco, mettiamo gli scacchi, ha sempre
2
Questa disciplina, nata come branca dell’interazione uomo-macchina, ha origini
molto recenti e grandi prospettive di sviluppo e applicazione. Si pone obiettivi
ambiziosi: dall’esigenza di consentire comandi connessi allo specifico sistema che il
computer sta rappresentando (si pensi ad un bisturi con cui simulare operazioni
chirurgiche) fino alla sostituzione degli attuali ordini formalizzati con comandi
naturali.
3
Come tale, il gioco è definito “incerto” perché il suo risultato dipenderà dalle
azioni dei giocatori, senza le quali non avrebbe alcun significato.
4
Queste leve hanno una sostanza, una forma e una modalità. La sostanza riguarda le
variabili (indipendenti) definibili dall’utente nell’ambito del modello, mentre la
forma fa riferimento alla specifica ambientazione del gioco, la loro mera apparenza.
5
Wiinterfaces
le medesime leve ma può renderle disponibili in diversi modi,
tramite diversi dispositivi di input. Possiamo muovere una torre con
il mouse, possiamo trascinarla grazie ad un dispositivo touch screen,
possiamo indicare le nuove coordinate con la tastiera o
semplicemente dire “muovi la torre in B8”. Il risultato non cambia.
Anche una simulazione si basa sull’interazione con un modello.
La differenza tra gioco e simulazione si riduce a pochi ma sostanziali
elementi. Un gioco può realizzarsi su di un modello che rappresenti
un qualunque sistema, anche fittizio. Una simulazione invece, si basa
su modelli di sistemi, reali o ipotetici, ma non affronta i sistemi frutto
della fantasia. Il suo scopo infatti, è molto concreto e può essere
circoscritto al campo della ricerca (predizione), dell’addestramento e
della formazione. La simulazione quindi consente di studiare il
comportamento di un sistema, basandosi sulla riproduzione dello
stesso e dell’ambiente in cui esso deve operare, attraverso modelli; a
prescindere dal fatto che essi siano meccanici, analogici, matematici
o digitali. Possiamo usare un modello per addestrare un pilota senza
che tale esperienza risulti pericolosa o distruttiva. In tutti questi casi,
un errore nella costruzione del modello può causare gravi
ripercussioni nel mondo reale.
Tale differenza diventa cruciale nel momento in cui si definiscono
le leve di un gioco o di una simulazione. Quelle di un modello usato
a scopi di simulazione dovranno necessariamente essere coerenti con
il sistema rappresentato. Proprio per la sua capacità di gestire modelli
interattivi il computer ha trovato un campo eccezionalmente fertile
nel settore dei giochi e delle simulazioni. Il computer e i modelli
digitali infatti, costituiscono uno straordinario laboratorio virtuale nel
quale osservare e studiare fenomeni, attraverso cui fare esperienza e
quindi addestrarsi ai compiti più difficili e pericolosi, o con cui
semplicemente giocare. Spesso è possibile usare gli stessi modelli, si
pensi ad un simulatore di volo, tanto per gioco quanto per riprodurre
La modalità riguarda la concreta realizzazione delle leve attraverso il supporto e
l’interfaccia, definisce i modi con cui l’utente può agire su di esse. Per
approfondimenti: M. BITTANTI (a cura di) Per una cultura dei videogames. Teorie e
prassi del videogiocare, Unicopli, Milano, 2002.
6
Introduzione
il comportamento della macchina. Il tema della multimodalità
diviene quanto mai attuale in quanto, attraverso un modello, è
possibile ricostruire qualunque sistema per acquisire esperienza nel
campo del gioco o della simulazione.
Se volessimo sperimentare l’attività della scultura, ad esempio,
desidereremmo poter interagire con il modello di un blocco di
marmo tramite uno scalpello e le sensazioni tattili, piuttosto che un
mouse. Per provare l’esperienza di addestrare un cane o governare un
gregge di pecore vorremmo poter definire i comandi tramite la voce
o emettendo un fischio. Per guidare una Ferrari vorremmo un volante
e un cambio come quelli usati in Formula 1. E così via.
Molti di tali sistemi multimodali esistono già. Nel momento in cui
pc e console domestiche per videogiochi hanno raggiunto la qualità e
le prestazioni di quelle installate nelle sale pubbliche, i produttori di
cabinet hanno cominciato ad investire nella produzione di sistemi di
controllo che imitino al meglio i dispositivi di input e di output
rappresentati nel gioco. Volanti e pedaliere, cloche e pistole a raggi
infrarossi rappresentano i primi di una lunga serie di dispositivi
dedicati ad uno specifico tipo di simulazione.
Numerose strade sono state tentate, abbandonate e poi riprese.
L’ultima evoluzione del mercato videoludico è rappresentata da una
console, la Wii, dotata di un controller wireless, simile ad un
telecomando. Il Wiimote (crasi di “Wii” e “Remote”) è capace di
reagire alle forze vettrici ed all’orientamento nello spazio grazie a
sensori di movimento posti al suo interno, noti come oscilloscopi o
5
accelerometri, cosicché l’utente può “mimare” le azioni richieste dal
6
gioco piuttosto che limitarsi a premere dei pulsanti. Oltre a ciò, il
5
Piccolissime strutture meccaniche di silicio che permettono di valutare i movimenti
nello spazio. Si tratta della stessa tecnologia utilizzata in dispositivi quali contapassi,
macchine digitali (per la stabilizzazione dell’immagine) e persino lavatrici
(vibrazioni del cestello), riapplicata da Nintendo al mondo dei videogiochi.
6
La versione più recente è dotata di un piccolo dispositivo hardware, chiamato Wii
Motion Plus, che aggiunge al controller la precisione di un giroscopio per un
rilevamento dei movimenti ancor più preciso. Tale strumento, infatti, è pensato per
fornire un tracking della posizione e dell’orientamento del braccio; anche il più
7
Wiinterfaces
Wiimote permette il puntamento di un mirino sullo schermo: il
sensore ottico posto all’estremità superiore del controller interagisce
7
con la barra sensore, che può essere alloggiata sopra o sotto il
televisore. Una volta puntata la sensor bar, il sensore ottico del
Wiimote calcola la distanza tra controller e schermo. Calcolando
l’angolazione dei punti di luce (i led ad infrarossi della sensor bar)
rispetto al sensore ottico del Wiimote, può essere inoltre misurata la
8
rotazione del controller.
Interrogarsi sulla fortuna della console Nintendo e più in generale
sull’evoluzione dell’interazione uomo-videogame è dunque più che
legittimo, dal momento che le implicazioni, dirompenti nel presente,
sono destinate a ripercuotersi con eguale intensità nell’immediato
futuro. Il medium videoludico si trova ora davanti ad un bivio:
perseverare nel modello interattivo convenzionale, oppure sposarne
uno inedito, ma assai promettente. Il Wiimote stesso, in realtà, porta
evidenti i segni dell’evoluzione delle interfacce fisiche, avvalorando
l’ineluttabilità di quel processo di rimediazione che gli oggetti
informatizzati applicano in modo stratificato su quelli che li hanno
preceduti nel tempo.
Pensare che niente sarà più come prima a causa della Wii sarebbe
perciò un grossolano errore. Questa sorta di imprescindibile
deferenza verso il passato trova riscontro anche nelle parole di Bolter
9
e Grusin, i quali ricordano come qualsiasi nuovo medium, proprio in
quanto nuovo, per essere compreso e usato ha bisogno di appoggiarsi
alle regole che governano i media che l’hanno preceduto,
trasformandole e ricombinandole in maniera più o meno originale e
trasparente. Ci sono buone ragioni per ritenere che il modello
piccolo dei movimenti viene renderizzato in tempo reale su schermo, restituendo la
prima, autentica mappatura 1:1 dei gesti dell’utente.
7
Meglio nota come sensor bar, al cui interno sono contenuti dieci led ad infrarossi
(cinque per lato).
8
Per approfondimenti riguardo alle caratteristiche tecniche di Wii rimando a A.
CONTEDDU, La reinvenzione delle interfacce fisiche nel contesto video ludico. Il
caso di Nintendo Wii, Bologna, 2009.
9
Cfr. J. D. BOLTER - R. GRUSIN, Remediation. Competizione e integrazione tra
media vecchi e nuovi, Guerini e associati, Milano, 2002.
8
Introduzione
interattivo promosso dal Wii possa avere ripercussioni significative
sulle piattaforme che verranno. Pensiamo all’ormai imminente
Project Natal di Microsoft. Una videocamera 3D riprende l’utente (o
gli utenti) e percepisce i movimenti delle singole parti del corpo.
Nessun controller da tenere in mano: sarà sufficiente muoversi
davanti allo schermo per interagire con giochi ed applicazioni. I
limiti di utilizzo di una tale tecnologia sono dunque solo nelle
10
capacità dei game designer.
Date queste premesse, appare piuttosto evidente che il fenomeno
Wii si presta ad un’analisi multidisciplinare che, oltre la semiotica,
potrebbe chiamare in causa le scienze sociali, l’ergonomia,
l’ingegneria e via discorrendo. Tuttavia, la letteratura in materia di
Wii è sorprendentemente esigua e, a fronte di un buon numero di
case studies sul suo boom commerciale, solo in pochi si sono
interrogati sulla fenomenologia di Wii come oggetto d’uso.
Questo lavoro di tesi nasce dopo quasi un anno di attività
all’interno del LUA Lab del Cattid all’Università “La Sapienza” di
Roma, con l’intento di analizzare vari aspetti legati all’usabilità delle
interfacce di gioco moderne, Wii in primis. Obiettivo finale del
lavoro è quello di fornire un’utile guida per la progettazione di
interfacce di gioco usabili e valutare come si va delineando il futuro
delle piattaforme di gaming, tra nuove tecnologie e contesti d’uso.
L’ambiente del laboratorio e la presenza di molte persone che hanno
offerto la loro collaborazione ha permesso di effettuare diverse
sessioni di test al fine di realizzare un’analisi empirica molto precisa
dei livelli d’usabilità dei sistemi e dei singoli prodotti software
utilizzati.
Dapprima tale elaborato presenterà un esauriente contributo
teorico ad illustrare gli aspetti preminenti della dottrina nel campo
10
Le console portatili non sono state da meno. Il successo del Nintendo DS è
fortemente connesso all’interazione di tipo touch e alla presenza di un microfono
che permette interazioni vocali. È possibile cuocere a puntino un piatto di pasta
soffiando sulla pentola per evitare che l’acqua fuoriesca esattamente come facciamo
a casa; possiamo addestrare un cucciolo perché risponda ai nostri comandi vocali ed
anche lanciargli una palla con velocità e traiettoria che dipendono direttamente dal
gesto che abbiamo tracciato sullo schermo.
9
Wiinterfaces
dell’interazione uomo-macchina e dell’usabilità delle interfacce, sin
dai primi mainframe. Identificando nell’evoluzione tecnologica
ottenuta in ambito videoludico uno dei traini dello sviluppo
informatico, ci si soffermerà sulle caratteristiche peculiari delle
interfacce di gioco, sia lato hardware che software.
In un successivo ambito, l’attenzione si sposterà sull’evoluzione
delle interfacce di gioco. Il secondo capitolo presenta infatti, un
completo resoconto del percorso effettuato nel corso di decenni di
sperimentazioni, tra cocenti fallimenti e successi inaspettati.
L’analisi giunge sino ai nostri giorni con la rivoluzione Wii, che
segna l’attuale punto di svolta e limite massimo d’usabilità e
accessibilità di un sistema informatico dedicato all’intrattenimento.
A questo punto il nostro sguardo si sposterà sui problemi
d’usabilità delle interfacce di gioco. La parte principale del capitolo
sarà dedicata ai test d’usabilità. Per ognuno viene presentato un
dettagliato resoconto che analizza le tre dimensioni dell’efficacia,
efficienza e soddisfazione legate ad un prodotto interattivo. L’analisi,
effettuata seguendo i principi del buon design di Norman ed alcuni
spunti teorici propri del medium videogame, ci porterà a definire un
breve prontuario per progettisti di videogames che presenti le
guidelines per la creazione di interfacce di gioco usabili, a
prescindere dalla piattaforma utilizzata.
Concentrando la nostra attenzione esclusivamente sulla console di
casa Nintendo e alle possibili evoluzioni future, la parte finale del
nostro studio sarà rivolta, invece, alle possibili applicazioni della
tecnologia attuale in contesti extra-ludici. Verranno presentate due
proposte progettuali, Wii Gym e Wii Therapy: rispettivamente una
palestra aziendale virtuale e un’applicazione per la riabilitazione
tramite piattaforma Wii. Entrambe cercano di sfruttare le potenzialità
insite nella piattaforma per sviluppi in ambiti non ludici. Per tutte e
due vengono analizzati i possibili “competitors” già esistenti sul
mercato, valutati i punti di forza e debolezza dei potenziali progetti e
individuate le possibilità in chiave futura. Nelle conclusioni verranno
esaminate le prospettive future, per valutare in che modo le
tecnologie attualmente in via di sviluppo potranno ulteriormente
10
Introduzione
modificare il nostro rapporto con il mezzo, i livelli d’usabilità e
accessibilità e le capacità applicative in contesti estranei al gioco.
Tutti questi studi hanno confermato la necessità di un approccio
realmente multimodale, che coinvolga più di un canale, perché
questo è il modo in cui l’uomo è naturalmente portato a comunicare.
Oggi è possibile realizzare sistemi con cui interagire tramite i gesti
(si pensi alla descritta console Wii e alle telecamere che tracciano i
movimenti del corpo), i muscoli (sistemi touch e misuratori di
pressione), lo sguardo (eye tracking), le emozioni (misurabili tramite
fattori biomedici) e la parola (riconoscimento e uso del linguaggio
naturale). Possiamo affidare al sistema stesso il compito di capire
quale sia il dispositivo di input preferito dall’utente o il più adatto al
contesto d’uso. Il recente successo di alcune console rispetto ad altre
dimostra come ad un maggior numero di sistemi di input corrisponda
una più elevata gamma e qualità dei prodotti realizzabili. Le scelte
dei consumatori dimostrano che l’attenzione si sta spostando dalle
prestazioni, che spesso si traducono in maggiori capacità di
elaborazione e output multimediale, alle potenzialità multimodali,
alla varietà e flessibilità dei dispositivi di controllo. I progettisti
stanno progressivamente inserendo diversi dispositivi di input in
grado di sostituire gli ingombranti joystick, le tastiere e altri apparati
che presto considereremo oggetti di modernariato.
11
CAPITOLO PRIMO
Interazione uomo-macchina e usabilità
L'utente e la macchina: la mediazione dell’interfaccia
Negli ultimi anni, con la sempre più capillare diffusione di
dispositivi elettronici a supporto della vita quotidiana delle persone,
l’attenzione verso le forme d’interazione e verso le modalità
d’utilizzo di questi strumenti è progressivamente aumentata. Dall’uso
del personal computer nelle abitazioni e negli uffici alla diffusione
dei diversi oggetti elettronici portatili sempre più avanzati
tecnologicamente, come i telefoni cellulari e i computer palmari, la
facilità d’utilizzo di questi strumenti sta diventando sempre più
importante. Il boom di Internet ha, inoltre, contribuito ad aumentare
l’attenzione nei confronti del nuovo mezzo. Tutti questi elementi
hanno determinato un interesse strategico per la definizione delle
modalità ottimali di interazione tra l’utente e il medium, vale a dire
per la definizione delle migliori interfacce.
Il termine interfaccia deriva dal latino “inter facies”, che significa
“tra le facce”. Nasce in contesti del tutto estranei all’informatica e
alle scienze umane; esso ha inizialmente a che fare con la chimica, la
fisica, la meccanica e indica il punto di contatto, di trasmissione tra
due o più elementi. Applicata successivamente all’interazione uomo-
calcolatore, l’interfaccia indica dapprima le parti dell’hardware che
permettono di interagire con il calcolatore, per poi acquisire un
significato più forte, oggi più diffuso, indicando anche le modalità di
presentazione delle informazioni sullo schermo. Secondo Anceschi:
Il computer deve rappresentare se stesso all’utente in modo che egli
possa comprenderlo e la realizzazione delle sue potenzialità dipende
13
Capitolo Primo
soprattutto dalla sua capacità di auto-rappresentarsi e di creare uno
spazio di azione in cui l’utente possa inserirsi facilmente.
L’interfaccia è quindi l’insieme dei dispositivi materiali e concettuali
mediante i quali entriamo in relazione con il computer. Essa è il
“mediatore” della comunicazione tra individuo ed elaboratore, è lo
strumento attraverso il quale avviene l’interazione. L’interfaccia è
1
insieme organo dell’interazione e luogo dell’interazione.
Da tale citazione si comprende come l’interfaccia sia uno
strumento per il fare, ma anche uno “spazio in cui agire”. Ogni volta
che si parla di interfaccia è ovvio che siamo in presenza di almeno
due entità e che fra queste avviene uno scambio di informazioni e\o
azioni che transitano attraverso un canale. Alla fine della
comunicazione si verificano degli effetti, delle modificazioni di stato.
Nel nostro caso parliamo di un’entità umana e di una tecnica, due
soggetti quindi estremamente diversi, che comunicano in maniera
differente. È sulla soglia tra questi due sistemi così differenti che è
necessaria una progettazione, ed è proprio in questa progettazione
che deve subentrare il design, in particolare quella parte che si
occupa di design di interfacce. Come ci ricorda Scalisi, nel momento
in cui le macchine cominciano a comunicare con l’uomo, questa
2
comunicazione va progettata.
Grande importanza assume inoltre l’analisi dell’uomo in qualità di
utente dell’interfaccia, il quale, come vedremo nei capitoli
successivi, diviene progressivamente elemento centrale e decisivo
per la progettazione. Sarà proprio la crescente centralità data
all’utente nel processo di progettazione delle interfacce che porterà
alla nascita di una nuova disciplina, la Human Computer Interaction
(HCI), che si occupa di studiare l’interazione tra l’uomo e il
calcolatore, coinvolgendo diversi ambiti di studio quali la psicologia
cognitiva, l’informatica e l’ergonomia.
1
G. ANCESCHI, Il progetto delle Interfacce. Oggetti colloquiali e protesi virtuali,
Domus Academy Edizioni, Milano, 1993, cit. p.19.
2
R. SCALISI, Users. Storia dell’interazione uomo-macchina dai mainframe ai
computer indossabili,Guerini e Associati, Milano, 2001, cit. p.63.
14
Interazione uomo-macchina e usabilità
1.1 Progettare interfacce usabili
Progettare un’interfaccia significa, in una definizione restrittiva,
agire sulle modalità di presentazione dei dati; nell’interazione con il
calcolatore, però, essa può estendersi anche al di fuori dello schermo,
in particolare per quei dispositivi elettronici in cui la forma fisica
dell’oggetto ha un’influenza sull’interazione con esso (il joystick, il
mouse, ecc.). Quando si parla di interfaccia quindi, si deve parlare
sia dei dispositivi di input sia di quelli di output, anche perché questi
possono assumere forme diverse che, a volte, nascondono la
presenza del computer.
In un’accezione più semplice, che non contempla principi
comunicativi, l’interfaccia è il software che configura l’interazione
tra l’utente e il computer, una sorta di traduttore che media tra le due
parti. La relazione attuata dall’interfaccia è di tipo semantico ed è
caratterizzata da significati ed espressioni, oltre che da elementi fisici
e tecnici. Il computer deve rappresentare se stesso all’utente in modo
che egli possa comprenderlo; la realizzazione delle sue potenzialità
dipende soprattutto dalla capacità di autorappresentarsi e di creare
uno spazio d’azione in cui l’utente possa facilmente inserirsi.
L’interfaccia è, quindi, l’insieme dei dispositivi materiali e
concettuali mediante i quali entriamo in relazione con il computer. È
il “mediatore” della comunicazione tra individuo ed elaboratore, è lo
strumento attraverso il quale avviene l’interazione. Ma non solo: essa
è anche lo strumento attraverso cui noi formiamo la nostra idea del
calcolatore. L’interfaccia influisce, quindi, sul modo con cui noi
usiamo e concepiamo la macchina. Essa, ai suoi diversi livelli, ha
infatti modificato il modo con cui l’uomo ha interagito con le
macchine sia in termini fisici che cognitivi. Brenda Laurel afferma:
Quando il concetto di interfaccia cominciò ad emergere essa era
comunemente riconosciuta come un insieme di hardware e software
attraverso i quali un uomo e un computer potevano comunicare.
Quando essa si è evoluta il concetto ha cominciato ad includere anche
aspetti cognitivi ed emotivi dell’esperienza dell’utente […]
Un’interfaccia è una superficie di contatto, riflette le proprietà fisiche
15
Capitolo Primo
degli inter-attori, le funzioni che devono essere svolte, l’equilibrio tra
3
potere e controllo.
In una categorizzazione degli artefatti presentata da Bagnara,
l’autore sostiene che lo sviluppo degli artefatti umani, gli strumenti
dell’uomo, è evoluto dai semplici strumenti agli artefatti tecnologici
e organizzativi e, in seguito, a quelli cognitivi, come i calcolatori. La
nozione di interfaccia è stata sviluppata soprattutto in relazione con
gli artefatti cognitivi e soprattutto nella progettazione degli artefatti
integrati. Secondo Bagnara:
L’uomo progetta, costruisce e usa strumenti e artefatti per agire
sull’ambiente. Gli strumenti o protesi sfruttano e moltiplicano
l’energia umana e potenziano singole azioni dell’uomo […]. Gli
artefatti utilizzano energia artificiale per svolgere le azioni umane,
moltiplicandone la potenza. Se le azioni sono prevalentemente fisiche,
si ha un artefatto tecnologico: una macchina che esegue, potenzia e
integra diverse azioni fisiche umane. Se la componente cognitiva delle
4
azioni è preponderante allora si hanno artefatti cognitivi.
Gli strumenti e gli artefatti, dunque, dovrebbero essere costruiti in
modo da risultare compatibili con le caratteristiche dell’uomo.
Qualsiasi strumento o artefatto deve inoltre possedere una
componente che permetta all’uomo di utilizzarlo: un’interfaccia.
Essa è il luogo dove l’uomo governa lo strumento e dove comunica
all’artefatto le proprie intenzioni e dal quale riceve le informazioni
sugli effetti dell’azione. Ogni interfaccia, sia di strumenti sia di
artefatti tecnologici, deve rispettare i limiti fisici e antropometrici
dell’uomo. Ma deve anche rendere naturale e visibile che cosa si può
fare e che cosa non si può fare con quello strumento o con
5
quell’artefatto tecnologico: le azioni fattibili e come farle.
Nella visione di Bagnara, dunque, qualsiasi tipo di artefatto
3
B. LAUREL, The art of human computer interface design, 1990, cit. p. XIII.
4
S. BAGNARA - P. MARTI, Interfacce: dagli strumenti agli artefatti cognitivi
integrati, If, 7 (1), 1999, cit. p.23.
5
Ibidem, cit. p.24.
16
Interazione uomo-macchina e usabilità
possiede un’interfaccia che definisce i modi e i vincoli di interazione
e comunicazione tra uomo e macchina, nel caso di artefatti
tecnologici, oppure tra gli uomini che agiscono al loro interno, nel
caso degli artefatti organizzativi, anche se queste interfacce non sono
immediatamente visibili.
Sono poi diffusi artefatti che incorporano, potenziano e integrano
capacità cognitive dell’uomo: gli artefatti cognitivi. Sono sistemi
artificiali che conservano ed elaborano informazioni e supportano
l’attività cognitiva umana; l’esempio principale è, ovviamente, il
computer. Oggi, però, abbiamo a che fare con artefatti integrati, che
svolgono, anche contemporaneamente, le funzioni di artefatto
tecnologico, cognitivo e organizzativo. Ciascuno di essi necessita di
competenze specifiche per la progettazione dell’interfaccia, che si fa
sempre più complessa con l’evoluzione degli artefatti cognitivi, ma
che richiede un’interdisciplinarietà sempre maggiore con la fusione
delle diverse caratteristiche negli artefatti integrati. L’introduzione
dei dispositivi elettronici portatili, che sono anch’essi artefatti
integrati ad esempio, comporta un ritorno dal linguaggio cognitivo
dell’interfaccia grafica a un linguaggio fisico “dell’oggetto”, in cui
l’ergonomia è coinvolta direttamente, perché in questo caso il design
dell’interfaccia si fonde con quello del dispositivo.
Per costruire una buona interfaccia dunque, i designer devono oggi
agire su entrambi i livelli linguistici, trovandosi di fronte due sfide
fondamentali. In primo luogo, l’esigenza di creare interfacce molto
intuitive e semplici, poiché la diffusione di massa dell’informatica e
dei dispositivi elettronici ha introdotto degli utenti meno competenti
ma molto interessati a utilizzare i dispositivi informatici, senza per
questo diventarne degli esperti.
La seconda sfida è legata all’evoluzione della tecnologia. Se è
vero che l’interfaccia grafica dei personal computer che conosciamo
oggi è rimasta sostanzialmente invariata, è anche vero che i computer
stanno attraversando una fase di profondo mutamento. La tecnologia
si miniaturizza, evolvono le tecnologie dei display, si sviluppano
nuove tecnologie di input, evolvono le interfacce vocali. I personal
computer diventano wireless, mobili, portatili, personali, indossabili
17