51 L’INTERAZIONE UOMO-COMPUTER
Il controllo e la responsabilità delle decisioni
Nei sistemi interattivi, la componente umana e quella automatica
dovrebbero non limitarsi a coesistere ma cooperare efficacemente. Se sia l’uomo
sia il computer fossero perfetti solutori di problemi e ottimi decisori, che bisogno
avrebbero l’uno dell’altro? La collaborazione si fonda su una complementarietà
almeno possibile, tuttavia questa sensata riflessione non è stata finora accolta
così pienamente come si potrebbe credere. I sistemi automatici che svolgono i
loro compiti in modo soddisfacente senza bisogno di alcun intervento umano,
non richiedono lo sviluppo di competenze interattive, né la presenza di interfacce
uomo-computer, né a rigore hanno la necessità di dialogare con l’operatore
umano. Laddove i sistemi uomo-computer richiedono lo sviluppo di
un’interfaccia relazionale, ciò avviene perché c’è coattività, cioè compresenza e
sovrapposizione almeno parziale degli ambiti di attività dei due sottosistemi,
umano ed automatico.
Il tipo d’interazione uomo-computer in un dato sistema non dipende in
primo luogo dall’utilizzatore, ma dal progettista. Le decisioni strategiche sulla
qualità dell’interazione le prende chi concepisce e progetta il sistema. Il
progettista definisce, fin dalle prime fasi del progetto, quale grado di controllo
l’uomo potrà esercitare sull’artefatto informatico. La presenza di un sistema
interattivo segnala un bisogno o un’opportunità di collaborazione uomo-
computer, ma non definisce come il progetto concepisce la cooperazione. Ci sono
diversi modi di vedere l’interazione. Esistono in particolare, per ragioni storiche
e culturali legate allo sviluppo delle tecnologie informatiche, filosofie di
progettazione che privilegiano il contributo automatico rispetto a quello umano.
L’obiettivo prioritario di alcune filosofie di progettazione sembra essere quello di
creare un ambiente di lavoro adatto alle esigenze della componente automatica (e
dei suoi cultori). Certo questo orientamento è più comodo per le aziende, almeno
finché le condizioni di mercato lo permettono. Attualmente il mercato sta
cambiando e le aziende stanno prestando sempre maggiore attenzione agli
orientamenti degli utilizzatori. Di qui il crescente impegno delle aziende
nell’“usabilità”, che rimane però ancora all’interno della tendenza a sfruttare la
propria posizione sul mercato per imporre certi prodotti al cliente. Secondo
6questo modo di vedere, della componente umana si tiene conto in un secondo
momento, come di qualcosa che viene dopo che il programma automatico abbia
sviluppato a pieno le proprie potenzialità. A questa filosofia di progettazione che
separa la componente tecnica del sistema dalla sua cornice sociale, si
contrappone con discreto successo un orientamento aperto alla cooperazione tra
progettista ed utilizzatore, detto anche participatory design (o approccio
scandinavo alla HCI). Esso cerca di produrre sistemi più rispondenti ai bisogni
degli utilizzatori facendo intervenire l’utilizzatore durante la progettazione del
sistema. Questa mossa produce un grande cambiamento sia nel design sia nella
figura del designer. Le tecnologie non possono essere realmente progettate
astraendo dalla loro cornice sociale. Se non viene compresa e valorizzata la
componente umana nei sistemi interattivi, la presenza dell’uomo in loro
costituisce una fonte di disturbo. La svalutazione del contributo umano è
correlata alla sopravvalutazione delle potenzialità dei sistemi “intelligenti” che ha
imperversato fino a pochi anni fa. Con questo nuovo approccio inizia ad
affacciarsi una HCI meno penalizzante per l’utilizzatore. Ora non solo vediamo
più realisticamente potenzialità e limiti degli artefatti informatici, ma anche
comprendiamo meglio i punti di forza della cognizione e della comunicazione
umane.
La responsabilità delle decisioni è dell’uomo o del motore inferenziale?
Chi, l’uomo o il programma, ha la responsabilità del sistema? È chiaro
che chi ha il controllo ha anche la responsabilità, o meglio, non ha senso
attribuire la responsabilità a chi non ha anche il controllo. L’inverso non è
sempre vero. Infatti si può tentare di controllare l’artefatto, attraverso il progetto
e il programma, senza assumere le responsabilità che ne conseguono. Chi
afferma che nei sistemi esperti esiste una “responsabilità del motore inferenziale
nell’usare e guidare la conoscenza per arrivare ad una decisione accettabile”,
parla di responsabilità in modo mistificatorio, come se il motore inferenziale
fosse un soggetto indipendente, capace di rispondere dei propri atti, sanzionabile
e punibile in base agli scopi che persegue, mentre in realtà è un prodotto
dell’attività del professionista informatico. È infatti il progettista che costruisce
il motore inferenziale, scegliendo per il sistema esperto il tipo di regole di
inferenza e il tipo di euristiche da adottare, e specialmente determinando il grado
di controllo che l’utilizzatore potrà avere sul loro funzionamento. I sistemi
7esperti sono composti da una serie di “basi di conoscenze” e da un “motore
inferenziale”, che è un programma capace di trarre conclusioni a partire da fatti o
ipotesi. Le metodologie di inferenza sono varie, e vanno dall’applicazione delle
logiche tradizionali (proposizionale e dei predicati) all’adozione di logiche di
ordine più elevato, di matrici di riduzione, di regole di inferenza idonee ad
affrontare particolari tipi di problemi. Inoltre tali sistemi utilizzano euristiche e
strategie per dirigere la loro ricerca nelle direzioni più promettenti e più rilevanti
ai fini che il sistema si propone di conseguire. È agevole vedere quante e quali
scelte il progettista si trovi ad operare nel predisporre il motore inferenziale, che
è tutto tranne che un puro dato tecnologico preconfezionato. Nei sistemi in cui la
persona non ha il controllo dei processi, la responsabilità si dissolve
nell’impersonalità dell’artefatto informatico, o chiama in causa chi ha costruito il
sistema. In questi casi, alla fine, viene chiamata a pagare la persona che
interagiva col sistema al momento del fatto, quando in realtà la persona dovrebbe
pagare solo per le decisioni di cui è responsabile. Se il sistema non è sotto il
controllo umano, l’utilizzatore non può essere chiamato in causa. Per questo
motivo è necessaria la massima chiarezza circa l’assegnazione del controllo alla
componente umana o a quella automatica.
Chi ha la responsabilità deve avere anche i mezzi per esercitarla. Non
dobbiamo dimenticare che le decisioni dei sistemi hanno effetti molto importanti.
Che una delega di responsabilità alla componente automatica dei sistemi, genera,
in ogni caso, vissuti di perdita di controllo umano sui processi diffusi e
socialmente rilevanti, i quali modellano le relazioni e le personalità nella vita
quotidiana. Quando una persona non ha responsabilità precise nel sistema, la
qualità della sua partecipazione decade nettamente; si verifica nell’operatore
un’alienazione rispetto al compito ed un deterioramento delle capacità di scelta e
di decisione personale. L’operatore in questi casi tende ad appoggiarsi sempre di
più al sistema informatico, che diventa il vero decisore. Se la responsabilità è del
sistema, cioè del progetto che lo ha prodotto e del programma che lo fa
funzionare, allora la responsabilità è del progettista e del programmatore. Molti
ingegneri cominciano a percepire i rischi insiti nel delegare ai sistemi quote di
decisionalità umana. I pericoli sono a due livelli: il primo consiste nel fatto che il
sistema prenda decisioni e controlli il processo senza consultare l’uomo. Il
secondo, più sottile, è che gli uomini obbediscano religiosamente al sistema e ne
eseguano gli ordini, senza comprendere le ragioni di ciò che viene chiesto loro di
8fare. In entrambi i casi dovrebbe essere chiara la differenza tra accettare i sistemi
come aiuti e l’accettarli come oracoli.
L’Usabilità: progettisti ed utilizzatori a confronto.
Dal punto di vista dell usabilit , un nuovo sistema dev essere visto come
una trasformazione dei compiti e delle pratiche attualmente in vigore. Se
vogliamo progettare in vista dell usabilit , dobbiamo prendere sul serio il fatto
che stiamo riprogettando delle attivit umane per renderle pi facili da svolgere
o pi efficaci nel conseguire i loro scopi Sviluppare un insieme di scenari di
interazione con l utilizzatore come parte della rappresentazione del progetto di
un sistema, pu rendere l usabilit un tema focale sin dai primi passi del
processo di progettazione (Carroll et al. 1994)
Questi principi oggi non vengono solo enunciati, ma, cosa più importante
nel caso dei progettisti, vengono anche realizzate. Possiamo immaginare lo
sforzo di adattamento che questo cambiamento di prospettiva ha richiesto ai
progettisti. Al centro dell’approccio che ispira il brano di Carroll citato, è la
consapevolezza della circolarità artefatti-compiti (di cui tratteremo più avanti),
dalla quale discende la comprensione della natura intrinsecamente sociale degli
artefatti. Per questo il progetto deve partire dall’uso a cui è destinato, se vuol
essere un buon progetto. Lo scenario-based design (sul quale torneremo a
proposito del contesto sociale), colloca il sistema nel suo contesto sociale
attraverso processi di sensmaking. L’apprendimento ha sempre bisogno di
sfruttare elementi contestuali che rendano significative le informazioni
disponibili. Partendo da queste acquisizioni recenti in materia di usabilità,
possiamo tornare indietro, negli anni ottanta, quando si assistette alla comparsa di
un nuovo tipo di figure, gli utenti non informatici. Questi ultimi, privi di qualsiasi
esperienza di computer, ponevano un formidabile problema alle capacità
d’adattamento e di immaginazione dei progettisti di software. Il problema era
tanto più difficile da risolvere se consideriamo che la comunità degli “informatici
professionisti” era ristretta, attenta al proprio status e gelosa delle proprie
competenze. Le prime risposte furono disastrose: manuali di centinaia di pagine,
perlopiù illeggibili. Il punto era che i progettisti non erano esperti di
comunicazione ed ancor meno di apprendimento. Mentre alla gente comune non
interessava fare gli esperti informatici, ma continuare a svolgere la propria
professione usando nuovi strumenti, pretendendo che questi fossero accessibili.
9Si scontravano due culture diverse. La questione della qualità della relazione
uomo-computer nasce, allora, con l’uscita delle applicazioni informatiche da i
laboratori di ricerca e il loro ingresso negli ambienti di vita e di lavoro quotidiano
della gente comune. Sarebbe riduttivo pensare che il problema dell’usabilità
nasca semplicemente dal fatto che gli utilizzatori non hanno, come in precedenza,
una preparazione informatica specifica. Se si trattasse solo di questo, sarebbe un
problema risolvibile attraverso semplici programmi di alfabetizzazione
informatica di massa. In realtà la questione è più complessa. Anzitutto i nuovi
utilizzatori, non solo non hanno una preparazione informatica, ma non intendono
averla e non ne hanno bisogno per svolgere la propria attività. Alcuni sono
utilizzatori “discrezionali”, nel senso che possono decidere se servirsi o meno
degli strumenti informatici. Altri sono utilizzatori che, per scelte aziendali in base
al ruolo che ricoprono, sono costretti ad usare sistemi informatici che sono parte
integrante del loro ambiente di lavoro. Questi ultimi possono incontrare difficoltà
nell’interazione col computer. Essi, quando i nuovi strumenti non offrono
sostanziali vantaggi nello svolgimento del lavoro, sono esposti agli sgradevoli
effetti della computer anxiety (Parasuraman e Igbaria 1990, Igbaria, Schiffman e
Wieckowski 1994). Gli studi di Lazarus (1991) sullo stress e sulle differenti
strategie di coping, forniscono un solido scenario per comprendere questi
processi sociali ed individuali.
Le modalità di introduzione del computer e le prime fasi di interazione,
sono le più critiche e le più decisive per lo sviluppo successivo della relazione,
costituendo una sorta di imprinting per l’utilizzatore. La coazione, sotto questo
profilo, è quanto di più lontano e di più controindicato si possa immaginare
rispetto allo sviluppo di un’accettabile e buona HCI. Diversamente si possono
sviluppare fenomeni di caduta d’interesse, stress cognitivo e delega di
responsabilità alle procedure automatiche. In questi casi la gente percepisce di
non avere il potere di incidere sugli ambienti informatici che devono utilizzare, e
quindi cercano di stare lontano il più possibile da ciò che li disturba. Ormai i
progettisti non sono più rappresentativi degli utilizzatori, ne segue che troppi
sistemi ideati per utenti inesperti, includono un’interfaccia gestibile solo con
grande difficoltà. Lo sviluppo tecnologico sfida costantemente l’operatore,
chiedendogli di impegnare sempre più risorse per controllare l’artefatto, oppure
di rinunciare ad un suo uso ottimale. La sfida è di rendere i programmi più
accessibili alla nuova utenza. Cosa non facile, ma certamente più produttiva della
sterile denigrazione dell’operatore umano.
10
Inizialmente, il problema dei nuovi utilizzatori era gravato dal pregiudizio che
questi fossero troppo limitati per il computer. L’uomo non era all’altezza del
computer, e questo non poteva che essere solo controproducente ai fini di una
buona progettazione. Solo in anni più recenti abbiamo assistito ad una
rivalutazione del funzionamento cognitivo umano. In un primo momento l’
“amichevolezza” (il friendly computer) venne intesa come semplificazione
nell’uso e nelle procedure d’accesso, per venire incontro alle limitazioni umane.
Ma tale semplificazione si rivelava un’arma a doppio taglio, poiché comportava
restrizioni severe nelle prestazioni del sistema. In un secondo momento, sulla
base di un’iniziale valorizzazione dell’utilizzatore, ci si avviò a vedere l’usabilità
non come una caratteristica del computer, ma come una qualità della relazione
uomo-computer. In questo momento, negli studi sull’usabilità, il parametro
chiave che veniva utilizzato era l’accettazione del sistema da parte
dell’utilizzatore, in base alla sua “utilità percepita” (Eason, 1984).Nonostante
l’apprezzabile intento, questa prospettiva risulta debole sia sul piano applicativo,
sia su quello teorico.
Da queste difficoltà si è giunti oggi ad una ridefinizione del concetto di
usabilità. Essa non è riducibile a caratteristiche superficiali dell’interfaccia, ma
chiama in causa la compatibilità cognitiva uomo-computer. “Un’interfaccia deve
essere non solo fisicamente compatibile con le caratteristiche della percezione e
dell’azione umane, ma deve essere anche cognitivamente compatibile con le
caratteristiche della comunicazione, della memoria e della soluzione dei problemi
umani” (Hammond et al. 1987). Il modello del sistema che l’utilizzatore si forma
ed il modello dell’utilizzatore che il progettista ha incorporato nel sistema
devono incontrarsi. Indubbiamente le interfacce grafiche hanno fatto molto per
sdrammatizzare il primo accesso al computer. La diffusione delle icone ha
permesso a tutti di maneggiare speditamente programmi complessi con il minimo
di vincolo procedurali. Tuttavia le icone non sono una panacea, in quanto più
che l’aspetto visivo, ciò che gioca una funzione di facilitazione è il fatto che le
icone consentano una manipolazione diretta dei menu. “L’icona non è un veicolo
privilegiato per trasmettere idee, piuttosto un catalizzatore capace di liberare
significato in presenza del contesto e della mente umana…da sola non ha
significato, ma ha senso solo in un particolare contesto” (Horton, 1994).
Torniamo, ancora una volta, al contesto come luogo del significato.
11
L’asimmetria nel dialogo uomo-computer
“L’interazione tra le persone e le macchine richiede sostanzialmente lo
stesso lavoro di interpretazione che caratterizza l’interazione tra le persone, ma
con risorse molto differenti a disposizione dei partecipanti. Le persone fanno uso
di un ricco repertorio di informazioni linguistiche, non verbali e inferenziali, per
cercare il senso delle azioni e degli eventi, per rendere comprensibili le loro
azioni, e per gestire le difficoltà di capirsi che inevitabilmente sorgono. Le
macchine di oggi invece ricorrono ad un assortimento fisso di input sensoriali
che corrispondono a un insieme predeterminato di stati interni e di risposte. Ne
risulta un’asimmetria che limita seriamente l’ampiezza dell’interazione tra
persone e macchine” (Suchman 1987).
L’asimmetria tra uomo e sistemi computerizzati nella disponibilità di risorse
inferenziali, pone seri limiti al dialogo, che si fonda di norma su una serie di
mutual beliefs: una persona risponde in un certo modo perché crede, non solo che
l’altro voglia sapere una certa cosa, ma anche che sappia già altre cose, che ne
creda vere alcune e non altre, ecc. La conversazione si svolge sullo sfondo di una
serie di assunzioni reciproche su che cosa l’altro voglia, sappia, intenda dire, ecc.
(Galimberti,1994). Nella misura in cui i sistemi prendono una qualche iniziativa
nel dialogo, e con questo si assumono una quota di responsabilità sul suo
andamento, essi devono disporre di un qualche modello dell’utente che consenta
loro di inferire che cosa il loro interlocutore voglia, sappia, intenda dire. Questa
considerazione ci introduce alla dimensione sociale dell’interazione uomo-
computer, che costituisce un aspetto non marginale del dialogo che viene
instaurato.
L’analisi della conversazione nei contesti interpersonali può contribuire a
chiarire potenzialità e limiti del dialogo tra uomo e artefatti informatici. Il fatto
che usiamo, nello scambio uomo-computer, espressioni come dialogo,
comunicazione, interazione – chiaramente mutuate dall’ambito delle relazioni
interpersonali – mostra che esso implica comunque un aspetto sociale, anche se
l’asimmetria uomo-computer limita drasticamente le possibilità di intesa rispetto
a ciò che avviene nella conversazione tra persone. Le difficoltà maggiori
dipendono dalle restrizioni dell’artefatto informatico. Nella vita quotidiana il
dialogo funziona non perché le mappe cognitive delle persone siano state
precedentemente sintonizzate, ma perché i partecipanti hanno capacità che
12
permettono loro di superare le discrepanze che esistono. La comunicazione è un
processo capace di contenere in sé e di gestire, all’interno di una cornice
interattivo-sociale condivisa, differenze cognitive e motivazionali anche
grandissime. E’ la presenza di questa dimensione sociale, e il suo
riconoscimento da parte dei dialoganti, che consente di condurre a buon fine
l’interazione, anche quando i riferimenti cognitivi sono ridotti. L’interazione
sociale non è un risultato, ma un percorso in mezzo alle difficoltà, in cui la
caduta della comunicazione o una sequenza difettosa sono piuttosto la regola che
l’eccezione.
Finora i maggiori sforzi per migliorare il dialogo uomo-computer sono
stati indirizzati verso lo sviluppo delle basi di conoscenza dei sistemi, per
aumentarne le capacità cognitive così da mettere il computer in condizione di
incontrare meglio la complessità del pensiero umano. E’ utile considerare anche
la comunicazione come processo sociale, che crea intesa cognitiva più di quanto
la presupponga. Sembra opportuno investire risorse non nello scongiurare
l’inevitabile, ma nel favorire un pronto recupero dell’errore, vale a dire un
approccio che cercasse di dotare le macchine di una competenza nel riconoscere
le cadute di comunicazione e cercare di porvi rimedio. Per esempio, chi non ha
mai dovuto digitare tre o quattro volte un indirizzo o un comando perché il
programma non l’aveva riconosciuto a causa di un errore di battitura di una
lettera sulla tastiera?
Il linguaggio non è il principale ostacolo ad un uso facile ed efficace di
complessi sistemi artificiali. Le difficoltà di comunicazione uomo-computer
hanno radici più profonde, essendo di natura concettuale. Esistono visioni
diverse sulla natura della differenza che separa l’uomo dal computer. Pylyshyn
(1984) colloca uomo e computer in un’unica classe di conoscitori, poiché
entrambi capaci di manipolare simboli. Altri studiosi, come Dreyfus (1985) e
Searle (1988), contestano vivacemente quest’impostazione, negando che il
computer svolga veramente un’attività cognitiva e che possa realmente dialogare
con le persone. Il computer non comprende proprio nulla. Usa sì dei simboli, ma
non ne possiede l’interpretazione, e tanto meno la decide. A rigore i simboli sono
tali per chi li riferisce a qualcosa. Il computer non è in grado di operare alcun
riferimento, alcuna interpretazione dei simboli che usa. Pertanto non lavora
propriamente sui simboli, ma manipola dei segnali fisici che sono simboli solo
per le persone. Solo gli esseri umani comprendono veramente. In quest’ottica gli
artefatti informatici sono solo dei supporti, non sono dei soggetti. E’ utile tenere
13
presente queste riflessioni, non al fine di considerare liquidata la questione
dell’interazione sociale uomo-computer, ma per evitare antropomorfismi e
attribuzioni semplicistiche e incontrollate di capacità umane ai sistemi
automatici. In sostanza l’uomo incontra discrete difficoltà nel costruire un
modello adeguato del computer, ma il computer si trova di fronte ostacoli ancora
maggiori. Esiste un divario enorme tra mole di conoscenze che utilizza il
computer e quella di cui si servono le persone: “finché non si troverà il modo di
organizzare e utilizzare la gamma di conoscenze sul mondo di cui l’uomo
dispone, i sistemi automatici saranno capaci di capire solo una piccola quota
delle informazioni che ricevono, fondamentalmente quella che rientra
nell’ambito in cui sono esperti” (Hayes e Reddy, 1983). Questo inconveniente
potrebbe essere ovviate in parte da un’accettabile simulazione delle capacità
conversazionali umane; il sistema eviterà di rispondere alle domande che non
comprende e cercherà di portare il dialogo sul terreno su cui si trova a suo agio.
La morale è che, ad oggi, le persone usano i computer ma non possono dialogare
con loro, perché la disparità di risorse inferenziali a disposizione dell’uomo e del
computer crea “un’asimmetria permanente nell’interazione tra persone e
macchine, dovuta alla disparità del loro accesso relativo alle contingenze,
momento per momento, che sono proprie dell’azione situata” (Suchman 1987).
Nel dialogo uomo-computer i partecipanti hanno notevoli difficoltà: l’uomo può
avere difficoltà nel rappresentarsi in forme adeguate il funzionamento del
computer ed ha bisogno di essere guidato da modelli mentali di differenti tipi, ma
il computer non sembra nemmeno che sia consapevole di stare interagendo.
Il recupero dell’errore
Nella conversazione tra persone operano alcuni meccanismi che
favoriscono il recupero tempestivo dell’errore. Il primo è l’alternanza del turno
nel prendere la parola, che consente di rimediare rapidamente a cadute della
comunicazione. Un altro meccanismo efficace è dato dall’ordine con cui vengono
introdotte le sequenze di recupero dell’errore. Esse sono di quattro tipi:
• iniziate ed effettuate dal parlante
• iniziate dall’interlocutore ed effettuate dal parlante
• iniziate dal parlante ed effettuate dall’interlocutore
• iniziate ed effettuate dall’interlocutore
14
Un sistema di preferenze regola il passaggio dall’uno all’altro tipo di recupero,
seguendo un ordine per cui il secondo tipo di correzione può scattare solo se non
è stato utilizzato il primo, il terzo se non è stato utilizzato il secondo, e così via.
E’ possibile pensare a qualcosa di simile nella HCI, per recuperare prontamente
le cadute nella comunicazione? I sistemi interattivi moderni offrono una gamma
di accorgimenti per creare un dialogo effettivamente funzionante tra utente e
sistema, anche se le risorse inferenziali del sistema rimangono nettamente al di
sotto di quelle umane. Su queste basi il sistema può dare consigli in modo non
intrusivo, oppure suggerire correzioni.
Flessibilità delle strategie umane nel problem solving
Sia la ricerca psicologica che la Computer Science sono arrivate
recentemente alla rivalutazione del ragionamento quotidiano e del senso comune,
quest’ultimo inteso l’insieme di conoscenze sul mondo che gli esseri umani
usano per compiere inferenze e per muoversi con successo nel mutevole
ambiente sociale e fisico che li circonda. I processi cognitivi umani,
precedentemente considerati approssimativi, inaccurati, e fonte di molteplici
errori, si sono rivelati, grazie anche alle simulazioni al computer che ne hanno
dimostrato la complessità, dotati di grande sottigliezza e flessibilità. Lo stesso
Minsky (1994), padre dell’Intelligenza Artificiale, afferma “perché una persona
non si blocca continuamente? Perché ha una gran varietà di modi diversi con cui
gestire le situazioni. Se un metodo non funziona ne prova un altro. Se
un’informazione non è disponibile, ricorre ad un’analogia con qualche altra cosa.
Nessuna macchina ha ancora quello che chiamiamo ‘senso comune’, ma solo
expertise specialistiche circoscritte”. Ciò che è stato maggiormente apprezzato
nel ragionamento quotidiano è la sua capacità di gestire in modo soddisfacente
situazioni male strutturate, o in cui i problemi non sono ben definiti o mancano
informazioni, o le stesse sono contraddittorie. In tali contesti l’uomo si muove
bene, e la sua capacità di prendere decisioni in situazioni impreviste rimane
ineguagliata da qualsiasi sistema automatico. Da qui l’idea di migliorare i sistemi
informatici attribuendo loro alcune caratteristiche delle caratteristiche del
ragionamento quotidiano. Questo compito si è rivelato quanto mai ostico. A
differenza del computer, l'uomo nel ragionamento quotidiano è abbastanza
imprevedibile. Egli “cambia algoritmi, strategie, euristiche e strutture di controllo
per adeguarsi in modo ottimale alla situazione” (Richter 1987), e riesce ad
15
orientarsi anche quando l’informazione disponibile è incompleta, vaga, falsa e
persino contraddittoria. Il ragionamento quotidiano non è più il parente povero
del ragionamento formale e della logica dei predicati, ma appare, per molti versi,
più forte e più flessibile, disponendo di un vastissimo repertorio di conoscenze,
implicite ed esplicite, sul mondo. Le conoscenze incorporate nel senso comune
orientano l’uomo nel fare le inferenze adatte nelle varie situazioni di vita
quotidiana, suggerendogli, non le soluzioni più corrette formalmente, quanto
quelle più promettenti in termini di possiblità di successo nel conseguimento
degli obiettivi. Se si vogliono avere sistemi “intelligenti”, occorre dotarli della
capacità di selezionare delle linee di inferenza rilevanti rispetto agli obiettivi, ma
non è facile dotare i sistemi automatici di senso comune.
Sono in corso trasformazioni di grande portata che rappresentano l’inizio
del mutamento del paradigma scientifico dominante sui modelli psicologici del
ragionamento. Da più parti viene sempre più contestato il privilegio del pensiero
formale e la conseguente assunzione dell’esistenza di una logica mentale
generale. Si concorda come le procedure di ragionamento non siano solo formali
ma siano in gran parte influenzate dal loro contenuto, ovvero dal contesto del
problema. Bara, Carassa e Geminiani (1989) affermano che “il pensiero non è
costituito da una serie di procedure astratte, indipendenti dal dominio, ma da un
insieme di modelli specifici per l’area di applicazione, che utilizzano processi di
elaborazione caratteristici per quel tipo di modello”. La ricerca psicologica
corrente mostra allora di voler abbandonare l’idea della logica mentale, per
proporre un modello concettuale alternativo, attraverso il ricorso ai modelli
mentali. Essi sono “strutture di rappresentazioni analogiche, che riproducono gli
aspetti più rilevanti di una situazione e che vengono elaborate secondo processi
che sono legati alla struttura stessa del modello” (Bara, 1989).
Il ricorso ai modelli mentali consente di spiegare in modo soddisfacente
non solo la correttezza procedurale, ma specialmente la capacità di giungere a
conclusioni pertinenti, rilevanti ed appropriate al contesto del compito,
caratteristica questa che è propria del ragionamento quotidiano. Il vantaggio
offerto dai modelli mentali è che essi prevedono un’analogia tra la struttura dei
dati e la loro interpretazione. I modelli mentali sono “rappresentazioni
semantiche di possibili situazioni descritte da espressioni verbali” (Johnson-
Laird, 1983; ripresa con Bara, 1984 e con Byrne, Legrenzi e Girotto, 1993).
Poiché nel modello mentale l’informazione viene rappresentata nella struttura
stessa del modello, non è possibile la scomposizione di un modello in unità
16
semplici più piccole (Bara, Carassa, Geminiani 1989). Nel ragionamento
quotidiano, dopo un primo momento di comprensione delle premesse ed un
secondo momento di formulazione di una possibile conclusione, sia avvia la fase
di verifica e falsificazione della conclusione attraverso la ricerca di controesempi.
A questo scopo, quando il contesto del problema è semplice e deterministico, è
sufficiente l’intervento della logica formale (Johnson-Laird 1993 e Bara 1995),
ma quando il problema consente varie soluzioni, come nelle situazioni di vita
quotidiana, allora bisogna utilizzare l’immaginazione per reperire le informazioni
necessarie e usarle nella costruzione di un modello alternativo (Johnson-Laird
1989). L’emergere di un nuovo paradigma interpretativo del ragionamento
quotidiano, da un lato valorizza le strategie ingenue degli utilizzatori (che non
possono più essere considerati alla stregua di incapaci e scadenti ragionatori, dai
progettisti di sistemi), dall’altro offre alla Computer Science modelli stimolanti
per la costruzione di sistemi capaci di adattarsi in modo flessibile alle situazioni.
Per comprendere e padroneggiare l’innovazione portata nel nostro ambiente e in
noi stessi dagli strumenti informatici, abbiamo bisogno non solo di vedere gli
artefatti per quello che sono, e cioè potenti fattori di cambiamento dei compiti e
delle interazioni, ma anche di disporre di modelli dell’uomo e dell’utilizzatore
adeguati alla complessità dell’interazione uomo-computer. Non servono a molto
nell’HCI le ipotesi che svalutano indebitamente il funzionamento cognitivo e
relazionale umano.
Modelli mentali degli utilizzatori e modello concettuale del progettista
Quanto più le situazioni sono nuove, senza precedenti nell’esperienza
delle persone, tanto più queste hanno bisogno di qualche forma di conoscenza
che le orienti. Nel caso dell’utilizzatore inesperto di fronte al computer, un
modello mentale gli può permettere di simulare mentalmente, e quindi di
anticipare, il risultato delle operazioni e di vedere se poi quello che accade in
realtà è proprio quello che egli si aspettava. Se non lo è vuol dire che il modello
che si era costruito non va bene, che va cambiato. E’ così che si impara,
specialmente dall’errore. L’aspetto più interessante è la funzione orientativa dei
modelli mentali, il cui discorso, grazie al lavoro di Johnson-Laird e colleghi, è
seguito con grande interesse dalla scienza cognitiva. E’ necessario comprendere
il modo in cui le persone vedono il sistema, se si vogliono costruire interfacce
che consentano alle persone di esercitare un effettivo controllo e di assumersene
17
la responsabilità. Il punto di vista dell’utilizzatore non è l’unico, né il più
autorevole, ma è un riferimento che bisogna tener presente. Esistono diversi altri
punti di vista sui sistemi, come diverse sono le figure socio-professionali
interessate alla loro costruzione. Possiamo citare allora oltre alla visione del
sistema dell’utente (modello dell’utilizzatore), anche la descrizione del sistema
del progettista (rappresentazione concettuale), l’immagine del sistema data
dall’interfaccia attraverso comandi e funzioni, il modello che lo psicologo si
forma della rappresentazione dell’utilizzatore.
Per migliorare l’interazione uomo-computer è necessario coordinare i vari
modi di vedere il sistema, originariamente assai differenti, ma tutti legittimi. E’
necessario ridurre la discrepanza tra i vari modelli, se si vuole che gli utilizzatori
comprendano i sistemi complessi. Il compito dell’ergonomia cognitiva consiste
proprio nel far incontrare i modelli mentali dell’utilizzatore e le rappresentazioni
concettuali del progettista, con l’aiuto delle conoscenze di psicologi cognitivi e
psicologi sociali. Il punto di partenza dell’utilizzatore inesperto è un vuoto di
significato, un disorientamento che dipende dalla difficoltà di trovare, nella
propria esperienza precedente, chiavi adatte per comprendere il funzionamento
dell’artefatto informatico. Alcuni studiosi parlano di “opacità” del computer per
l’utilizzatore (Brown 1986), che fa da riscontro all’opacità della persona per il
computer, di cui si è già detto a proposito dell’asimmetria nella comunicazione
sociale uomo-computer. L’opacità dipende anzitutto da una mancanza di stimoli
rilevabili agevolmente e interpretabili per l’osservatore. Il processo naturale di
produzione di significato entra in corto circuito perché le configurazioni fisiche,
che in molti sistemi fisici contribuiscono a mostrare il funzionamento del
sistema, sono assai ridotte nei sistemi informatici.
La struttura visibile di tali sistemi non lascia vedere il loro modo di
operare, a differenza di quanto accade nei sistemi fisici. Tuttavia, nonostante le
difficoltà che possono sorgere nell’interazione tra l’utilizzatore inesperto ed il
computer, le persone fronteggiano la situazione creandosi un quadro di
riferimento sufficiente a dirigere le prime condotte esplorative. La funzione
principale di questi quadri di riferimento non è quella di fornire indicazioni
esatte, ma quella di salvare dal disorientamento fornendo alcune ipotesi
provvisorie ma praticabili. “I modelli mentali possono trasformare il completo
panico in un accettabile livello di competenza e di sicurezza” (Landsdale 1985).
Va ammesso che i modelli mentali sono di norma incompleti, in parte sbagliati e
diversi da persona a persona, poiché ogni individuo elabora proprie
18
rappresentazioni, dipendenti dal proprio stile cognitivo e dalle proprie esperienze.
Tuttavia essi sono strumenti necessari al fine dell’orientamento dell’utilizzatore.
Anche Carroll e Olson (1987) riconoscono che i modelli che gli utilizzatori si
costruiscono sono “incompleti, incoerenti, instabili nel tempo, ultrasemplificati e
spesso pieni di superstizione”, ma ritengono che anche così siano utili
all’apprendimento dell’interazione col computer. Anzi, proprio le manchevolezze
del modello ed i suoi errori sono capaci di stimolare nelle persone comportamenti
esplorativi intelligenti, dal momento che forniscono indicazioni e previsioni che
vengono pi smentite dal corso degli eventi. I modelli mentali dovranno essere
giudicati non “giusti” o “sbagliati” in astratto e in generale, ma “adeguati” o
“inadeguati” nel concreto dei casi particolari, rispetto a contesti che mutano di
volta in volta. Secondo Tauber (1988) “i modelli esistono per manipolare,
programmare, costruire, predire, spiegare; e ciascuno di questi differenti scopi
può richiedere un’aspetto diverso del modello”. La caratteristica saliente del
modello mentale dell’utilizzatore è quella di catturare il funzionamento globale
del sistema. Payne (1991) nota come nel campo dell’intelligenza artificiale (IA) i
modelli mentali sono sempre stati considerati come produzioni individuali, e si
chiede se non sia il caso di considerare anche l’influenza delle “rappresentazioni
sociali”, intese secondo l’accezione di Moscovici, come rappresentazioni
collettive utili per maneggiare, nella vita quotidiana, concezioni nuove.
Tre differenti tipi di rappresentazioni del sistema
Oltre ai modelli mentali, possiamo distinguere anche altri tipi di
rappresentazioni del sistema da parte dell’utilizzatore. Uno è quello delle
semplici sequenze di azioni. Questo sistema elementare non ha bisogno di regole
generali o ipotesi sul funzionamento del sistema. Sono sufficienti le forme di
apprendimento basate su pure memorizzazioni di associazioni tra azioni da
compiere ed effetto dei comandi. Per esempio si ricorre a questo tipo di
rappresentazione quando l’utente inesperto vuole imparare funzioni e comandi
nuovi. Tale modello però consente operazioni a livello così modesto che a stento
possono essere considerate significative nell’interazione tra persona e computer.
Un terzo sistema è rappresentato dalla conoscenza dei metodi richiesti per
svolgere determinati compiti. Questa rappresentazione è però tipica degli
utilizzatori esperti e comporta la possibilità per la persona di rappresentarsi
percorsi diversi per raggiungere un dato scopo, sottintendendo una certa
19
conoscenza del sistema alla base. Le rappresentazioni basate sui modelli mentali,
sono quelle di livello più elevato, perché mirano a cogliere “come funziona il
sistema, quali sono i suoi componenti, come sono collegati, quali sono i processi
interni che spiegano le operazioni della macchina e del programma” (Carroll e
Olson 1987). I modelli sono tanto più necessari quanto più l’ambiente del
compito è inusuale: “quanto più la situazione è nuova, tanto più bisogna pensare,
nel senso di ricorrere a spiegazioni globali e di alto livello” (Manktelow e Jones
1987). I modelli mentali sono spiegazioni causali, e questa è la loro forza. Dalla
letteratura corrente, emerge come la corrispondenza tra modelli mentali e sistema
possa assumere varie forme, come per esempio quella di surrogato, di metafora,
di glass box e di network.
Il surrogato fornisce le stesse risposte del sistema, ma non sottintende un
isomorfismo quanto ai processi che producono la risposta. Esso è soltanto “una
buona, completa analogia, che permette all’utilizzatore di costruire un
comportamento appropriato in una situazione nuova, ma non lo aiuta a capire
perché il sistema si comporti in quel particolare modo (Olson 1987). Sembra però
dubbio che utilizzatori inesperti utilizzino questo tipo di modello mentale, a
causa sia della difficoltà di applicazione che per il carattere della spiegazione che
fornisce, la quale si limita alle risposte e non considera il funzionamento del
sistema.
La metafora viene invece usata più frequentemente. Essa istituisce una
corrispondenza tra modello e sistema che si basa sull’ipotesi di un funzionamento
interno analogo. Secondo Minsky (1989) la metafora è efficace in quanto “se
qualcosa ci sembra totalmente nuovo in uno dei nostri mondi descrittivi, è
possibile che, tradotto nel linguaggio di un altro mondo, incominci a somigliare a
qualcosa che già conosciamo”. La capacità della metafora di offrire orientamento
in un territorio sconosciuto o ambiguo è stata sottolineata particolarmente anche
da Lakoff (1987). La ricerca sperimentale ha inoltre evidenziato una correlazione
positiva tra applicazione di metafore e aspetti della prestazione, sia qualitativi
(correttezza delle risposte) che quantitativi (velocità di esecuzione dei compiti). Il
ricorso alla metafora espone l’utilizzatore inesperto al rischio di commettere
errori dovuti al fatto che egli non controlla con precisione la metafora, e ne
ignora il corretto ambito di applicazione. Può allora accadere che la persona
20
perda il contatto con l’aspetto rappresentazionale del modello senza
accorgersene, dimenticando che il modello non è la realtà.
Il modello ‘glass box’ di Carroll e Olson, invece, unisce aspetti del surrogato e
della metafora. Utilizzando più metafore contemporaneamente, il vantaggio di
questo modello consiste nella maggiore capacità esplicativa. Non sempre è però
possibile combinare in modo armonico e coerente metafore diverse, senza creare
confusione all’utilizzatore.
Il modello mentale tipo network, invece, non intende fornire spiegazioni generali
sul funzionamento interno del sistema, ma semplicemente indicare ciò che
accade nel sistema in risposta a ciascuna azione dell’utilizzatore. I modelli
network si mantengono essenzialmente su un piano descrittivo.
Nel loro insieme comunque, a differenza di rappresentazioni più analitiche
quali sequenze e metodi, i modelli mentali permettono all’utilizzatore di “provare
mentalmente le azioni prima di sceglierne una da eseguire” (Carroll e Olson
1987). In tal modo i modelli mentali consentono l’esplorazione dello spazio del
problema in molteplici direzioni. I processi cognitivi fondamentali che
sostengono i modelli mentali sono, in essenza, l’analogia e la metafora. La
formazione di analogie, comporta il riconoscimento di strutture basate non sulle
proprietà dei loro elementi, ma sulle relazioni fra tali elementi. L’analogia nasce
dall’identificazione di un obbiettivo comune tra la situazione di partenza e la
situazione-target, nel contesto di un problema da risolvere. Collegare l’analogia
al problerm solving, ci aiuta a comprendere la funzione dei modelli mentali. Il
sistema informatico e le sue funzioni, vengono spiegati dalle persone
riconducendoli a sistemi precedentemente noti, a patto che le persone riescano ad
identificare scopi comuni al sistema noto e al sistema informatico. Non è
pensabile la padronanza di un artefatto senza la possibilità di orientarlo verso gli
scopi dell’utilizzatore. L’analogia suggerisce all’utilizzatore un’idea degli
obbiettivi che egli può assegnare al sistema, ed in tal modo gli rende possibile il
controllo dell’artefatto. Le teorie sulla metafora sviluppano le considerazioni
circa la funzione dell’analogia, e conducono ad un’analisi dei modelli mentali ad
un livello sempre più qualitativo, che difficilmente standardizzano le strategie
d’intervento dell’utilizzatore.