1. INTRODUZIONE
2
In particolare, questa ricerca è stata condotta nell’ambito dello sviluppo di un progetto
in corso, HIPS-Hyper Interaction Within Physical Space, finalizzato a sostenere la visita
di musei e città d’arte attraverso uno strumento elettronico che intende, appunto, adattarsi
flessibilmente agli utenti e consentire loro la fruizione ottimale di uno spazio fisico così
complesso ed informativamente ricco.
1.1 Premessa: scopo del lavoro, tematiche principali e metodologie applicate.
Scopo fondamentale di questo lavoro è, come abbiamo accennato, proporre un
approccio alla progettazione di un sistema distribuito, contestualizzato e flessibile che
non ricostruisca o simuli, ma si sovrapponga ad uno spazio reale e che sostenga il
coinvolgimento dell’utente durante la visita di un museo, e presentare,
conseguentemente, una soluzione di design che soddisfi tali requisiti. In particolare, verrà
proposto un modello dello spazio fisico che si integri con la esistente modellizzazione
dell’attività e che permetta di tenere conto del contesto di esecuzione e delle sue
peculiarità strutturali nella progettazione del comportamento del sistema. Sulla base di
tale modello e dell’analisi dei dati raccolti sul campo, svilupperemo un mock-up che
presenti la soluzione progettuale da noi proposta per un aspetto dell’interfaccia di questo
strumento, cioè l’output acustico. Verranno, inoltre, analizzate e rielaborate le
metodologie esistenti in vista della valutazione di un tale artefatto, e verrà proposto per
essa un nuovo framework concettuale che permetta di tenere in considerazione sia lo
spazio fisico che lo spazio informativo.
In una breve introduzione (cfr. par.1.2) illustrerò le caratteristiche del progetto in
questione, e quindi proporrò esempi dei sistemi “storici” che hanno tentato di realizzare
una sovrapposizione tra lo spazio virtuale dell’informazione e lo spazio fisico cui si
riferisce, prestando particolare attenzione alle applicazioni realizzate in ambito museale.
Nell’affrontare successivamente varie tematiche di design, farò riferimento alla
esperienza di progettazione di HIPS (tuttora in corso) che ho seguito personalmente
all’interno del team del Laboratorio Multimediale di Ateneo: verranno esposte le
soluzioni effettivamente adottate e le proposte ancora in fase di analisi da parte del
Consorzio europeo, evidenziando i risultati ed i limiti finora incontrati. Sulla base di esse,
si cercherà quindi di delineare un approccio meno tradizionale al design di uno strumento
dotato di simili caratteristiche, con particolare riferimento alle proposte già avanzate da
Gianni Tozzi nella sua tesi di laurea “Esplorare il Museo”, sviluppata anch’essa
1. INTRODUZIONE
3
all’interno del gruppo di lavoro su HIPS (Tozzi, 1998) e mirata alla proposta di un
sistema di user modeling flessibile per tale sistema.
• In primo luogo (cfr. Cap.2) ci si soffermerà pertanto sulle metodologie di raccolta dati
e modellizzazione dell’utente, e sulle tecniche di user modeling adottate per consentire
ad HIPS un comportamento adattivo. I due differenti moduli che consentono la
costruzione dello user model in HIPS verranno messi a confronto, così come i diversi
approcci metodologici su cui essi si basano e le conseguenti implicazioni sul problema
della modellizzazione del contesto. Verranno, quindi, illustrati quei requisiti emersi
dalle osservazioni sul campo ed indicativi delle effettive necessità che uno strumento
così concettualmente complesso deve soddisfare.
• Verranno quindi esposte le principali problematiche di design emerse dallo studio
degli utenti: innanzitutto la necessità di modellizzare il luogo di fruizione (nel nostro
caso, la Sala del Mappamondo) come elemento determinante il comportamento del
visitatore, quindi la verifica di come l’interazione si distribuisca nelle varie zone dello
spazio e la conseguente proposta di un modello dello spazio fisico basato
sull’estensione del concetto di affordance (cfr. Cap.3); in particolare, tale estensione
del concetto di affordance (Gibson, 1977) e la sua applicazione al nostro contesto di
studio ha rivelato interessanti correlazioni tra la progettazione di sistemi informativi e
la progettazione architettonica degli edifici che li conterranno materialmente.
• Riconosciute le particolarità nel processo di interazione utente-strumento, verrà
analizzato il processo di costruzione del modello mentale del sistema da parte
dell’utente (lo user mental model), che non potrà basarsi sulla sola interfaccia grafica,
ma piuttosto sullo spazio fisico stesso in qualità di modello per la progettazione
dell’intera immagine del sistema (cfr. Cap.4).
Sono stati introdotti ed analizzati vari scenari (Carroll, 1995) relativi a questi
argomenti; sono state, inoltre, condotte sessioni di osservazioni etnografiche sul campo,
da cui i temi di entrambi i capitoli traggono spunti di discussione, riguardo sia le
implicazioni teoriche sia le indicazioni pratiche per il design. Sono, appunto, emersi
nuovi problemi di progettazione, tra i quali: assicurare la consistenza del sistema
attraverso la totalità del suo comportamento, implementarne i meccanismi di adattività,
sviluppare adeguatamente l’interfaccia audio in modo da ottenere una sovrapposizione
ottimale con lo spazio fisico, sviluppare infine soluzioni di design per la creazione del
coinvolgimento fisico ed emotivo dell’utente nella fruizione (cfr. Cap.5). Verranno, in
particolare, proposte varie soluzioni di design per l’interfaccia audio sulla base del
1. INTRODUZIONE
4
modello dello spazio e delle sue affordances, e, come già accennato, una prima
prototipazione di essa attraverso un mock-up interattivo.
Verrà, infine, presentata la questione cruciale della valutazione di un sistema
caratterizzato da un simile comportamento (cfr. Cap.6): saranno esplorate le possibilità di
applicazione delle metodologie tradizionali per quanto riguarda gli aspetti funzionali e di
interazione con l’interfaccia del PDA, e soprattutto la proposizione di un nuovo
framework, su cui progettare e basare le sessioni di valutazione dello strumento nello
spazio da cui dipende il suo comportamento complessivo, individuando i punti-chiave da
testare per garantire l’usabilità del sistema e la sua integrazione nel contesto.
Oltre alla proposta di un nuovo framework teorico, verrà presentata una serie di test
condotti per valutare il prototipo dell’interfaccia audio con particolare riferimento alla
sua efficacia riguardo aspetti quali memorability, capacità di suscitare
attenzione/interesse, nonché alla percezione delle sue caratteristiche strutturali e
contenutistiche da parte dei visitatori. Analizzando i dati emersi dai test, cercheremo,
inoltre, di individuare una prima serie di linee-guida per il design iterativo dell’interfaccia
audio.
A conclusione del lavoro, verranno avanzate proposte per gli sviluppi successivi nel
design (in particolare, per il raffinamento delle euristiche di progettazione) e per la
successiva fase della valutazione, oltre ad una sintesi dei risultati emersi nel corso della
ricerca.
Mi sembra fondamentale sottolineare come l’intero approccio al lavoro condotto si
basi sulla visione del museo non tanto come “contesto” per l’impiego dello strumento,
ma piuttosto come vera e propria interfaccia in cui viene esercitata l’interazione tra reale
e virtuale:
«(...) possiamo dire che l’interfaccia è il luogo dell’interazione. O ancora più
precisamente è nell’interfaccia che hanno luogo le interazioni. (...) il fruitore
ne è il visitatore, o meglio proprio l’abitante, e di suo ci mette le proprie
finalità e le proprie energie, la propria attività.» (Anceschi, 1992, pag. 40).
1. INTRODUZIONE
5
1.2 Il progetto HIPS.
HIPS, Hyper Interaction within Physical Space, è un progetto di tre anni finanziato
dalla Commissione Europea nell’ambito di I-Cube (I³- Intelligent Information Interfaces),
un’iniziativa che promuove lo sviluppo di metodologie centrate sull’utente (Norman e
Draper, 1986) per il design di strumenti che supportino le persone nella quotidianità e
nell’intrattenimento. L’obiettivo primario di HIPS è la ricerca e lo sviluppo di nuove
modalità di interazione nel contesto di una navigazione simultanea di uno spazio fisico e
di uno spazio virtuale di informazione, al fine di ottenere una completa sovrapposizione
tra di essi
1
. Lo sviluppo del progetto è affidato ad un Consorzio europeo coordinato
dall’Università di Siena e costituito da: Alcatel-Siette (Italia), CB&J (Francia), GMD
(Germania), IRST-ITC (Italia), Sintef (Norvegia), University College Dublin (Irlanda),
University of Edinburgh (Gran Bretagna).
Come già accennato, l’ambito di applicazione attualmente studiato è quello della visita
ai musei ed alle città d’arte. Lo strumento consiste in un PDA (cioè un computer
palmare) che ha la funzione di guida elettronica per i visitatori di questi luoghi d’arte e
che, oltre a guidarli nei loro spostamenti, è in grado di fornire loro, attraverso degli
auricolari, un’informazione flessibile e personalizzata riguardo le opere e gli ambienti
che stanno osservando.
Il contesto per cui è stato approntato il primo prototipo del sistema è il Museo Civico
di Siena, in particolare le due famose sale “del Mappamondo” e “della Pace”
2
. Si tratta
certamente di un ambiente museale insolito, in cui non ci troviamo di fronte ad un
allestimento sequenziale di quadri o sculture: nel nostro caso, le stanze stesse
costituiscono le opere da ammirare, e gli affreschi e gli altri oggetti d’arte in esse
contenuti debbono essere considerati elementi completamente incorporati al tessuto
architettonico e decorativo del Palazzo Pubblico di Siena. Risulta evidente come questo
ambiente rappresenti il terreno ideale per la ricerca di una complementarietà e
sovrapposizione di contenuti tra lo spazio fisico e quello informativo.
1.2.1 L’architettura del sistema.
Il funzionamento di HIPS si basa su un’architettura di tipo client/server. Gli utenti sono
dotati di un computer palmare (PDA) con input via penna elettronica su cui viene
visualizzata l’interfaccia grafica, e di auricolari; il server centrale è in grado di rilevare la
1
http://www.i3net.org; http://www.ltt.dii.unisi.it/progetti/HIPS.
1. INTRODUZIONE
6
posizione di un individuo nella stanza grazie ad un sistema di localizzazione tramite
sensori ad infrarosso che identificano il punto di presenza fisica e consentono la
ricostruzione del movimento compiuto
3
.
Il server è costituito da quattro moduli principali:
1. CGI Interface: l’interfaccia CGI (Common Gateway Interface) è il punto di ingresso
nel server per le richieste provenienti dal PDA; esse (le cosiddette CGI Calls)
vengono, quindi inoltrate, nel Macronode Server. Le risposte da parte di quest’ultimo
sono composte e comunicate in una forma leggibile al browser.
2. Macronode Server: il Macronode Server è il modulo che costruisce le presentazioni
adattive. Riceve gli input dal PDA e comprende da essi quale sia il tipo di risposta
richiesto (grazie al cosiddetto Input Analyser). La risposta è quindi inoltrata alla CGI
e quindi al browser. Nella maggior parte dei casi, la risposta sarà costituita da una
presentazione e quindi il Presentation Planner dovrà comporre il commento
appropriato alla situazione corrente.
3. User Modellers: man mano che l’Input Analyser riceve gli input, li passa ai sistemi di
User Modeling. Essi costruiscono dei modelli predittivi dell’utente a partire da input
quali la selezione degli argomenti che preferisce o l’attitudine ad interrompere i
commenti troppo lunghi (cfr. cap.2).
4. Audio Server: le presentazioni consistono più che altro in sequenze di brani in
RealAudio™, che, unite tra loro, vanno a costituire una narrazione coerente. I brani
audio vengono inviati al PDA dal server attraverso il RealServer™ che ne gestisce la
trasmissione corretta.
Il sistema di localizzazione, in particolare il recettore IR, riceve segnali dai sensori che
captano la presenza dell’IR emitter inserito sulla porta seriale di ogni PDA.
Un’applicazione autonoma in C++ del PDA, “Barriera”, ha la funzione di leggere i codici
IR captati sulla seriale, di processarne il flusso per effettuare un calcolo probabilistico e
derivarne la posizione e l’orientamento corrente dell’utente.
2
All’interno di queste due sale, si trovano celebri affreschi quali la “Maestà” ed il “Guidoriccio da
Fogliano” di Simone Martini, ed il ciclo sul “Buono ed il Cattivo Governo” di A. Lorenzetti.
3
Per il primo prototipo, sono stati impiegati 36 sensori ad infrarosso nelle due sale: 20 trasmettitori nella
Sala del Mappamondo, 16 nella Sala della Pace.
1. INTRODUZIONE
7
Figura 1. Il sistema di localizzazione IR di HIPS.
Questi dati sono comunicati al server ogni due secondi, in modo da reagire
prontamente ad ogni movimento da parte del visitatore (Benelli et Al., 1999b).
Nell’installazione e setting del sistema di sensori nella Sala del Mappamondo (la
stanza su cui focalizzeremo il nostro studio), sono state prese in considerazione le
posizioni rilevanti in cui un visitatore potrà probabilmente trovarsi in un possibile
percorso di visita: è stata così creata una griglia di 24 posizioni, ognuna suscettibile di 8
orientamenti, per un totale di 192 possibilità di posizionamento.
Figura 2. Mappatura dello spazio della sala in 192
posizioni discrete.
Considerando questi dati e l’informazione fornita all’utente fino a quel momento, il
modulo del sistema chiamato Presentation Planner “genera” un nuovo flusso di
informazione ad hoc per ogni utente che consisterà in una rappresentazione grafica della
porzione di spazio in causa (attraverso la visualizzazione sull’interfaccia grafica o
IR
BARRIERA
Browser
IR plugin
Rete wireless
Punto di
accesso rete
wireless
HIPS
SERVER
PDA
1. INTRODUZIONE
8
dell’opera osservata, o della mappa della sala, attraverso una applicazione web) ed in un
commento via audio (Bianchi e Zancanaro, 1999).
In questo modo, l’utente riceverà informazioni utili ad orientarsi nello spazio che sta
esplorando e descrizioni puntuali delle opere che lo circondano.
Attraverso alcuni comandi impartibili attraverso l’interfaccia grafica, il visitatore potrà
interrompere il commento in ogni momento lo desideri e/o passare ad un altro, ascoltare
presentazioni di topic diverso (generale, artistico, storico, aneddotico), o richiedere
eventuali approfondimenti: in questo modo, il sistema “apprenderà” nuove indicazioni
sulle preferenze e le esigenze dell’utente e potrà ritagliare progressivamente
l’informazione in output sulla base di tali preferenze e caratteristiche comportamentali.
Figura 3. Schema illustrativo del
funzionamento di HIPS.
La flessibilità del commento è
assicurata dalla particolare
metodologia di organizzazione della
base di “stringhe” audio nel
Macronode Server: il formalismo dei
“macronodi” (sviluppato presso
l’ITC-IRST di Trento) consente
appunto la suddivisione del testo in
brevi porzioni e la loro notazione per determinarne la reciproca componibilità in varie
condizioni. Questo permette al sistema non solo di interrompere la trasmissione della
descrizione in ogni momento, ma anche di allungarla, se richiesto, e di farlo tenendo
conto sia di quanto già ascoltato sia del tipo di contenuto preferito dall’utente:
descrittivo-generale, artistico, storico, aneddotico
4
.
4
Le porzioni di testo sono state registrate in formato RealAudio ed immagazzinate in un RealAudio server
che comunica direttamente con l’applicazione web (Helmstetter e Simpson, 1996).
1. INTRODUZIONE
9
L’impiego del canale uditivo per l’output traduce in pratica la necessità di non
sovraccaricare ulteriormente il visitatore con informazioni visive (in genere le guide
cartacee vengono lette poco sul posto, ed i pannelli descrittivi distolgono dall’osservare le
opere
5
). La ricchezza dello spazio stesso deve essere il soggetto centrale della fruizione
del Museo, l’audio permette un’informazione puntuale e flessibile sovrapposta
perfettamente all’elemento cui si riferisce; inoltre, può essere utile per sostenere
l’orientamento e per incoraggiare i visitatori ad approfondire la loro visita.
Studi sull’impiego di informazione acustica localizzata sono stati condotti nell’ambito
delle sperimentazioni su ambienti in Realtà Virtuale (finora forse l’unico campo di
applicazioni che si è interessato alla modellazione dello spazio fisico). Una recente
ricerca (Nelson et Al., 1998) ha indagato sui livelli di performance nell’individuazione di
un target visivo in un sistema di Realtà Virtuale con casco, quindi completamente
immersivo: nelle sessioni in cui il compito veniva eseguito con il sostegno di audio
localizzato si è riscontrato non solo un notevole incremento nella bontà delle
performance e di riduzione del carico cognitivo rispetto a quelle “mute”, ma anche un
aumento della consapevolezza della presenza degli oggetti nell’ambiente. Risulta
pertanto evidente l’importanza fondamentale dell’informazione acustica in un sistema
come HIPS, rispetto a vari livelli di design: conferire visibilità e feedback ad alcune
funzionalità, facilitare l’orientamento nello spazio da parte dell’utente, fornire a
quest’ultimo un’esperienza coinvolgente e piacevole
6
.
E’ chiaro, quindi, quanto un sistema del genere richieda un design particolare,
l’impiego delle sole metodologie correnti non può essere sufficientemente efficace per
progettarlo adeguatamente: la modellizzazione dell’utente, dell’attività e del contesto, le
soluzioni concettuali e funzionali di design, e, soprattutto, l’approccio alla valutazione
presentano problemi teorici nuovi e spunti originali per la progettazione di un flusso
informativo che si sovrapponga armonicamente ad uno spazio fisico complesso, e sia in
grado di supportare l’attività di soggetti dinamici in un ambiente informativamente ricco.
Il contesto fisico in cui siamo costantemente immersi, è ben più di un “contenitore”
anonimo per le nostre attività: dobbiamo, bensì considerarlo come il luogo in cui i nostri
pensieri e la nostra creatività trovano espressione e che spesso influenza direttamente
quest’ultima (Hooper Woolsey et Al., 1996). Le caratteristiche fisiche ed organizzative,
la presenza in esso di artefatti e fonti informative fanno dello spazio fisico un substrato
5
Cfr. par. 2.6.1 e cap. 4.
6
Cfr. cap.5.
1. INTRODUZIONE
10
ricchissimo che all’attività da svolgere fornisce sostegni, vincoli, condizionamenti. Nel
caso specifico del Museo questo è ancora più evidente: la visita è completamente
finalizzata alla fruizione dello spazio, in quanto custode di valori artistici e culturali e
degli oggetti che li esprimono.
Le proposte di applicazioni elettroniche che prevedono il diretto coinvolgimento dello
spazio fisico nel loro funzionamento sono state perlopiù avanzate proprio nel campo della
produzione e fruizione artistica. Soprattutto, già da alcuni decenni, è sorto un grande
interesse nell’ambito della realizzazione di spazi “intelligenti” o comunque empowered,
cioè “potenziati” grazie all’integrazione in essi di avanzati strumenti tecnologici.
1.3 Spazi tecnologici: dalla stanza “sensibile” al museo virtuale.
In alcuni dei pionieristici sistemi proposti in passato possiamo già ritrovare alcune
affinità concettuali con uno strumento simile a quello sviluppato per HIPS e, ai giorni
nostri, ormai diffuse: si è tentato, infatti, più volte di rendere in qualche modo il computer
capace di tenere traccia del comportamento umano nel contesto fisico della sua attività e
di “rispondere” all’utente attraverso un output appropriato ed altrettanto contestualizzato.
All’inizio degli anni ’70, Myron Krueger condusse i progetti “VIDEO-PLACE” e,
soprattutto, “Psychic Space” (1971), che costituì una delle prime installazioni di realtà
“computerizzata” mai realizzate: il sistema consisteva in un pavimento dotato di sensori
che “leggevano” la posizione nella stanza del partecipante alla performance, registrando
ognuno le variazioni nella distribuzione del peso in un’area e ricavando da questi dati la
traiettoria compiuta dal soggetto. Uno schermo, posto su una parete della stanza,
raffigurava un personaggio all’ingresso di un labirinto, realizzati entrambi grazie alla
computer graphics: la codifica del movimento, consentiva alla persona di percorrere il
labirinto interagendo con lo spazio virtuale attraverso il suo alter ego simulato sullo
schermo (Montefusco, 1992). In questo caso, Krueger aveva cercato di codificare in
qualche modo la ricchezza del dato fisico-spaziale, e di dotare il computer di una qualche
forma di “facoltà sensoriale” capace di coglierla.
Parallelamente al lavoro di Krueger, presso il Media Lab del MIT Ivan Sutherland
sviluppava i primi sistemi HMD, Head-Mounted Display (i caschi precursori delle attuali
“visiere” per i sistemi in Realtà Virtuale), ed i primi dispositivi di body tracking:
funzionanti, cioè, attraverso sensori posti sul corpo dell’utente che rendono percepibile
per il sistema il suo movimento. Allievo di Sutherland al MIT, Richard Bolt si è dedicato
1. INTRODUZIONE
11
al problema di come mettere in grado i computer di percepire l’utente e, quindi, renderli
capaci di modulare il loro comportamento conseguentemente (Laurel, 1993).
Bolt è stato il creatore della “Media Room” (Brand, 1993): lo schermo del computer
corrispondeva con la parete di una stanza sulla quale venivano proiettate dal retro delle
immagini. In pratica, si trattava di un: «personal computer delle dimensioni di una stanza,
dove il corpo dell’utente era il cursore-puntatore e la voce la tastiera» (Brand, 1993,
pag.162). Una delle dimostrazioni realizzate nella Media Room era “Put That There”
(1984): il soggetto si sedeva sulla sedia nel centro della stanza, puntava il braccio verso la
parete ed impartiva i comandi a voce; un dispositivo di body tracking permetteva al
sistema di seguire i movimenti del braccio. Sicuramente, questo prototipo è stato il
precursore dei sistemi successivi capaci di gesture recognition, tracciamento e
riconoscimento dei gesti umani grazie all’implementazione nel sistema di una sorta di
“grammatica”, che associa ad ogni gesto compiuto un significato od un comando e lo
considera come input.
Una successiva demo realizzata al MIT Media Lab, “Looker” (1987), presentava un
simulatore di spostamenti dell’attenzione di un visitatore all’interno di uno spazio; il
programma “Show-er” elaborava la risposta verbale del computer a ciò che il
protagonista stava facendo, fornendogli una spiegazione (ad esempio: “Stai guardando un
Monet”). La simulazione è stata successivamente tradotta nell’implementazione
dell’intero sistema nella Media Room e sperimentata con utilizzatori in carne ed ossa.
Comunque, le immagini che il visitatore osservava non erano quadri reali, ma
riproduzioni visualizzate sulla parete schermo.
Richard Bolt ha proseguito i suoi studi in questo settore, esplorando la possibilità che i
computer imparino a «leggere lo sguardo delle persone» (Bolt, in Brand, 1993): si deve,
cioè, pensare agli occhi come dispositivi e ad un sistema di eye tracking (rilevamento dei
movimenti oculari) che ne interpreti le indicazioni.
Con l’evoluzione della tecnologia, la serie di sistemi pensati per “catturare” in qualche
modo la fisicità degli utenti si è notevolmente ampliata. Da un punto di vista più
strettamente tecnico, i devices esistenti in grado di catturare input di natura fisica
comprendono il “Power Glove”, il guanto elettronico che permette all’utente di
manipolare oggetti in ambienti virtuali, ed il “Data Suit”, la tuta per la realtà virtuale
primo esempio di interfaccia estesa a tutto il corpo.
Al contrario, è ancora in fase di sviluppo (dal 1990) “Biomuse”, progettato presso
l’Università di Stanford, capace di elaborare segnali provenienti da elettrodi disposti sul
1. INTRODUZIONE
12
corpo per rilevare l’attività muscolare e cerebrale, e di tradurli in codici MIDI che
pilotano un sistema musicale computerizzato.
Ancora più recentemente, è stato introdotto il termine senseware, un neologismo
coniato da Logitech che indica appunto quella categoria di strumenti in via di
implementazione che permetteranno al computer di percepire, dotati come saranno di
sensori talmente raffinati da funzionare come veri e propri organi di senso artificiali.
I notevoli progressi condotti nella realizzazione di componenti tecnologiche wearable,
“indossabili”, che uniscono alla raffinatezza tecnica dimensioni ridottissime (A.A.V.V.,
1998b), fanno sì che l’arricchimento del corpo umano attraverso devices computerizzati
sia sempre meno intrusivo e fastidioso per l’utente.
Risultano già evidenti i due approcci al problema del tracciamento del comportamento
nello spazio fisico: nella prima prospettiva (che riscontriamo nelle applicazioni del MIT),
sono gli utenti ad indossare l’interfaccia (HMD, guanto, tuta, sensori, ecc.),
indubbiamente con notevoli problemi di intrusività ed oppressività del sistema sul
comportamento; mentre la seconda (risalente già al lavoro di Krueger) enfatizza un
approccio corporeamente libero, puntando su dispositivi di “tracciamento nell’ambiente”:
si tratta, cioè, di permettere al computer di percepire l’interazione nello spazio fisico
tenendo sotto controllo i cambiamenti in quest’ultimo (Krueger, 1993). I sensori non
sarebbero più collocati sull’uomo ma nell’“intorno”, distribuiti nell’ambiente e negli
oggetti in esso presenti e costituirebbero, potremmo dire, una strumentazione
“intelligente” degli ambienti per l’esecuzione delle attività. Alla distinzione tra i due
approcci, è stata associata la distinzione terminologica tra “realtà virtuale” e “realtà
artificiale”.
Più recentemente, si è giunti all’approccio della augmented reality (“realtà aumentata”)
(A.A.V.V., 1998a), in cui l’ambiente reale e quello virtuale sono l’uno la prosecuzione e
l’arricchimento dell’altro, grazie all’integrazione tra elementi elettronici di alta tecnologia
ed oggetti quotidiani. Secondo il paradigma della realtà aumentata, lo spazio fisico deve
accogliere in sé e permettere il funzionamento di artefatti capaci di arricchirlo, renderlo
“intelligente” ed estendere la gamma delle attività attuabili in esso, senza alterarne la
natura.
Un tentativo simile, ad esempio, è quello messo in atto nel progetto “City News-
Web3D” del MIT (1999)
7
: si tratta di un browser tridimensionale che organizza le
informazioni grafiche e testuali su di un qualche oggetto utilizzando la metafora spaziale
di una città. Ne esistono attualmente due versioni in corso di sviluppo: una interamente
7
Http://www.media.mit.edu.
1. INTRODUZIONE
13
implementata su di un wearable computer, l’altra (molto più interessante in
quest’ambito) che considera il corpo come un mouse, e prevede un tappeto interattivo
come mouse-pad ed una lente-schermo che permetta di “velare” la vista con una pagina
di informazione riguardo ciò che si sta osservando. Quindi, in questo caso si sta cercando
di realizzare la sovrapposizione visiva tra i due spazi, con l’insieme delle informazioni
organizzato sulla base di una metafora spaziale.
Nel caso dei cosiddetti AMI, Ambienti Multimodali Interattivi, si attua l’ «estensione
della realtà attraverso la tecnologia» (Camurri, 1997). Mentre nei sistemi in realtà
virtuale, un ambiente è definito a priori, in modo statico e completamente distaccato dal
reale contesto dell’azione, un AMI è invece plasmabile e modificabile dal
comportamento umano: il sistema elettronico che monitora ciò che accade nello spazio è
dotato di moduli specifici per il riconoscimento e la classificazione degli input
comportamentali; la risposta del sistema consisterà in una modificazione fisica
dell’ambiente e sarà direttamente determinata dalla precedente osservazione e codifica
dei movimenti, dei gesti, dei suoni emessi dal visitatore.
Il Laboratorio di Informatica Musicale dell’Università di Genova ha realizzato sulla
base di questo approccio alcuni sistemi per la produzione artistica. Ad esempio,
“Soundcage” consente la creazione di brani musicali associati a particolari sequenze di
movimenti in input; sono ancora in fase di sviluppo alcune installazioni in ambito
museale, che modificano l’ambiente attraverso la percezione del visitatore e la
codificazione del suo umore. Applicazioni tali richiedono l’elaborazione di una
particolare architettura per agenti intelligenti capaci di capire ed esprimere “emozioni
artificiali”, in contesti di interazione uomo-macchina caratterizzati da componenti quali
l’intrattenimento, il coinvolgimento, la reazione emotiva (Camurri e Volpe, 1999).
In tutte queste applicazioni ritroviamo elementi interessanti per una riflessione sul
design dell’artefatto di cui ci occupiamo: la considerazione dello spazio fisico non solo
come “palcoscenico”, ma anche come condizione dell’attività, l’adozione di tecnologie
distribuite per la fruizione di esso, infine il tentativo di cogliere e modellizzare, in qualità
di input per tali sistemi, il comportamento fisico del soggetto umano all’interno dello
spazio, in quanto rivelatore di intenzioni, strategie mentali, attitudini, stati d’animo.
Sono altrettanto evidenti, però, i limiti di questi approcci, o comunque la loro
inadeguatezza per la problematica che affronteremo; in tutti i casi presentati, infatti
• o lo spazio fisico dell’interazione è creato ad hoc;
1. INTRODUZIONE
14
• oppure lo spazio viene modificato ad hoc, cioè la performance artistica è una
produzione dell’utente. Lo spazio dell’informazione creato dal sistema elettronico è
frutto di una correlazione arbitraria tra l’input letto nello spazio fisico ed una risposta
in output (ad esempio, le frasi musicali associate ad un certo pattern di movimento in
“Soundcage”).
Riconoscendo questa effettiva “dematerializzazione”
8
della produzione e fruizione
nelle ultime creazioni d’arte basata su tecnologie, si è cercato di creare allestimenti
artistici che coinvolgessero quanto più possibile il soggetto umano al livello
“fisico”(emozionale e sensoriale), tentando anche la realizzazione di esperienze
“sinestetiche” (Moser, 1996):
«La sinestesi è quel fenomeno per cui una sensazione corrispondente a un dato
senso viene associata a quella di un altro senso (...)» (Capucci, 1994, pag.37).
Suscitare le emozioni delle persone attraverso la loro amplificazione o l’associazione
ad altre esperienze sensoriali è sicuramente una tecnica affascinante per progettare
l’interazione in ambito artistico, ma non supera ancora il secondo limite che abbiamo
individuato, cioè la necessità di stabilire le regole di una “grammatica della reazione”
sulla base dalla tecnologia disponibile (elaborazione acustica, grafica 3D, animazione,
ecc.).
Quando, invece, lo spazio è creato ad hoc, la risposta in termini di cognizione
esperienziale (Norman, 1993) non esce al di fuori dell’ambiente virtuale: si cerca di
portare il fruitore al di dentro, piuttosto che aprire all’esterno lo spazio tecnologico
dell’informazione e di modellarlo in funzione di un contesto reale, di un luogo esistente.
Queste applicazioni che raggiungono livelli tecnologici avanzatissimi non sono utili alla
fruizione di uno spazio dato, con informazione complessa già presente e di certo non
modificabile: il “semplice” museo tradizionale.
8
“Virtualizzazione del reale”, secondo la definizione di Tomàs Maldonado (Maldonado, 1992).
1. INTRODUZIONE
15
1.3.1 Il percorso museale.
Quello dei musei e delle esposizioni in genere è uno dei settori per cui sono stati ideati
in maggior numero strumenti ad alta tecnologia e/o applicazioni multimediali. Tra queste
ultime, in particolare, si collocano anche le versioni “elettroniche” di musei
importantissimi (come il Louvre o gli Uffizi) consultabili su CDRom o sul World Wide
Web, e la creazione di veri e propri “musei
virtuali”: raccolte di riproduzioni digitali di
varie opere, collocate in realtà in luoghi diversi,
riunite in una unica esposizione visibile on line.
Figura 4. Le collezioni di due importanti musei
consultabili on-line: il Louvre (in alto) ed il Museum of
Modern Art (in basso).
Anna Lisa Tota, studiosa di sociologia
dell’arte e dei processi di fruizione, sottolinea che in casi del genere
«(...) l’adozione della tecnologia finisce per implicare una sorta di
ridefinizione globale del campo in cui è applicata. Una volta on line infatti, i
musei devono iniziare a ripensare se stessi. Si tratta di un’applicazione che in
qualche modo mina nei suoi presupposti di base la definizione stessa di
museo.» (Tota, 1999, p.168).
Si tratta, infatti, di tentativi di ricreare il museo nello spazio virtuale, oppure di
prendere a parte le opere (o meglio, le loro riproduzioni digitali) e disporre l’esposizione
ex novo in uno spazio immateriale appositamente creato. In entrambi i casi, il contenuto
informativo del museo e delle opere che ne fanno parte viene separato dalle entità reali,
dai corrispettivi fisici.
Nel nostro caso, la necessità fondamentale è progettare una tecnologia che supporti la
fruizione in loco del museo originale, sia dal punto di vista fisico (l’edificio e le sue sale),
sia da quello concettuale (raccolta di testi artistici significativi): sarà la tecnologia a dover