6
dal punto di vista generale (cap. 3.1), poi per gli aspetti riguardanti lo specifico
dell’apprendimento musicale (cap. 3.2), dove è stato possibile riferirsi direttamente alle non
molte ricerche scientifiche già condotte nel settore.
La riflessione nel suo complesso ha portato alla possibilità di procedere alla scelta di
alcuni strumenti e di alcune metodologie (cap. 3.3) tra quelle disponibili, e dunque la
definizione dei contenuti didattici della sperimentazione.
7
2. Tecnologie, rappresentazioni, interfacce
2.1 Musica e nuove tecnologie
Fino ai primi anni ’90, il computer era prevalentemente utilizzato – e di conseguenza
considerato – come strumento per rendere più veloci o efficaci compiti tradizionali. Con
l’eccezione degli ambiti specialistici1, l’elaboratore era utilizzato soprattutto per emulare una
macchina da scrivere, una tela per disegnare, ecc. Entro la fine del decennio, in conseguenza
all’avvento di Internet, l’immagine pubblica del computer era già divenuta quella di un mezzo
di comunicazione universale, usato non solo per creare, ma anche per memorizzare,
distribuire e accedere a tutti i tipi di media2. Ciò è accaduto grazie alla convergenza delle
tecnologie informatiche con quelle della comunicazione tradizionale, che ha dato origine a
quelli che vengono definiti new media3.
Lev Manovich ha cercato di definire alcuni principi che accomunano questi nuovi mezzi
di comunicazione, seppure non si possano considerare una definizione vera e propria per
dividere vecchi e nuovi media, ma tendenze generali di una cultura che sta subendo una
graduale digitalizzazione4:
• la rappresentazione delle informazioni in forma numerica, che apre la strada alle
numerose forme di elaborazione delle stesse;
• la modularità, cioè la predisposizione al raggruppamento degli elementi a
formare ulteriori oggetti che a loro volta possono formare ulteriori gruppi, ecc.;
• l’automazione di operazioni nelle diverse fasi di gestione, al punto che
l’intenzionalità umana può almeno parzialmente essere estromessa dal processo
creativo;
• la variabilità degli oggetti, che possono presentarsi contemporaneamente in
versioni diverse;
• la traducibilità (transcoding), dovuta al fatto che ciascun oggetto consiste in due
livelli: quello informatico, cioè la semplice sequenza di bit raccolta in un file e
1
Tra questi ambiti specialistici si può annoverare senz’altro quello musicale: come si vedrà nel prosieguo di
questo capitolo e nei successivi, molte delle tecnologie informatiche dedicate alla musica contribuirono molto
presto a cambiare radicalmente le modalità di composizione, esecuzione, analisi musicale, ecc., soprattutto
grazie alla disponibilità di nuove interfacce e molteplici modalità di rappresentazione.
2
Lev Manovich, The Language of New Media, MIT Press, Cambridge (Massachusetts, USA) 2001, pp. 69ss.
3
Lev Manovich, op.cit., p. 20; pp.21-26.
4
Lev Manovich, op.cit., pp. 27ss.
8
disponibile per le elaborazioni; quello culturale, che associa alla sequenza di bit
una rappresentazione concreta e sensibile, come ad esempio un’immagine,
oppure un suono.
Se nella comunicazione tradizionale l’oggetto è costituito da una forma e da un
contenuto e viene diffuso attraverso un mezzo, i new media spostano il concetto di forma per
renderlo parte del mezzo stesso, all’interno dell’interfaccia. I contenuti sono raccolti in
database, strutture di gestione dei dati tipiche dell’informatica, i quali vengono prodotti,
aggiornati ed esplorati per tramite delle interfacce culturali. Queste costituiscono il nuovo
mezzo con cui l’uomo può accedere a contenuti culturali e sono un compromesso tra le
diffuse interfacce informatiche (es. quelle basate su finestre, menu, ecc.) e le esperienze
culturali tradizionali come lettura, cinema, ecc.
Le applicazioni musicali dell’elettronica delle telecomunicazioni, insieme alle
innovazioni portate dalla riproducibilità tecnica delle opere musicali, hanno aperto una nuova
era nella storia della musica, di cui l’informatica ha poi accompagnato con sempre maggiore
presenza gli ultimi 50 anni5. Sotto il nome comune di “nuove tecnologie per la musica” si
raccolgono apparecchiature di tipo diverso, non soltanto una gran varietà di dispositivi
informatici hardware e software, ma anche apparati elettronici capaci di operare stand-alone o
in collegamento con un computer. Questo capitolo mira a fornire una semplice classificazione
delle applicazioni musicali delle nuove tecnologie al momento disponibili.
2.1.1 Sistemi dedicati alla musica
Con questa espressione si vogliono raggruppare tutti i dispositivi tecnologici basati
sull’elettronica e/o l’informatica che vengono impiegati in modo esclusivo nell’ambito
musicale e che sono solitamente dotati di interfacce non generaliste6. Si tratta di una categoria
molto ampia di oggetti, la cui genealogia trova i suoi padri in alcune invenzioni sviluppate tra
la fine del diciannovesimo e l’inizio del ventesimo secolo:
• il “Musical Telegraph” di Elisha Gray (1876), che consisteva in un banco di
circuiti oscillatori attivati da una piccola tastiera di pianoforte estesa su due
ottave e collegati ad un rudimentale altoparlante;
5
Nel 1957 Max Mathews scrisse “MUSIC I”, il primo programma per computer che sintetizzava il suono. Cfr.
Andy Hunt, Radical User Interfaces for real-time musical control, tesi di dottorato, University of York 2000,
York, p. 19.
6
Per interfacce generaliste si intendono quelle tradizionali dell’informatica, che basano l’interazione con l’utente
su tastiera, mouse, monitor e piccoli diffusori.
9
• il “Telharmonium” (1906), che era composto da due tastiere collegate a dei
generatori sonori sui quali era parzialmente possibile intervenire per variarne il
timbro e che trasmetteva il segnale generato direttamente su una linea telefonica;
• il “Theremin” (1919), che conteneva un singolo oscillatore capace di generare
un suono di cui intonazione ed intensità variavano proporzionalmente alla
posizione delle mani nell’aria libera.
Fanno parte di questa categoria tutti gli strumenti a tastiera elettronici (a partire dai
nomi storici – a gli organi Hammond, i pianoforti elettrici Rhodes, i sintetizzatori Moog, ecc.
– fino alle moderne workstation), ma anche diversi altri dispositivi che riproducono le
interfacce degli strumenti tradizionali o si integrano con esse, tra i quali si ricordano:
• le chitarre elettriche ed elettroacustiche, in cui la vibrazione delle corde viene
captata da un apposito trasduttore (pick-up) e inviato a un sistema di
amplificazione che concorre alla definizione del suono;
• le chitarre synth, formate da un pick-up e da un modulo interprete e
sintetizzatore che insieme consentono di generare suoni diversi mantenendo
come interfaccia una tradizionale chitarra;
• le “batterie elettroniche”, intendendo in questo caso un insieme di pad sensibili
al tocco disposti solitamente ad emulare un tradizionale set di batteria (a volte
sostituito da trigger montati sulle pelli delle batterie acustiche), completato da un
apparato che si occupa di sintetizzare i relativi suoni;
• i breath controllers o wind controllers che, anche in questo caso abbinati a dei
sintetizzatori, riproducono le tradizionali forme d’interazione degli strumenti a
fiato.
Come si è già detto queste tecnologie tentano di fornire interfacce il più possibile simili
a quelle degli strumenti tradizionali. Le potenzialità di alcuni degli strumenti citati (primi tra
tutti le tastiere) sono state accresciute a partire dal 1983, con l’avvento di un protocollo di
comunicazione specializzato, denominato MIDI (Musical Instrument Digital Interface). Esso
è composto da uno schema per l’interconnessione tra strumenti e/o computer dedicati alla
musica e un apposito metodo seriale di trasmissione dati7. L’utilizzo prevalente del MIDI è la
gestione della comunicazione fra un’interfaccia e un sintetizzatore: i sistemi di cui si parlava
poco sopra sono spesso disponibili in versione “solo interfaccia”, cioè sprovvisti di una
sezione destinata alla sintesi sonora, che viene demandata ad un modulo a parte, collegato
7
Curtis Roads, The computer music tutorial, MIT Press, Cambridge (Massachusetts, USA) 1996, p. 972.
10
tramite connessioni MIDI e scelto in un ampio catalogo di dispositivi disponibili anche a
livello commerciale.
La ricerca nel campo delle interfacce derivate da strumenti tradizionali non è mai stata
interrotta e ne sono prova i lavori di Kapur, Essl, Davidson e Cook per la progettazione di un
“Eletronic Tabla Controller”8 o quello di Tamara Smyth e Julius O. Smith III, che si sono
ispirati alla cicada per la realizzazione di un nuovo tipo di interfaccia9. Ma il panorama è assai
più ampio: sotto la direzione di Tod Machover, il Massachussets Institute of Technology ha
prodotto dal 1986 una serie di strumenti innovativi raccolti sotto il nome di
“Hyperinstruments”10. Alcuni di essi incorporano interfacce derivate dagli strumenti
tradizionali (es. “Hypercello”, “Hyperviolin bow”), mentre altri sono basati su approcci
innovativi e molto originali, ad esempio: “Musical jacket” è una vera giacca della Levi’s
modificata per contenere degli altoparlanti e un sintetizzatore, pilotato da un keypad
riprodotto su una delle tasche; i “Beatbugs”, invece, sono dei piccoli strumenti che
riproducono le forme di un insetto e che consentono facilmente, tramite il movimento delle
antenne, di produrre dei suoni. La finalità di strumenti come questi ultimi è quella di
avvicinare un pubblico di non professionisti (o di bambini) alla musica, fornendo degli
strumenti semplici che diano risultati rapidi in termini di produzione musicale. Alcuni di
questi dispositivi possono essere utilizzati anche in maniera collettiva, spianando la strada a
nuove modalità di fruizione musicale pubblica.
Sempre presso il MIT, Max Matthews11 ha sviluppato un sistema basato su una
bacchetta da direttore d’orchestra, il cui movimento viene rilevato e poi utilizzato per
modificare l’esecuzione di un brano musicale. Il progetto olandese STEIM invece ha proposto
un sistema basato su guanti elettronici con i quali rilevare i movimenti delle mani12. Le
evoluzioni più recenti hanno cominciato a prescindere da un vero contatto fisico tra uomo e
macchina, come nel caso del “Soundbeam” progettato da Swingler presso l’EMS, che tramite
sensori ad ultrasuoni riesce ad interpretare il movimento dei ballerini. Joseph A. Paradiso,
8
Cfr. Ajay Kapur - Georg Essl - Philip Davidson - Perry R. Cook, The electronic Tabla controller in «Journal of
New Music Research», vol. 32 (2003), number 4, pp. 351-359.
9
Cfr. Tamara Smyth - Julius O. Smith III, A musical controller inspired by the Cicada’s efficiente buckling
system in «Journal of New Music Research», vol. 32 (2003), number 4, pp. 361-386.
10
Si veda il sito internet http://www.media.mit.edu/hyperins/.
11
Richard Boulanger - Max V. Mathews, The 1997 Mathews Radio-Baton & Improvisation Modes in
Proceedings of the International Computer Music Conference, Tessalonica, 1997.
12
Michel Waisvisz, The hands, a set of remote midi-controllers in Proceedings of the 1985 international
Computer Music Conference, Burnaby, B.C. 1985, pp. 313–318.
11
Laureal S. Pardue, Kai-Yuh Hsiao e Ari.Y. Benbasat13 si sono invece orientati verso il
rilevamento elettromagnetico della posizione e del movimento di piccoli oggetti, che vengono
ancora una volta utilizzati per pilotare sistemi di generazione del suono. Sono di grande
interesse anche le ricerche condotte in seno al progetto europeo IST MEGA14, con il varo
della piattaforma “EyesWeb”, che consente di estrarre dati in tempo reale dall’analisi del
segnale proveniente da una telecamera che segue i movimenti di un attore o danzatore.
Le possibilità sono molteplici e i limiti delle tecnologie sono sempre meno consistenti:
l’Università di York ha sviluppato un dispositivo universale capace di convertire qualsiasi
controllo basato sulla resistenza elettrica in messaggi di tipo MIDI e dunque inviarli a un
qualunque modulo di sintesi sonora o dispositivo informatico posto a valle15. In questo modo
possiamo immaginare di poter utilizzare come input per la produzione musicale un’infinità di
sensori, cursori e altri apparati di controllo.
Per quanto riguarda la direzione macchina-uomo della comunicazione, una strada
particolarmente significativa è quella seguita al MIT da Eric Gunther e Sile O’Modhrain, i
quali hanno pensato di servirsi del senso del tatto come mediatore per la fruizione estetica
delle composizioni. In quest’ottica hanno dunque progettato e realizzato dei dispositivi utili a
comporre e fruire opere in una forma di comunicazione, derivata dalla musica ma mediata
dalle impressioni tattili16.
I sistemi sopracitati sono generalmente orientati alla performance e operano
praticamente sempre in real-time. L’evoluzione delle tastiere elettroniche ha portato novità
utili anche a chi si occupa di musica ma non da esecutore: per esempio le possibilità di
sequencing, cioè di memorizzazione e successiva riproduzione degli eventi musicali. Quando
la funzione non è già inclusa nel set di una tastiera musicale, si può ricorrere ad un apposito
dispositivo separato, in grado di registrare e riprodurre eventi MIDI. Con questo incremento
di funzioni e con le possibilità di editing del suono progressivamente incorporate, le tastiere
elettroniche sono divenute sempre più complesse e per questo le più dotate funzionalmente
sono state categorizzate sotto l’appellativo di workstation: i primi celebri modelli di questa
13
Joseph A. Paradiso - Laureal S. Pardue - Kai-Yuh Hsiao - Ari. Y. Benbasat, Electromagnetic tagging for
electronic music interfaces in «Journal of New Music Research», vol. 32 (2003), number 4, pp. 395-409.
14
Per maggiori informazioni sul progetto si veda il sito http://www.megaproject.org.
15
M. & R. Abbotson, P.R Kirk, AD Hunt, A Cleaton, Computer Music in the service of Music Therapy: The
MIDIGRID and MIDICREATOR systems in «Medical Engineering Physics», vol. 16 (May 1994), p. 253 ss.
16
Cfr. Eric Gunther - Sile O’Modrian, Cutaneous grooves: composing for the sense of touch in «Journal of New
Music Research», volume 32, number 4 (December 2003), pp. 369-381.