6 
dal punto di vista generale (cap. 3.1), poi per gli aspetti riguardanti lo specifico 
dell’apprendimento musicale (cap. 3.2), dove è stato possibile riferirsi direttamente alle non 
molte ricerche scientifiche già condotte nel settore. 
La riflessione nel suo complesso ha portato alla possibilità di procedere alla scelta di 
alcuni strumenti e di alcune metodologie (cap. 3.3) tra quelle disponibili, e dunque la 
definizione dei contenuti didattici della sperimentazione. 
 7 
2. Tecnologie, rappresentazioni, interfacce 
2.1 Musica e nuove tecnologie 
Fino ai primi anni ’90, il computer era prevalentemente utilizzato – e di conseguenza 
considerato – come strumento per rendere più veloci o efficaci compiti tradizionali. Con 
l’eccezione degli ambiti specialistici1, l’elaboratore era utilizzato soprattutto per emulare una 
macchina da scrivere, una tela per disegnare, ecc. Entro la fine del decennio, in conseguenza 
all’avvento di Internet, l’immagine pubblica del computer era già divenuta quella di un mezzo 
di comunicazione universale, usato non solo per creare, ma anche per memorizzare, 
distribuire e accedere a tutti i tipi di media2. Ciò è accaduto grazie alla convergenza delle 
tecnologie informatiche con quelle della comunicazione tradizionale, che ha dato origine a 
quelli che vengono definiti new media3.  
Lev Manovich ha cercato di definire alcuni principi che accomunano questi nuovi mezzi 
di comunicazione, seppure non si possano considerare una definizione vera e propria per 
dividere vecchi e nuovi media, ma tendenze generali di una cultura che sta subendo una 
graduale digitalizzazione4: 
• la rappresentazione delle informazioni in forma numerica, che apre la strada alle 
numerose forme di elaborazione delle stesse; 
• la modularità, cioè la predisposizione al raggruppamento degli elementi a 
formare ulteriori oggetti che a loro volta possono formare ulteriori gruppi, ecc.; 
• l’automazione di operazioni nelle diverse fasi di gestione, al punto che 
l’intenzionalità umana può almeno parzialmente essere estromessa dal processo 
creativo; 
• la variabilità degli oggetti, che possono presentarsi contemporaneamente in 
versioni diverse; 
• la traducibilità (transcoding), dovuta al fatto che ciascun oggetto consiste in due 
livelli: quello informatico, cioè la semplice sequenza di bit raccolta in un file e 
                                                 
1
 Tra questi ambiti specialistici si può annoverare senz’altro quello musicale: come si vedrà nel prosieguo di 
questo capitolo e nei successivi, molte delle tecnologie informatiche dedicate alla musica contribuirono molto 
presto a cambiare radicalmente le modalità di composizione, esecuzione, analisi musicale, ecc., soprattutto 
grazie alla disponibilità di nuove interfacce e molteplici modalità di rappresentazione. 
2
 Lev Manovich, The Language of New Media, MIT Press, Cambridge (Massachusetts, USA) 2001, pp. 69ss. 
3
 Lev Manovich, op.cit., p. 20; pp.21-26. 
4
 Lev Manovich, op.cit., pp. 27ss. 
 8 
disponibile per le elaborazioni; quello culturale, che associa alla sequenza di bit 
una rappresentazione concreta e sensibile, come ad esempio un’immagine, 
oppure un suono. 
Se nella comunicazione tradizionale l’oggetto è costituito da una forma e da un 
contenuto e viene diffuso attraverso un mezzo, i new media spostano il concetto di forma per 
renderlo parte del mezzo stesso, all’interno dell’interfaccia. I contenuti sono raccolti in 
database, strutture di gestione dei dati tipiche dell’informatica, i quali vengono prodotti, 
aggiornati ed esplorati per tramite delle interfacce culturali. Queste costituiscono il nuovo 
mezzo con cui l’uomo può accedere a contenuti culturali e sono un compromesso tra le 
diffuse interfacce informatiche (es. quelle basate su finestre, menu, ecc.) e le esperienze 
culturali tradizionali come lettura, cinema, ecc.  
Le applicazioni musicali dell’elettronica delle telecomunicazioni, insieme alle 
innovazioni portate dalla riproducibilità tecnica delle opere musicali, hanno aperto una nuova 
era nella storia della musica, di cui l’informatica ha poi accompagnato con sempre maggiore 
presenza gli ultimi 50 anni5. Sotto il nome comune di “nuove tecnologie per la musica” si 
raccolgono apparecchiature di tipo diverso, non soltanto una gran varietà di dispositivi 
informatici hardware e software, ma anche apparati elettronici capaci di operare stand-alone o 
in collegamento con un computer. Questo capitolo mira a fornire una semplice classificazione 
delle applicazioni musicali delle nuove tecnologie al momento disponibili. 
2.1.1 Sistemi dedicati alla musica 
Con questa espressione si vogliono raggruppare tutti i dispositivi tecnologici basati 
sull’elettronica e/o l’informatica che vengono impiegati in modo esclusivo nell’ambito 
musicale e che sono solitamente dotati di interfacce non generaliste6. Si tratta di una categoria 
molto ampia di oggetti, la cui genealogia trova i suoi padri in alcune invenzioni sviluppate tra 
la fine del diciannovesimo e l’inizio del ventesimo secolo: 
• il “Musical Telegraph” di Elisha Gray (1876), che consisteva in un banco di 
circuiti oscillatori attivati da una piccola tastiera di pianoforte estesa su due 
ottave e collegati ad un rudimentale altoparlante; 
                                                 
5
 Nel 1957 Max Mathews scrisse “MUSIC I”, il primo programma per computer che sintetizzava il suono. Cfr. 
Andy Hunt, Radical User Interfaces for real-time musical control, tesi di dottorato, University of York 2000, 
York, p. 19. 
6
 Per interfacce generaliste si intendono quelle tradizionali dell’informatica, che basano l’interazione con l’utente 
su tastiera, mouse, monitor e piccoli diffusori. 
 9 
• il “Telharmonium” (1906), che era composto da due tastiere collegate a dei 
generatori sonori sui quali era parzialmente possibile intervenire per variarne il 
timbro e che trasmetteva il segnale generato direttamente su una linea telefonica; 
• il “Theremin” (1919), che conteneva un singolo oscillatore capace di generare 
un suono di cui intonazione ed intensità variavano proporzionalmente alla 
posizione delle mani nell’aria libera. 
Fanno parte di questa categoria tutti gli strumenti a tastiera elettronici (a partire dai 
nomi storici – a gli organi Hammond, i pianoforti elettrici Rhodes, i sintetizzatori Moog, ecc. 
– fino alle moderne workstation), ma anche diversi altri dispositivi che riproducono le 
interfacce degli strumenti tradizionali o si integrano con esse, tra i quali si ricordano: 
• le chitarre elettriche ed elettroacustiche, in cui la vibrazione delle corde viene 
captata da un apposito trasduttore (pick-up) e inviato a un sistema di 
amplificazione che concorre alla definizione del suono; 
• le chitarre synth, formate da un pick-up e da un modulo interprete e 
sintetizzatore che insieme consentono di generare suoni diversi mantenendo 
come interfaccia una tradizionale chitarra; 
• le “batterie elettroniche”, intendendo in questo caso un insieme di pad sensibili 
al tocco disposti solitamente ad emulare un tradizionale set di batteria (a volte 
sostituito da trigger montati sulle pelli delle batterie acustiche), completato da un 
apparato che si occupa di sintetizzare i relativi suoni; 
• i breath controllers o wind controllers che, anche in questo caso abbinati a dei 
sintetizzatori, riproducono le tradizionali forme d’interazione degli strumenti a 
fiato. 
Come si è già detto queste tecnologie tentano di fornire interfacce il più possibile simili 
a quelle degli strumenti tradizionali. Le potenzialità di alcuni degli strumenti citati (primi tra 
tutti le tastiere) sono state accresciute a partire dal 1983, con l’avvento di un protocollo di 
comunicazione specializzato, denominato MIDI (Musical Instrument Digital Interface). Esso 
è composto da uno schema per l’interconnessione tra strumenti e/o computer dedicati alla 
musica e un apposito metodo seriale di trasmissione dati7. L’utilizzo prevalente del MIDI è la 
gestione della comunicazione fra un’interfaccia e un sintetizzatore: i sistemi di cui si parlava 
poco sopra sono spesso disponibili in versione “solo interfaccia”, cioè sprovvisti di una 
sezione destinata alla sintesi sonora, che viene demandata ad un modulo a parte, collegato 
                                                 
7
 Curtis Roads, The computer music tutorial, MIT Press, Cambridge (Massachusetts, USA) 1996, p. 972. 
 10 
tramite connessioni MIDI e scelto in un ampio catalogo di dispositivi disponibili anche a 
livello commerciale. 
La ricerca nel campo delle interfacce derivate da strumenti tradizionali non è mai stata 
interrotta e ne sono prova i lavori di Kapur, Essl, Davidson e Cook per la progettazione di un 
“Eletronic Tabla Controller”8 o quello di Tamara Smyth e Julius O. Smith III, che si sono 
ispirati alla cicada per la realizzazione di un nuovo tipo di interfaccia9. Ma il panorama è assai 
più ampio: sotto la direzione di Tod Machover, il Massachussets Institute of Technology ha 
prodotto dal 1986 una serie di strumenti innovativi raccolti sotto il nome di 
“Hyperinstruments”10. Alcuni di essi incorporano interfacce derivate dagli strumenti 
tradizionali (es. “Hypercello”, “Hyperviolin bow”), mentre altri sono basati su approcci 
innovativi e molto originali, ad esempio: “Musical jacket” è una vera giacca della Levi’s 
modificata per contenere degli altoparlanti e un sintetizzatore, pilotato da un keypad 
riprodotto su una delle tasche; i “Beatbugs”, invece, sono dei piccoli strumenti che 
riproducono le forme di un insetto e che consentono facilmente, tramite il movimento delle 
antenne, di produrre dei suoni. La finalità di strumenti come questi ultimi è quella di 
avvicinare un pubblico di non professionisti (o di bambini) alla musica, fornendo degli 
strumenti semplici che diano risultati rapidi in termini di produzione musicale. Alcuni di 
questi dispositivi possono essere utilizzati anche in maniera collettiva, spianando la strada a 
nuove modalità di fruizione musicale pubblica. 
Sempre presso il MIT, Max Matthews11 ha sviluppato un sistema basato su una 
bacchetta da direttore d’orchestra, il cui movimento viene rilevato e poi utilizzato per 
modificare l’esecuzione di un brano musicale. Il progetto olandese STEIM invece ha proposto 
un sistema basato su guanti elettronici con i quali rilevare i movimenti delle mani12. Le 
evoluzioni più recenti hanno cominciato a prescindere da un vero contatto fisico tra uomo e 
macchina, come nel caso del “Soundbeam” progettato da Swingler presso l’EMS, che tramite 
sensori ad ultrasuoni riesce ad interpretare il movimento dei ballerini. Joseph A. Paradiso, 
                                                 
8
 Cfr. Ajay Kapur - Georg Essl - Philip Davidson - Perry R. Cook, The electronic Tabla controller in «Journal of 
New Music Research», vol. 32 (2003), number 4, pp. 351-359. 
9
 Cfr. Tamara Smyth - Julius O. Smith III, A musical controller inspired by the Cicada’s efficiente buckling 
system in «Journal of New Music Research», vol. 32 (2003), number 4, pp. 361-386. 
10
 Si veda il sito internet http://www.media.mit.edu/hyperins/. 
11
 Richard Boulanger - Max V. Mathews, The 1997 Mathews Radio-Baton & Improvisation Modes in 
Proceedings of the International Computer Music Conference, Tessalonica, 1997. 
12
 Michel Waisvisz, The hands, a set of remote midi-controllers in Proceedings of the 1985 international 
Computer Music Conference, Burnaby, B.C. 1985, pp. 313–318. 
 11 
Laureal S. Pardue, Kai-Yuh Hsiao e Ari.Y. Benbasat13 si sono invece orientati verso il 
rilevamento elettromagnetico della posizione e del movimento di piccoli oggetti, che vengono 
ancora una volta utilizzati per pilotare sistemi di generazione del suono. Sono di grande 
interesse anche le ricerche condotte in seno al progetto europeo IST MEGA14, con il varo 
della piattaforma “EyesWeb”, che consente di estrarre dati in tempo reale dall’analisi del 
segnale proveniente da una telecamera che segue i movimenti di un attore o danzatore. 
Le possibilità sono molteplici e i limiti delle tecnologie sono sempre meno consistenti: 
l’Università di York ha sviluppato un dispositivo universale capace di convertire qualsiasi 
controllo basato sulla resistenza elettrica in messaggi di tipo MIDI e dunque inviarli a un 
qualunque modulo di sintesi sonora o dispositivo informatico posto a valle15. In questo modo 
possiamo immaginare di poter utilizzare come input per la produzione musicale un’infinità di 
sensori, cursori e altri apparati di controllo. 
Per quanto riguarda la direzione macchina-uomo della comunicazione, una strada 
particolarmente significativa è quella seguita al MIT da Eric Gunther e Sile O’Modhrain, i 
quali hanno pensato di servirsi del senso del tatto come mediatore per la fruizione estetica 
delle composizioni. In quest’ottica hanno dunque progettato e realizzato dei dispositivi utili a 
comporre e fruire opere in una forma di comunicazione, derivata dalla musica ma mediata 
dalle impressioni tattili16.  
 
I sistemi sopracitati sono generalmente orientati alla performance e operano 
praticamente sempre in real-time. L’evoluzione delle tastiere elettroniche ha portato novità 
utili anche a chi si occupa di musica ma non da esecutore: per esempio le possibilità di 
sequencing, cioè di memorizzazione e successiva riproduzione degli eventi musicali. Quando 
la funzione non è già inclusa nel set di una tastiera musicale, si può ricorrere ad un apposito 
dispositivo separato, in grado di registrare e riprodurre eventi MIDI. Con questo incremento 
di funzioni e con le possibilità di editing del suono progressivamente incorporate, le tastiere 
elettroniche sono divenute sempre più complesse e per questo le più dotate funzionalmente 
sono state categorizzate sotto l’appellativo di workstation: i primi celebri modelli di questa 
                                                 
13
 Joseph A. Paradiso - Laureal S. Pardue - Kai-Yuh Hsiao - Ari. Y. Benbasat, Electromagnetic tagging for 
electronic music interfaces in «Journal of New Music Research», vol. 32 (2003), number 4, pp. 395-409. 
14
 Per maggiori informazioni sul progetto si veda il sito http://www.megaproject.org. 
15
 M. & R. Abbotson, P.R Kirk, AD Hunt, A Cleaton, Computer Music in the service of Music Therapy: The 
MIDIGRID and MIDICREATOR systems in «Medical Engineering Physics», vol. 16 (May 1994), p. 253 ss. 
16
 Cfr. Eric Gunther - Sile O’Modrian, Cutaneous grooves: composing for the sense of touch in «Journal of New 
Music Research», volume 32, number 4 (December 2003), pp. 369-381.