da questi è necessario muovere per cercare di cogliere se non la
soluzione, che forse nemmeno esiste, quantomeno un giusto
approccio che renda possibile l’equilibrio necessario a valutare i
reali interessi in gioco e a studiare possibili rimedi al problema.
Lo scopo di questo lavoro è proprio quello di suggerire alcuni
punti dai quali non prescindere e per analizzare il fenomeno e per
tentare di comprenderlo. Questi punti investono molteplici aspetti,
tutti meritevoli di eguale attenzione: in primis quello filosofico-
ideologico, che consta delle idee poste alla base delle tecnologie
oggi accusate di rendere possibili le violazioni. Tali idee sono le
medesime che hanno sin dall’inizio animato i pionieri della Rete e
gli individui che hanno lavorato perché il progetto di una rete di
comunicazione mondiale potesse nascere. I sistemi alla base del
file-sharing sono i medesimi pensati per la rete che precedette
l’Internet moderna. Il ritorno a queste tecnologie suggerisce
importanti riflessioni su quello che gli uomini chiedono alla
comunicazione del futuro.
In secondo luogo, va trattato l’aspetto tecnologico-tecnico,
irrinunciabile al fine di comprendere il reale funzionamento delle
tecnologie che rendono possibile il file-sharing. L’aspetto tecnico
verrà trattato congiuntamente a quello legale, poiché le vicende
giudiziarie che hanno messo sotto accusa questi sistemi (il più
illustre è stato Napster) hanno reso e rendono necessario che i
giudici comprendano cosa questi sistemi offrono in concreto agli
utenti e quale rilievo debba attribuirsi al comportamento di coloro
che di questi sistemi, sono gli sviluppatori.
In ultima analisi, si volgerà lo sguardo alle risposte che il mondo
legislativo ha sino ad ora dato a questo fenomeno. Si analizzerà
parte della normativa americana e comunitaria ispirata ai trattati
WIPO, grazie alla quale la protezione accordata al diritto d’autore
si sarebbe dovuta adeguare alle nuove possibili minacce portate
dalla tecnologie moderne. Si cercherà di comprendere se il
contemperamento degli interessi in gioco sia davvero
caratterizzato dal giusto equilibrio e se le norme non invadano
eccessivamente la sfera di libertà degli individui. Nello stesso
tempo, si valuterà la natura e l’efficacia delle misure tecnologiche
studiate per proteggere i diritti degli autori. Da ultimo, prima di
tracciare alcune brevi conclusioni, si volgerà lo sguardo alle
possibili soluzioni sul versante della contrattualistica, un aspetto
certamente interessante per promuovere la completa legalità dei
sistemi di file-sharing.
Introduzione
Da sempre l’essere umano ha nutrito il desiderio naturale di
esprimere in varie forme ciò che prova, ciò che sente, ciò che
spera, ciò che immagina.
Gli stati d’animo e le idee più reconditi sono stati palesati.
Cionondimeno non sempre gli stessi sono stati compresi dalla
maggioranza. Essi hanno preso forma, sono usciti allo scoperto,
concretizzandosi a volte in un quadro, a volte in una canzone, a
volte in un manoscritto. Quel prendere forma e quel concretizzarsi
hanno fatto sì che potessero essere ammirati, fruiti, scambiati e
venduti, ma contemporaneamente anche copiati, rubati o alterati.
La materialità dell’opera ha da sempre caratterizzato le vicende
dell’opera stessa.
Da oltre cinquecento anni, l’uomo avverte il bisogno di tutelare le
proprie idee: l’idea dell’individuo o meglio, la sua opera.
Concepire una definizione per l’opera dell’ingegno è sempre stato
un arduo compito. Opera è di certo qualcosa che nasce
dall’individuo, che è strettamente e intimamente legata
all’individuo, generata dallo suo stesso animo. Perciò
caratterizzata da originalità. Si potrebbe affermare che un’ opera
innova il precedente stato delle cose, che costituisce cosa nuova.
Quale la linea di demarcazione tra la copia e l’opera originale?
Questo tema non incrocia i binari sui quali la presente trattazione
scorre. E viene da dire, fortunatamente. Tuttavia pare doveroso
inserire considerazioni di questo tenore affinché l’approccio alla
materia sia consapevole della relatività della concezione di opera,
di autore, nonché dei conseguenti diritti che da questa distinzione
scaturiscono.
Il modo di tutelare l’idea si è oggi consolidato, seppur con
rilevanti differenze a seconda dell’ordinamento giuridico preso in
esame, nel conferire diritti esclusivi a colui che dell’opera è
autore. Ma l’opera ha avuto sempre una sua materialità. E,
implicitamente lo abbiamo già sottolineato. Dicevamo il quadro, lo
spartito, il manoscritto. Ciò ha consentito che fossero individuati
univocamente l’opera, l’autore, e quindi chi del diritto era titolare
e poteva legittimamente farlo valere. Un signore di nome Barlow,
che ha firmato la dichiarazione di indipendenza del cyberspazio
1
alcuni anni or sono, ha sempre sostenuto che ad essere protetta non
fosse l’opera, bensì il contenitore dell’opera medesima. Dunque
per citarlo non il “vino”, bensì “la bottiglia”.
Con l’avvento della tecnologia digitale è accaduto che ogni opera
sia essa fotografica, sia essa musicale, sia essa scritta, potesse
essere ridotta ad un cumulo invisibile di bytes (entità
1
Della Dichiarazione di Indipendenza del Cyberspazio, di J. P. Barlow, si tratterà
nel dettaglio al cap. 1, par. 3.
assolutamente più vicina all’astratto che al concreto) e che potesse
viaggiare all’interno di una banale linea telefonica da un capo
all’altro del mondo. Questo, con l’avvento di Internet, è divenuto
realtà.
L’opera ha perduto dunque la sua materialità. Il tutto è avvenuto
molto in fretta e ora impedire la circolazione, l’uso non
autorizzato o la copia di un’opera è diventato un problema
piuttosto serio e piuttosto complesso. L’autore assiste ad una
circolazione non autorizzata del proprio lavoro e ha molti limiti
nel controllare ciò che accade. Ciò fa sì che spesso, scoperta la
violazione dei diritti a lui spettanti, egli sia impossibilitato persino
a dare un volto al suo avversario in tribunale.
Il vino circola, parafrasando Barlow, senza bottiglia. È anche vero
che se lo scopo di tutto è proteggere l’idea, questa certo non viene
alterata con un uso non autorizzato. Parole simili pronunciò anche
Thomas Jefferson.
CAPITOLO I
L’ORIGINE DELL’IDEA DI CYBERSPAZIO
C’erano tre terminali allineati l’uno vicino all’altro, tutti di
marche diverse e connessi ad un cervellone centrale che girava in
tre luoghi separati. C’era una telescrivente IBM Selectric
modificata collegata ad un computer collocato al Massachussetts
Institute of Technology (MIT) a Cambridge. Poi c’era una
telescrivente Model 33, simile ad una scrivania di metallo che
conteneva una rumorosa macchina per scrivere, collegata ad un
computer dell’Università della California a Berkeley. Infine c’era
una telescrivente Model 35 collegata ad un computer a Santa
Monica, in California, misteriosamente denominata An/Fsq
32xd1a, ma con il soprannome di Q-32, una grossa macchina
costruita dall’Ibm per il comando aereo strategico. Ogni
terminale nell’ufficio di Taylor era una estensione di un ambiente
informatico differente – differenti linguaggi di programmazione,
differenti sistemi operativi e così via – all’interno di ciascun
mainframe remoto.
Ognuno aveva una procedura d’accesso differente. Taylor le
conosceva tutte ma trovava seccante dover ricordare quale
procedura di collegamento usare per quale computer. Ed era
ancora più scomodo, una volta entrati, essere costretti a ricordare
quali comandi appartenevano a ciascun ambiente informatico.
Questa era una routine particolarmente frustrante quando aveva
fretta, il che succedeva quasi sempre.
“Diventò ovvia”, - ricorda Taylor molti anni dopo, “la necessità
di trovare un modo per collegare tutte queste macchine diverse”.
(Tratto da K. Hafner, M. Lyon, Where wizards stay up late. The
origins of the internet, New York, Touchstone, 1998).
1.1 La “nascita” di Internet
L’avventura che ha dato vita alla “Rete delle Reti”
2
non si può
ridurre alla semplice realizzazione di un progetto militare
3
.
.
Più
che una conquista tecnologica delle forze armate, Internet è stata,
ed è tuttora, la conquista umana e culturale di un gruppo di
persone che hanno creduto nel networking
4
in un periodo storico
nel quale parlare di condivisione delle risorse suonava come
un’eresia. Nel 1958 il presidente degli USA Eisenhower istituì
l’Advanced Research Project Agency (ARPA), la cui missione era
quella di ristabilire il primato scientifico e tecnologico
statunitense seriamente minacciato dall’Unione Sovietica, che nel
1957 aveva provveduto al lancio del primo satellite orbitante: lo
Sputnik. Ben presto ARPA si trovò ad essere preposta allo
sviluppo di una rete di comunicazione in grado di resistere al
bombardamento nucleare e che avrebbe dovuto garantire la
continuità nei contatti tra località diverse. Verso la metà degli anni
2
Internet è definita, e al tempo stesso soprannominata, con questa locuzione, che sta
ad indicare quanto la stessa forza di Internet sia la sua non omogeneità e il suo non
esistere in quanto unica struttura, ma in quanto insieme di strutture tra loro collegate
e indipendenti l’una dall’altra.
3
Cfr. Carlo Gubitosa, La vera storia di Internet, ApogeOnLine, 1999. Pubblicazione
reperibile integralmente al sito Internet: http://pdf.apogeonline.com/ebook-
/2001/90006/pdf/StoriaInternet.pdf (sito consultato il 21 Settembre 2002).
4
Per networking si intende l’utilizzo di reti telematiche quale standard
comunicativo.
Sessanta, prima che altri studiosi avessero iniziato a progettare una
rete di computer, due ricercatori, Paul Baran e Donald Davies - del
tutto estranei l’uno all’altro e che inseguivano fini diversi in
continenti diversi – elaborarono la stessa idea rivoluzionaria di un
nuovo tipo di rete di comunicazione. La realizzazione dei loro
concetti fu nota con il nome di rete a “commutazione di
pacchetti”. Al suo insediamento al Pentagono
5
, Baran trovò dei
progettisti che, a mente fredda, prevedevano scenari post attacco e
facevano delle stime quantitative delle devastazioni risultanti da
un attacco sovietico con missili balistici nucleari
.
“La possibilità
di una guerra esiste, ma si può fare molto per ridurre al minimo le
conseguenze”, scrisse Baran. “Se la guerra non significa la fine
della terra in termini di bianco e nero, ne consegue che dovremmo
fare di tutto per alleggerire quanto più possibile la tonalità di
grigio: ciò significa progettare ora per minimizzare la distruzione
potenziale e fare tutto il necessario per consentire ai sopravvissuti
all’olocausto di scrollarsi di dosso la cenere e ricostruire in fretta
l’economia”. Baran era alla ricerca di soluzioni che garantissero la
comunicazione tra autorità politiche e militari degli USA anche in
caso di attacco atomico. In sostanza si doveva assicurare la
continuità del flusso informativo anche nell’ipotesi in cui alcuni
5
K. Hafner, M. Lyon, La storia del futuro: le origini di Internet, traduzione di
Giuliana Giobbi, Milano, Feltrinelli, 1998.
elementi che componevano la struttura comunicativa fossero
andati distrutti. Il cervello umano e le sue reti neurali offrivano un
modello congeniale di come, in presenza di cellule malate, la
comunicazione non dovesse necessariamente arrestarsi. Le
funzioni cerebrali non poggiano su una sola, unica serie di cellule
specifiche. È per questo che le cellule danneggiate possono essere
evitate, mentre le reti neurali si ricreano su nuovi percorsi
all’interno del cervello. Partendo da tali considerazioni, Baran
arrivò a concepire quel modello di rete che si contrappone alla
classica rete centralizzata e persino a quella decentralizzata,
prospettando una rete distribuita
6
. La comunicazione all’interno di
una rete di computer poteva così non dipendere unicamente da un
nodo centrale (rappresentato ovviamente da un computer), ma
poteva seguire centinaia di percorsi differenti poichè nessun nodo
era fondamentale. Grazie al modello di una rete distribuita, la
comunicazione era in grado di non risentire del danneggiamento o
del cattivo funzionamento di uno dei suoi nodi
7
.
La seconda grande idea di Baran fu ancora più rivoluzionaria:
frazionare anche i messaggi (o meglio il flusso di dati). Dividendo
6
Dallo studio delle reti neurali, Baran ricava un modello che battezza con il nome di
“rete distribuita” (distributed network), caratterizzata dalla possibilità che i
messaggi in transito possano seguire ogni volta percorsi differenti a seconda
dell’intensità del traffico.
7
Cfr. Norberg, O’neill, Trasforming Computer Technology:Information Processing
for the Penthagon, 1962-1986, Johns Hopkins University Press,1996.
ogni messaggio in più parti
8
, si poteva far circolare nella rete
quelli che lui definiva “blocchi di messaggi”, che procedono in
varie direzioni verso le loro destinazioni finali. Al loro arrivo, il
computer destinatario avrebbe riunito i frammenti dei messaggi
ricevuti in forma leggibile. Questo consentiva anche di sfruttare in
maniera più efficace le reti utilizzate in quegli anni. All’epoca
infatti, tutte le reti di comunicazione erano a commutazione di
circuito, il che significava che una linea di comunicazione era
riservata esclusivamente per una chiamata alla volta e tenuta
aperta per tutta la durata di quella chiamata. Una telefonata tra due
ragazzine ad esempio, occupava una linea in modo esclusivo per
tutto il tempo in cui si commiseravano per le rispettive vicende
sentimentali e si raccontavano aneddoti sulle loro rivali, persino
durante le pause della conversazione. Tecnicamente questo era
sensato poiché la gente tende a mantenere vivace la conversazione
durante una telefonata.
Un flusso di dati tra elaboratori elettronici presenta caratteristiche
ben diverse. Normalmente scorre a scatti seguiti da brevi pause
che lasciano la linea inattiva per la maggior parte del tempo,
sprecando l’ampiezza di banda, vale a dire la capacità della linea
8
Cfr. Necci, La storia di Internet, reperibile sul sito del Dipartimento di Informatica
ed Automazione dell’Università di Roma all’URL: http://www.dia.uniroma3.it (sito
consultato nell’ottobre 2002).
medesima. Ciò comporta un uso molto inefficiente di una
connessione a lunga distanza. Baran, allo scopo di sfruttare
pienamente la capacità delle linee, adottò una metodologia di
comunicazione basata sulla condivisione dello stesso canale dai
dati di più interlocutori, attraverso la frammentazione dei loro
messaggi. Un messaggio era diviso in molteplici blocchi che poi
sarebbero stati riassemblati a destinazione. Dal momento che
erano disponibili molti canali sui quali i vari blocchi potevano
essere trasmessi, gli stessi sarebbero potuti arrivare in una
sequenza errata, perciò i diversi frammenti dovevano
necessariamente essere rimessi in ordine. Per questo motivo, ogni
blocco doveva contenere informazioni che consentissero di
identificare la parte del messaggio cui apparteneva. Le cd. tabelle
di routing avrebbero instradato il blocco secondo il percorso più
conveniente. I passaggi sopra riportati descrivono efficacemente il
modello di funzionamento di Internet
9
. Lo sviluppo di una rete con
queste caratteristiche incontrò resistenze di ogni tipo che oggi
difficilmente siamo in grado di comprendere. L’esempio più
eclatante è quello della vicenda che coinvolse la AT&T
(compagnia telefonica nazionale degli USA), la quale avrebbe
9
Cfr. AA.VV., A Brief History of the Internet, pubblicata sul sito Internet della
Internet Society, all’indirizzo http://www.isoc.org/internet/history/brief.shtml#LK61
(sito consultato nel dicembre 2002).
dovuto prendere parte al progetto e allo sviluppo della rete, dal
momento che era fondamentale, da un punto di vista tecnico,
procedere attraverso le sue linee telefoniche. Ma ciò non avvenne,
i dirigenti della AT&T insistettero sul fatto che il progetto non
avrebbe potuto funzionare in alcun modo.
Nel corso del 1968 l’Arpa divulgò una request for proposal (una
vera e propria gara di appalto) per mezzo della quale venivano
illustrate ai potenziali costruttori le caratteristiche tecniche dei
primi IMP (Interface Message Processor) necessari per collegare
alla rete i vari nodi. Ognuno di questi doveva essere costituito da
un calcolatore (Host) e un processore dei messaggi di interfaccia
(IMP), vale a dire un particolare computer che gestiva il traffico in
rete.
L’IMP fungeva da intermediario
10
tra linee di connessione e
mainframe, i grandi elaboratori centralizzati su cui all’epoca
risiedevano tutte le informazioni e i programmi. Era proprio l’IMP
che avrebbe reso possibile il frazionamento dei messaggi in
pacchetti di dati in grado di attraversare la rete seguendo percorsi
differenti. A rispondere positivamente alla proposta per la
fornitura degli IMP e del relativo software fu, nel dicembre del
10
Bolt, Beranek and Newman, BBN Report No.1822: Interface Message Processor,
Cambridge, Massachussetts, 1969.
1968, la BBN Corporation
11
, fondata nel 1948 da Bolt, Beranek e
Newman (BBN). Il lavoro svolto dalla BBN rese di fatto possibile
il collegamento di quattro università diverse: UCLA (University of
California at Los Angeles), Stanford University, UCSB (University
of California at Santa Barbara) e la University of Utah.
L’impianto divenne attivo il 2 Settembre 1969 e così nacque
Arpanet. Tutto il traffico che viaggiava su queste connessioni non
era di tipo confidenziale e serviva prevalentemente a titolo di
ricerca e sperimentazione. La commutazione di pacchetti svolgeva
un ruolo chiave: consentiva di prescindere dall’eventuale
danneggiamento di alcuni nodi della rete e di condensare il traffico
in maniera tale da sfruttare in modo continuato e, giustificandone
il costo, ogni linea di collegamento. Il primo protocollo sviluppato
per la commutazione di pacchetto su Arpanet si chiamava NCP
(Network Control Protocol), ma non era particolarmente
efficiente. Col passare del tempo i progettisti di Arpanet
definirono un insieme di circa 100 protocolli per regolare il
trasferimento dei pacchetti e questo insieme si è evoluto in quella
che è oggi nota col nome di Internet Protocol Suite: una raccolta
di standard trasmissivi che verte su due protocolli primari, il
Transmission Control Protocol (Tcp) e l’Internet Protocol (IP),
11
L’ARPA stipulò con la BBN nel dicembre del 1968 un contratto per la fornitura
di hardware e sofware per un valore complessivo di un milione di dollari.
più molti altri secondari che consentono la comunicazione tra
computer e reti molto diverse.
Nel 1972 un altro passo vitale per la nascita di Internet: si trattava
del sistema realizzato dalla Università dello Utah, atto a
controllare un computer a distanza su Arpanet e che rese possibile
trasferire files da un computer all’altro per mezzo del protocollo
FTP (File Transfer Protocol). Combinando TCP/IP ed FTP si era
giunti al coronamento dell’obiettivo tecnologico di Arpanet:
trasferire dati da un punto all’altro della rete. Già nel 1980
Arpanet si trasformò in uno strumento vitale per le università e per
i centri di ricerca americani, che avevano un bisogno sempre
maggiore di scambiare informazioni e di coordinare le proprie
attività. Nacque così la posta elettronica che si affiancava al
semplice trasferimento di files, che aveva costituito la prima
applicazione di Arpanet. Nel 1983 Internet divenne a tutti gli
effetti la “Rete delle Reti”, utilizzando Arpanet come dorsale (rete
ad alta velocità che unisce tra loro altre reti locali). Tuttavia
restavano ancora esclusi tutti quegli atenei che non avevano
rapporti con il Dipartimento della Difesa.