6
attiene all’ipotetico sviluppo di quella che viene definita la “società
dell’informazione”.
Segnatamente, saranno fatti oggetto di più dettagliata trattazione la firma
digitale e il contratto telematico, con particolare riguardo ai rapporti
funzionali intercorrenti tra tali elementi e alle loro possibili applicazioni.
Nel primo capitolo si esporranno, dunque, la “genesi” di Internet e i
conseguenti effetti della sua diffusione.
Nel secondo capitolo si tenterà di fornire un’analisi delle caratteristiche
tecniche poste a fondamento della firma digitale e di illustrare le possibili
applicazioni dei sistemi di crittografia asimmetrica e le relative
implicazioni pratiche.
Una più dettagliata analisi della normativa vigente in materia in Italia e
negli Stati Uniti sarà oggetto del terzo capitolo.
Infine, nel quarto capitolo si tratterà del contratto telematico, dando
particolare rilievo alla sua applicazione nel contesto dei mercati finanziari.
Si è scelto di fare riferimento a questo specifico settore in ragione
dell’immaterialità che contraddistingue tanto lo strumento telematico
quanto l’oggetto stesso delle transazioni finanziarie, talché è corretto
affermare che, almeno a livello concettuale, esiste una forma di omogeneità
tra l’uno e le altre.
In conclusione verranno esposte le considerazioni cui lo svolgimento del
presente lavoro mi ha indotto.
Sono state inoltre predisposte due appendici: la prima indica le leggi in
materia di firma elettronica e firma digitale attualmente vigenti nei 51 Stati
dell’Unione; la seconda mostra le differenze intercorrenti tra il DPR 513/97
e lo “Schema di Testo Unico delle disposizioni legislative e regolamentari
7
in materia di documentazione amministrativa” approvato dal Consiglio dei
Ministri il 25 agosto 2000.
La ricerca si è basata, oltre che su materiale bibliografico nazionale anche e
soprattutto su pubblicazioni, surveys e articoli disponibili esclusivamente
sul Web.
Sono stati presi come riferimento anche quotidiani e riviste economiche e
finanziarie, al fine di comprendere le dinamiche in atto, sia dal punto di
vista accademico sia da quello dell’utente “comune”.
8
PARTE I - ANALISI TECNICA
9
CAPITOLO I
L’EVOLUZIONE TECNOLOGICA
10
1.1 INTERNET E IL WORLD WIDE WEB
Internet costituisce un fenomeno di carattere tecnologico,
comunicativo e socioculturale la cui immane portata è di palmare evidenza
per chiunque.
Le origini di questo diffusissimo strumento, come del resto della maggior
parte delle innovazioni tecnologiche, si collocano nel terreno della ricerca
militare.
Infatti, fu nel pieno della guerra fredda e come risposta al felice esito del
lancio dello Sputnik che gli Stati Uniti, in perenne competizione con
l’Unione Sovietica, decisero di convogliare consistente parte delle proprie
risorse nel settore dello sviluppo tecnologico.
Nel perseguimento di quest’obiettivo già l’Amministrazione Eisenhower
aveva voluto e istituito, nell’ambito del Dipartimento della Difesa,
l’Advanced Research Project Agency, (ARPA), un’agenzia che aveva lo
scopo di finanziare la ricerca di base nel campo delle tecnologie innovative.
Successivamente, nel 1966, Bob Taylor, dirigente di uno degli uffici interni
dell’ARPA, propose al suo direttore un progetto volto a consentire la
comunicazione e lo scambio di dati e risorse tra i computer dei vari
laboratori universitari finanziati dall’agenzia.
Nacque così quello che potremmo definire l’archetipo di Internet: il
progetto Arpanet.
La diffusa convinzione che la rete dell’ARPA fosse stata ideata e
sviluppata quale strumento di comunicazione tra i centri di comando
11
militari per la trasmissione sicura di informazioni e coordinate balistiche in
caso di conflitto nucleare, è da considerarsi senz’altro erronea.
Nella realtà, l’obiettivo che Taylor con straordinaria lungimiranza si
prefiggeva era quello di incrementare il potenziale del lavoro scientifico,
facilitando la comunicazione tra i ricercatori universitari e la condivisione
delle risorse, con particolare riguardo a quelle informatiche, costose e di
difficile manutenzione.
L’equivoco è probabilmente dovuto al fatto che, nella stesura delle
specifiche, l’informatico incaricato di sovrintendere al progetto Arpanet si
rifece a idee elaborate all’inizio degli anni ’60 da Paul Baran, un ingegnere
esperto in telecomunicazioni che lavorava in un’azienda attiva nel campo
della vendita di tecnologie militari fin dalla seconda guerra mondiale.
In particolare, nell’ideazione di un sistema di telecomunicazione capace di
resistere ad un eventuale attacco nucleare, Baran aveva elaborato l’ipotesi
di una rete distribuita in cui ciascun nodo
1
fosse collegato ad almeno altri
quattro, restando ciononostante assolutamente autonomo e in grado di
continuare a ricevere, elaborare e trasmettere informazioni anche in caso di
danneggiamento dei nodi vicini.
Le informazioni trasmesse da un nodo all’altro inoltre avrebbero dovuto
essere suddivise in molteplici parti, o “pacchetti di bit”
2
, così da poter
1
Nodo o host è il nome con cui si definiscono i computer collegati stabilmente a Internet attraverso reti a
questo esclusivamente dedicate
2
Bit, contrazione di binary digit, “cifra binaria”, è l’unità base dell’informazione per tutti i computer.
Poiché i calcolatori capiscono solo due condizioni, ossia il passaggio di corrente elettrica o l’assenza di
tale passaggio, questi due stati di sollecitazione (e.g. 5 volt o 0 volt) vengono tradotti nel linguaggio
aritmetico come un insieme di 0 e 1, cioè di bit. L’intuizione di eseguire operazioni logiche e manipolare
l’informazione con i circuiti del computer utilizzando i soli bit è da attribuirsi a Claude Shannon. Il bit
viene indicato anche con la lettera minuscola b.
12
viaggiare separatamente attraverso più percorsi ed essere infine ricomposte
una volta giunte a destinazione.
Quest’ipotesi, fino allora inattuata, costituì la spina dorsale su cui si
articolò il progetto Arpanet, la cui fase esecutiva prese il via nel 1969.
I primi due nodi attivi della rete misero in collegamento l’Università della
California e lo Stanford Research Institute.
Al Network Working Group, un gruppo composto da specializzandi e
giovani ricercatori delle prime università partecipanti al progetto, fu
affidato l’incarico di sviluppare i protocolli per il funzionamento della rete.
Il primo protocollo per la comunicazione tra i nodi fu il Network Control
Protocol (NCP), cui seguirono il File Transfer Protocol, il protocollo
Telnet
3
e i primi protocolli di posta elettronica.
Nel 1972 i nodi di Arpanet erano già 37.
L’anno successivo, il 1973, vide la nascita di un nuovo protocollo per la
comunicazione di base destinato ad essere utilizzato fino ai giorni nostri. Il
Tranfer Control Protocol/Internet Protocol, (TCP/IP), consentiva in modo
semplice ed efficiente l’integrazione di reti e mezzi di comunicazione
differenti in un unico ambiente comunicativo, ed è proprio a questa
caratteristica che si deve lo sviluppo della rete per come la conosciamo
oggi.
Nel corso degli anni ’80 molte innovazioni seguirono.
Le sponsorizzazioni della National Science Foundation resero possibile la
costruzione di reti tra le università americane, nonché la loro connessione
ad Arpanet.
3
I Protocolli FTP e Telnet servivano rispettivamente per il trasferimento di file e per l’emulazione di
terminale
13
Nel 1983, per motivi di sicurezza militare, Arpanet fu scissa in due rami,
uno prettamente militare, Milnet, e uno di ricerca.
Il felice esito di tutte queste operazioni indusse allora la National Science
Foundation a costruire una nuova rete che costituì la spina dorsale su cui
andarono ad innestarsi le ormai numerosissime interreti universitarie.
L’accesso a questo nuovo sistema fu concesso gratuitamente ai consorzi di
università dotati di reti localizzate. Così, nel 1985, nacque NSFnet,
l’infrastruttura portante di Internet.
Il decennio successivo vide il sempre maggior coinvolgimento delle
aziende private nel campo delle telecomunicazioni. Molte imprese
cominciarono a costruire proprie dorsali
4
sempre più veloci e a vendere ad
altri privati l’accesso alla rete.
Nel 1995, infine, anche NSFnet fu ceduta a un privato.
Ma un’altra significativa innovazione, destinata a rivoluzionare
radicalmente il mondo della rete, stava prendendo forma.
Il CERN di Ginevra, al fine di facilitare la comunicazione tra la comunità
scientifica dei fisici, era, a quel tempo impegnato nella realizzazione di un
sistema che consentisse la pubblicazione di documenti testuali
interconnessi sui nodi della rete.
Tale sistema fu chiamato World Wide Web.
4
Esistono vari tipi di reti che si distinguono sulla base della loro estensione fisica. Sotto questo aspetto si
individuano due classi principali: “rete locale” o LAN (Local Area Network), a estensione limitata, e “rete
geografica” o WAN (Wide Area Network), distribuita su aree molto grandi cui si connettono intere reti
locali. A questo secondo gruppo appartengono appunto le “dorsali” o backbones che, come il nome
stesso suggerisce, sono reti estese e particolarmente veloci su cui vanno a innervarsi molteplici reti
minori.
14
Agli inizi del 1993 due dottorandi del National Center for Supercomputing
Applications dell’Università dell’Illinois
5
svilupparono Mosaic, la prima
interfaccia
6
grafica per l’accesso ai documenti presenti sul Web.
Mosaic fu messo in rete con la possibilità per tutti gli utenti di scaricarlo
gratuitamente.
La fondamentale importanza di questo programma software, precursore
dell’odierno browser
7
, risiedeva nella sua capacità di rendere possibile
l’utilizzo di Internet anche a quella significativa percentuale di utenti
inesperti che sarebbe altrimenti rimasta tagliata fuori, perché tecnicamente
impreparata a “leggere” le informazioni presenti in rete.
In altre parole, Mosaic è uno strumento complementare al Web e capace di
“tradurne” il linguaggio in termini semplici e accessibili a chiunque.
Tutti noi sappiamo approssimativamente cosa sia e come funzioni, tuttavia,
definire Internet in modo semplice ed esaustivo in riferimento alla
tecnologia che ne costituisce il fondamento e che ha reso possibile la sua
straordinaria diffusione non è impresa altrettanto facile.
5
Si trattava di Eric Bina e di Marc Andressen, quest’ultimo oggi meglio conosciuto come creatore di
Netscape.
6
Il termine “interfaccia” è polisemantico. Per quanto maggiormente attiene al discorso, mi limiterò a
riportarne i due seguenti significati: 1) in generale possiamo dire che “interfaccia” designa il punto di
passaggio fra due zone di un sistema o fra due sistemi in cui vengono adattate informazioni, impulsi e
segnali in modo tale da essere compresi dalla parte ricevente, dopo una trasmissione. In riferimento a
Mosaic, più specificamente, mi sembra preferibile definire “interfaccia” l’entità che si interpone, ad
esempio, tra processi. Nei linguaggi di programmazione, infatti, l’interfaccia definisce parametri e
risultati, ad esempio di una funzione, ma non dice niente su come questa funzione venga implementata.
7
Il browser, dall’Inglese to browse, “scorrere”, è un programma che consente di richiamare dalla rete le
pagine che l’utente desidera consultare visualizzandone il loro contenuto. Si tratta appunto di
un’interfaccia grafica.
15
Semplificando al massimo, possiamo dire che Internet è una “rete di reti
telematiche”.
Si tratta, infatti, di un’infrastruttura complessa le cui differenti componenti
si esprimono nella stessa lingua, il protocollo comune TCP/IP, allo scopo di
collegare in tutto il mondo migliaia di reti basate su tecnologie e
infrastrutture differenti e renderle capaci di scambiare dati.
Altra caratteristica di Internet è il suo essere topologicamente distribuita,
cioè l’avere in sé una molteplicità di percorsi che i dati possono compiere
per arrivare da un punto P a un altro P1.
I vari punti topologici interni alla rete sono comunemente definiti “nodi” o
host
8
.
Infine, oltre agli host veri e propri, altri innumerevoli computer si collegano
alla rete in modo temporaneo ed è questa l’“utenza domestica” di cui più o
meno tutti siamo parte.
A titolo esemplificativo potremmo assimilare Internet ad un sistema
d’interconnessione tra reti diverse qual è la rete ferroviaria.
Immaginando Internet e le “sottoreti” che la compongono come una sorta
di sistema ferroviario mondiale, costituito dalla somma di tutti i sistemi
ferroviari nazionali, è intuitivo come, affinché i treni possano circolare da
una rete nazionale all’altra, è necessario che queste ultime abbiano, ad
esempio i binari con lo stesso scartamento, che i differenti enti ferroviari si
accordino sugli orari in cui far passare i treni e così via.
In altre parole bisogna che esistano delle norme comuni, vale a dire dei
protocolli.
8
Sulla nozione di host S.V. supra, Nota 1 Pag.10.
16
Continuando nella similitudine proposta, potremmo dunque dire che le
stazioni corrispondono ai nodi della rete, cioè agli host.
Ogni stazione di media grandezza è generalmente collegata a più stazioni
periferiche, allo stesso modo in cui, per lo più, ogni host in Internet è
collegato a svariati altri.
Così, ad esempio, volendo andare da Milano a Torino si può prendere la
linea che passa lungo la costa tirrenica, ma, se i posti fossero esauriti, si
potrebbe comunque passare per Milano lungo la linea che transita da
Firenze e Bologna e, di lì, tornare verso Torino.
Il percorso corretto che ogni messaggio deve seguire viene individuato dai
computer delegati allo smistamento dei dati in base a uno “schema di
indirizzamento” dei computer collegati alla rete.
Si tratta di un meccanismo non dissimile da quello utilizzato dai comuni
servizi postali. Ogni host, infatti, è dotato di un proprio indirizzo univoco
costituito da una sequenza di quattro numeri da zero a 255 e la struttura di
questo “indirizzo” consente di trovare la strada giusta
9
.
I messaggi, inoltre, non viaggiano tutti interi, ma secondo una modalità che
viene definita “commutazione di pacchetto”.
“Commutazione” è il termine tecnico impiegato per indicare il
trasferimento di informazioni lungo una rete da un nodo all’altro: i
messaggi così inviati vengono smembrati in pacchetti autonomi, ciascuno
dei quali è contrassegnato con un “numero d’ordine”.
I singoli pacchetti possono anche prendere strade differenti e arrivare
all’indirizzo finale in un ordine diverso da quello originario.
9
Ad esempio, il sito del portale italiano di Microsoft, www.msn.it, si trova all’indirizzo 207 46 176 150.
17
Una volta giunti a destinazione l’host ricostruisce il messaggio originale
ricomponendo l’ordine dei vari pacchetti in base al loro numero d’ordine.
A sovrintendere alle operazioni di indirizzamento dei computer e di
instradamento e segmentazione dei messaggi su Internet è proprio il
protocollo TCP/IP.
La tecnologia e i principi di funzionamento di Internet, nonché l’ampiezza
di vedute che ha sempre caratterizzato l’attività e le scelte dei suoi creatori,
ne hanno reso possibile quello sviluppo che ha infine reso la rete uno
spazio di comunicazione planetario, variegato e orizzontale.
Negli ultimi anni, il numero di host, di utenti e il conseguente volume di
traffico è andato crescendo con una rapidità impressionante.
Questo fattore, congiuntamente alla quantità di risorse di rete necessaria per
il funzionamento delle applicazioni più recenti
10
, hanno infine
congestionato la rete portandola prossima al collasso.
Questa circostanza, tuttavia, era già stata prevista proprio negli Stati Uniti
dove, già da anni, è allo studio il processo di rinnovamento.
Internet II è un progetto che coinvolge istituzioni governative e federali
americane, oltre a decine e decine di università e di aziende del settore
dell’informatica e delle telecomunicazioni.
Il programma mira principalmente ad aumentare sensibilmente la banda
passante delle connessioni di rete, a riarchitettare le strutture hardware e
software, nonché la messa a punto del protocollo IP (Internet Protocol).
10
Si pensi ai servizi interattivi e multimediali quali il video a richiesta, le teleconferenze, il commercio
elettronico nonché, da ultimo, allo straordinario successo della cosiddetta New Economy che, soprattutto
nel nostro Paese, ha determinato un incremento esponenziale delle richieste di connessione.
18
La versione attuale, infatti, ha quasi totalmente esaurito il numero di
indirizzi di rete disponibili, limitando così il numero di nuovi computer che
potranno essere collegati a Internet.
1.2 IL DIRITTO NEL CYBERSPAZIO
Il termine “cyberspazio” è frutto della fantasia dello scrittore di
fantascienza William Gibson, che per la prima volta lo introdusse nel 1984.
Nel romanzo Neuromancer
11
l’autore definisce il cyberspazio (nel testo:
cyberspace) come: “Un’allucinazione consensuale…una rappresentazione
grafica di dati tratti dalle banche dati di ogni computer nel sistema
umano”.
Così concepita, questa realtà appare essere uno “spazio informativo” con
una caratteristica del tutto peculiare. Oltre infatti ad essere spazio al cui
interno è possibile consultare informazioni, è spazio fatto di informazione.
Astraendo dalla definizione gibsoniana, possiamo dire che il cyberspazio è
il luogo di organizzazione e condivisione di un particolare tipo
d’informazione: un’informazione multimediale e interattiva.
11
Il romanzo di Gibson, nella traduzione italiana “Neuromante”, è ambientato in un futuro in cui i
l’evoluzione dell’informatica ha portato alla creazione di un vero e proprio “spazio informativo”
elettronico e sostanzialmente indipendente dallo spazio fisico: la “Matrice”. Questo cyberspazio è gestito
dai computer ed è popolato da programmi e da rappresentazioni virtuali delle persone che entrano in esso
attraverso l’uso di apposite interfacce basate su un collegamento diretto fra cervello e computer. Da
quest’opera è stato recentemente ispirato il pluripremiato film Matrix.
19
Nella rete, infatti, si trovano tutte le forme di informazione e ogni computer
è in grado di utilizzarle e manipolarle, si tratti di testi, immagini, filmati,
suoni o programmi informatici.
Inoltre è interattiva, poiché non solo rende ogni utente capace di essere sia
emittente che destinatario dell’informazione, ma gli dà la possibilità di
intervenire attivamente sull’informazione stessa modificandola nelle forme
e nei tempi di fruizione, cioè quando la ascolta, la legge, la guarda etc, in
relazione alle sue personali preferenze e necessità.
Ma, soprattutto, quella del cyberspazio è informazione codificata in
formato digitale
12
e che viaggia attraverso reti di trasmissione digitali, vale
a dire della stessa natura dell’informazione che veicolano.
Mancando questa caratteristica, nessun’apprezzabile differenza sarebbe
riscontrabile tra lo spazio di cui trattiamo e un qualsiasi altro spazio
informativo come, ad esempio, una comune biblioteca.
Tuttavia, mentre in un libro o in un giornale l’informazione è inscindibile
dal proprio supporto cartaceo, il proprium dell’informazione in formato
digitale consiste nel suo essere autonoma, totalmente incorporea e, come
tale, capace di riprodursi e di viaggiare attraverso le reti telematiche, di
essere trasferita da supporto a supporto, da computer a computer e, nel
corso di questo processo, di arricchirsi e modificarsi.
12
Digitale è l’informazione che utilizza segnali discreti per rappresentare dati quali testo, immagini,
suoni, video etc. in forma di numeri binari, cioè di bit. Digitalizzare un suono, per esempio, significa
prenderne dei campioni (sampling) misurandone l’intensità a intervalli regolari di tempo.