IV
Dagli entusiasmi iniziali, passando attraverso il drammatico ridimensionamento
del mondo delle dot com, siamo arrivati alla situazione attuale caratterizzata da
una fase di consolidamento del settore.
A tale riguardo, e segnatamente per quanto concerne il segmento del B2C
caratterizzato da numerose movimentazioni anche se di entità relativamente
modesta, la sicurezza riveste un ruolo fondamentale.
Questa esigenza ha costretto gli implementatori a sviluppare strumenti di
pagamento sempre più flessibili ed estremamente efficienti.
In questo il mercato è stato molto selettivo: vedremo infatti come numerosi
sistemi di pagamento troppo complessi o macchinosi, nonostante gli slanci
entusiastici iniziali, abbiano avuto vita molto breve.
Argomento cardine nella trattazione dei sistemi di pagamento è dunque la
sicurezza, avvertita come necessità primaria da parte di tutti gli utilizzatori, sia
merchant che semplici clienti.
Ed è proprio la debolezza di questo requisito che, ancora oggi, limita fortemente
la diffusione dell’e-commerce, già penalizzato dall’impersonalità del computer,
principale intermediario durante le transazioni di commercio elettronico.
A frenare oltremodo lo sviluppo di questo strumento concorre l’enorme
proliferazione di azioni fraudolente compiute, servendosi di alcune peculiari
caratteristiche di Internet, a danno degli operatori del settore e dei potenziali
clienti.
Come avremo modo di illustrare, un’altro grosso problema degli strumenti di
pagamento è rappresentato dalla necessità di standardizzare le procedure a
livello internazionale: la Rete si colloca in un contesto mondiale per cui non è
V
possibile ricorrere a strumenti diffusi in ambito nazionale o comunque riservati a
zone geografiche ben delimitate.
Diamo ora un rapido sguardo agli argomenti che abbiamo trattato in questo
lavoro.
Il primo capitolo riporta una breve trattazione del ‘fenomeno Internet’, sia da un
punto di vista prettamente storico (sono evidenziate le tappe fondamentali e le
principali innovazioni che hanno permesso alla Rete di evolversi fino a
raggiungere la situazione odierna) che da un punto di vista demografico
(vengono riportati alcuni dati assai significativi sulla diffusione del Web e sulle
prospettive di sviluppo per gli anni a venire).
Abbiamo ritenuto utile fornire un quadro generale esplicativo della fondamentale
importanza che questo innovativo strumento di comunicazione ha avuto, ha e
avrà in futuro nel contesto della nostra società e del mondo intero.
Nel capitolo successivo presentiamo il commercio elettronico nei suoi molteplici
aspetti: vengono innanzitutto riportate alcune definizioni di e-commerce,
rappresentative di differenti correnti di pensiero, a volte tra loro contrastanti, con
lo scopo precipuo di indurre ad una attenta riflessione su quanto sia difficile
delimitare con precisione i confini e su quanto l’e-commerce sia ormai una
realtà presente nella cultura contemporanea.
Successivamente descriviamo le differenti tipologie e classificazioni di e-
commerce, quindi ne evidenziamo i principali vantaggi e svantaggi con l’intento
di sollecitare una riflessione sui principali tradeoffs a cui vengono assoggettate
le parti coinvolte.
VI
Nel prosieguo illustriamo quella che riteniamo essere la situazione italiana
dell’e-commerce, segnatamente il settore B2C (Business to Consumer) al quale
abbiamo volutamente limitato la nostra indagine conoscitiva essendo quello
maggiormente diffuso e significativo per il nostro Paese.
Il capitolo si conclude affrontando un argomento assai importante e alquanto
delicato, soprattutto in relazione ai recenti fatti di cronaca: la certificazione.
Il compito principale di una società di certificazione è quello di permettere
all’utente finale di superare le barriere di scetticismo e diffidenza che
attualmente limitano drasticamente la diffusione del commercio elettronico.
Durante la realizzazione del presente lavoro più volte abbiamo affrontato il
problema della sicurezza che, oltre ad essere fondamentale per i sistemi di
pagamento, è presente in tutti gli altri aspetti del commercio elettronico.
Come vedremo, le società certificatrici devono porre in essere tutti quei controlli
atti ad indurre nel cliente fiducia nei confronti dei merchant e, specificatamente
per i sistemi di pagamento, a verificare che le procedure di trasferimento dei
fondi su reti aperte avvengano secondo procedure altamente collaudate e
sicure.
Nel terzo capitolo trattiamo ampiamente la crittografia, illustrando dapprima le
motivazioni che hanno portato alla nascita di questa disciplina e, dopo un breve
excursus storico, presentando i più moderni algoritmi di crittografia simmetrica e
asimmetrica in uso.
Della crittografia asimmetrica fa parte la firma digitale, una delle applicazioni
crittografiche più importanti e attualmente molto diffusa soprattutto quando
VII
viene richiesta per il trasferimento sicuro dei più svariati ‘prodotti informatici’ su
reti aperte.
Riteniamo di fondamentale importanza questi argomenti perché forniscono quel
background conoscitivo necessario per poter affrontare una attenta e costruttiva
disamina dei principali sistemi di pagamento successivamente presentati.
Infine il quarto capitolo, che rappresenta il cuore del nostro lavoro, riporta i
diversi sistemi di pagamento nelle differenti forme e sotto vari aspetti.
Dopo un paragrafo introduttivo in cui viene spiegato cosa si intenda con il
termine ‘sistema di pagamento’ e dopo aver presentato alcuni dati significativi
riguardanti l’utilizzo dei vari sistemi nel settore del commercio elettronico B2C in
Italia, vengono descritti in modo esaustivo i differenti sistemi di pagamento,
alcuni datati e ormai desueti che comunque si è ritenuto importante presentare
perché indicativi di un certo percorso evolutivo, ed altri attualmente operativi e
rappresentativi dello stato dell’arte di questa disciplina.
Ampio spazio è stato riservato alla trattazione delle plastic card, sicuramente il
sistema di pagamento attualmente più diffuso nell’ambito del commercio
elettronico.
Vengono poi brevemente descritti gli assegni elettronici e la moneta elettronica.
Abbiamo ritenuto sufficiente fornire una sommaria descrizione, alla luce dell’uso
limitato che viene riservato al giorno d’oggi a questi strumenti che, tuttavia, fino
a pochi anni or sono, sono stati oggetto di numerose sperimentazioni e di
molteplici tentativi di affermazione sul mercato.
Per ultimo è stato dedicato un paragrafo al mobile commerce perché questo
strumento rappresenta la nuova frontiera del commercio elettronico.
VIII
Attualmente il mobile commerce non è sufficientemente indagato, a causa delle
numerose limitazioni che gli odierni strumenti di comunicazione presentano,
anche se le premesse fanno ben sperare per un prossimo futuro ricco di
sviluppi.
Capitolo 1:
Cenni storici su Internet
1.1 LE ORIGINI
L’Unione Sovietica il 4 ottobre del 1957 mise in orbita lo Sputnik I, il primo
satellite artificiale della storia.
Questo evento venne considerato dal Pentagono una vera e propria
umiliazione, sintomo che il progresso tecnologico dei sovietici iniziava a
diventare preoccupante.
Come risposta l’amministrazione Eisenhower alla fine degli anni ’50, cercò di
stimolare con cospicui finanziamenti la ricerca militare nel settore delle
comunicazioni [2].
Nel 1958 il Dipartimento della Difesa degli Stati Uniti, in seguito
all’approvazione del Congresso, creò al proprio interno l’ARPA (Advanced
2 CAPITOLO 1
Research Projects Agency), una divisione per studi scientifici e tecnologici, il cui
obiettivo sarebbe stato quello di ristabilire il primato americano nelle scienze
applicate al settore militare [6].
Così gli scienziati americani iniziarono a studiare un sistema di comunicazione
che potesse resistere ad un eventuale attacco atomico.
Il primo problema che si presentò fu che il cuore del sistema sarebbe diventato
l’obiettivo strategico principale dei nemici che, colpendolo, avrebbero di fatto
eliminato ogni possibilità di collegamento tra le varie parti dell’esercito dislocate
in aree distanti fra loro.
Nel 1964 Paul Baran, uno studioso dell’ARPA, propose che la rete non
dovesse avere alcuna autorità centrale (sistema acefalo) e avrebbe dovuto
essere concepita in modo da operare in un contesto di instabilità (cioè la rete
avrebbe dovuto essere perfettamente funzionante anche qualora uno o più nodi
della stessa fossero stati scollegati per un qualsiasi motivo) [11].
Per ottenere questi requisiti era necessario che i nodi fossero indipendenti,
avessero pari gerarchia e fossero capaci di generare, inviare e ricevere
messaggi.
I messaggi andavano scomposti in pacchetti di lunghezza prefissata, contenenti
ognuno informazioni riguardanti il mittente, il destinatario e l’ordine in cui
sarebbero dovuti essere ricomposti [4].
In questo modo ogni pacchetto sarebbe diventato un’entità a sé stante, in grado
di viaggiare in rete in maniera completamente autonoma.
Non era importante che tutti i pacchetti che componevano un determinato
messaggio rimanessero uniti durante il percorso e non era nemmeno
CENNI STORICI SU INTERNET 3
indispensabile che arrivassero nella sequenza originale poiché le informazioni
contenute al loro interno sarebbero state sufficienti per ricostruire l’esatto
messaggio originale.
Due sono i vantaggi immediati che si ricavano da questo sistema: qualunque
sia lo stato della rete, il pacchetto può sempre trovare una via alternativa per
giungere a destinazione (requisito utile per gli obiettivi militari ma anche per
chiunque desideri avere un impianto il più possibile resistente a guasti anche
accidentali), inoltre i vari pacchetti provenienti da fonti diverse possono venire
convogliati tutti assieme su una singola linea ad alta velocità anziché dover
ricorrere a tante linee separate, usate solo parzialmente.
Il primo protocollo, sviluppato per la commutazione di pacchetto su ARPANET,
venne chiamato NCP (Network Control Protocol), ma purtroppo non fu
particolarmente efficiente.
Il percorso che i pacchetti dovevano compiere variava da pacchetto a pacchetto
in base alle scelte effettuate da una serie di computer appositamente
programmati per monitorare i vari snodi e per incanalare i dati in modo efficiente
(routing)
*
.
Qualora un nodo si fosse bloccato inibendo il passaggio dei dati, i pacchetti
sarebbero stati immediatamente indirizzati su un altro percorso.
Nacque così il concetto di Packet Switching (commutazione di pacchetto).
*
“Gli elaboratori che effettuano l’instradamento dei dati sono chiamati router, mentre i
programmi che individuano la strada migliore da seguire vengono detti algoritmi di routing”,
MORGANTINI L., Sicurezza, vulnerabilità e prospettive dei sistemi di pagamento per il
commercio elettronico, Tesi discussa alla Facoltà di Scienze Bancarie, Finanziarie e
Assicurative, Università Cattolica del Sacro Cuore di Milano, A.A. 2001-02, pag. 12, [8].
4 CAPITOLO 1
Nel 1969 si ottenne il primo risultato concreto del progetto: furono connessi tra
loro i calcolatori dell’Università di Los Angeles (UCLA), dotata di uno Xerox
DSX-7, dell’Università di Santa Barbara (UCSB), dotata di un IBM 360/75,
dell’Università dello Utah dotata di un DEC PDP-10 e dello Stanford Research
Institute (SRI), a sua volta dotato di un XDS 940 (fig. 1.1).
Ad ogni nodo venne assegnato un IMP (Interface Message Processor), un
computer dedicato alla gestione del traffico dati.
I quattro nodi furono collegati tra loro attraverso circuiti a 50 Kbps, prodotti dalla
AT&T.
Il sistema divenne attivo il 2 settembre 1969 [14].
Figura 1.1 - La struttura iniziale di Arpanet nel 1969.
CENNI STORICI SU INTERNET 5
1.2 LO SVILUPPO
Negli anni seguenti vennero svolte numerose ricerche al fine di migliorare
la velocità e l’efficienza operativa della rete.
ARPANET, nonostante venisse realizzata grazie alla partecipazione del
Dipartimento della Difesa statunitense, non fu mai impiegata per scopi militari,
ma durante gli anni ’70, conobbe una fase di notevole crescita, favorita dalla
sua struttura decentralizzata.
E’ in questo periodo che si iniziano ad intravedere possibili utilizzi della rete,
che non erano stati immaginati nelle fasi iniziali.
Nel 1972 venne realizzato un programma capace di inviare e ricevere messaggi
sulla rete: è la nascita della posta elettronica.
Sempre nello stesso anno l’Università dello Utah realizzò un sistema per
controllare un computer a distanza su ARPANET per cui divenne possibile lo
scambio di file da un computer all’altro, per mezzo del protocollo FTP (File
Transfer Protocol).
Tra il 1973 ed il 1974 due ricercatori, Vincent Cerf e Robert Kahn, definirono le
caratteristiche di due protocolli di trasmissione a tutt’oggi ancora in uso: il TCP
(Transmission Control Protocol) e l’IP (Internet Protocol)
*
.
*
“Il termine Internet (INTERconnected NETworks) apparve per la prima volta nel 1974, in un
articolo scritto dai ricercatori Vinton Cerf e Robert Kahn”, MORGANTINI L., Sicurezza,
vulnerabilità e prospettive dei sistemi di pagamento per il commercio elettronico, Tesi discussa
alla Facoltà di Scienze Bancarie, Finanziarie e Assicurative, Università Cattolica del Sacro
Cuore di Milano, A.A. 2001-02, pag. 11, [8].
6 CAPITOLO 1
Combinando i protocolli TCP/IP e FTP si era così raggiunto l’obiettivo di
trasferire i dati da un punto all’altro della rete.
Il protocollo TCP opera a livello di trasporto, curando la gestione del
collegamento tra i vari elaboratori: prende l’informazione che il mittente invia, la
divide in pacchetti e, prima di trasmetterli, li completa con l’indirizzo. Una volta
arrivati a destinazione ne verifica la completezza e il corretto assemblaggio.
Il protocollo IP opera a livello di rete: fornisce le regole per instradare i pacchetti
dalla sorgente alla destinazione finale e assicura che i pacchetti vengano
etichettati con l’indirizzo corretto.
Dall’inizio degli anni ’80 il protocollo TCP/IP è stato recepito come standard di
riferimento per la rete.
Ciò che rimaneva ancora da realizzare era l’obiettivo di trasmettere i dati tra
due macchine di tipo diverso, utilizzando i più disparati tipi di collegamento.
Un esperimento fondamentale in questo settore venne realizzato nel 1978: un
computer che viaggiava a bordo di un camion in California trasmise delle
informazioni via radio ad un computer situato nella stessa regione, il quale le
inoltrò sulla rete, queste attraversarono il continente nordamericano su linee
terrestri, superarono l’Atlantico tramite una connessione satellitare e quindi
pervennero a un computer che si trovava a Londra.
Nei primi anni ’80 il Dipartimento della Difesa americano costituì una propria
rete alternativa, denominata MILNET, sganciandosi definitivamente da
ARPANET, rete che venne riservata al mondo accademico.
CENNI STORICI SU INTERNET 7
Nel 1983 John Postel sviluppò un nuovo protocollo per la gestione della posta
elettronica, denominato SMTP (Simple Mail Transfer Protocol) e, in
collaborazione con Craig Partridge e Paul Mockapetris, studiò un nuovo
sistema di identificazione dei nodi della rete che fosse più immediato ed intuitivo
dell’utilizzo dell’indirizzo IP.
Il risultato della ricerca fu il Domain Name System, un sistema che permette di
identificare un server definito da un numero IP, con un determinato nome (ad
esempio: IP 14.32.2.23 sarà denominato hotmail.com).
Nello stesso anno Internet divenne la rete delle reti utilizzando ARPANET come
dorsale, cioè come rete ad alta velocità che unisce tra loro le reti locali.
Internet infatti può essere considerata come una ‘federazione di reti’
interconnesse tra loro che si estende su tutto il globo, costituita da migliaia di
singole reti, ciascuna che raccoglie a sua volta un numero più o meno grande di
host
*
(macchine individuali).
Durante gli anni ’80 si cercò di migliorare anche la velocità di trasmissione dei
dati.
Il governo americano istituì la NSF (National Science Foundation) con lo scopo
di fornire strumenti di elaborazione alle università (ricorrendo all’uso
centralizzato di supercomputer) e di favorire un sistema di comunicazione
veloce ed efficiente tra i vari atenei.
*
Qualsiasi tipo di elaboratore raggiungibile tramite la rete: PC, ruoter, server e altri dispositivi
contraddistinti da un indirizzo di rete Internet assegnato univocamente dalle autorità competenti
(per esempio il RIPE per l’Europa e l’APNIC per l’area asiatica del Pacifico) nelle diverse zone
del mondo [7].
8 CAPITOLO 1
Così la NSF realizzò CSNET, una rete in grado di collegare le varie facoltà di
informatica statunitensi, e successivamente costituì NSFNET che avrebbe
dovuto sostituire ARPANET che infatti venne definitivamente smantellata nel
1990.
Sempre negli anni ’80 molte aziende realizzarono delle proprie reti di personal
computer, favorite dalla sempre maggiore economicità e potenza di questi.
Successivamente nacque l’esigenza da parte delle aziende di poter comunicare
anche all’esterno della propria rete locale.
Nonostante le reti accademiche e la rete del Dipartimento della Difesa fossero
state realizzate con i fondi della NSF, la quale vietava l’utilizzo commerciale
delle sue reti, si assistette ad una lenta ma progressiva apertura da parte della
NSF all’utilizzo della rete per scopi commerciali.
Nel 1989 la NSF permise a due servizi privati di e-mail (MCI Mail e
Compuserve) di stabilire un certo numero di connessioni ad Internet per il solo
scambio di posta elettronica.
Tra il 1991 e il 1995 la NSF ridusse ulteriormente le restrizioni all’uso
commerciale e promosse la privatizzazione di Internet.
L’apertura di Internet allo sfruttamento commerciale ha determinato una
crescita incredibile.
Due innovazioni hanno permesso di rendere Internet facile da usare e
accessibile a tutti: gli ipertesti e le GUI (Graphical User Interface).
Una GUI è un modo intuitivo di presentare all’utente le funzioni di un
programma e i suoi risultati, tramite disegni, icone e oggetti grafici (in
precedenza veniva utilizzato il solo testo).
CENNI STORICI SU INTERNET 9
Negli anni ’60 Ted Nelson descrisse un sistema che chiamò ipertesto, in cui il
testo di una pagina sarebbe stato collegato al testo riportato su altre pagine.
L’ipertesto è pertanto un metodo che permette il collegamento tra pagine
prescindendo dalla struttura sequenziale caratteristica della carta stampata.
In questo modo è possibile leggere un testo in qualsiasi ordine si voglia.
Nel 1989 Tim Berners-Lee e Robert Calliau, due studiosi del CERN di Ginevra,
svilupparono il codice di un server per ipertesti e lo resero disponibile su
Internet.
Un server per ipertesti è un calcolatore che memorizza file scritti in HTML
(Hypertext Markup Language) e permette ad altri computer di connettersi e
leggere i suoi file.
Questi server vengono chiamati Web Server.
L’HTML è un linguaggio che contiene vari codici (tag) che descrivono la
relazione tra gli elementi di un testo.
Questo è lo scheletro del WWW (World Wide Web), un sistema multimediale ad
ipertesto con tecnologia client/server.
Il World Wide Web, o semplicemente Web, è uno strumento che permette di
muoversi agevolmente nella rete alla ricerca di informazioni, documenti e dati.
E’ costituito da un sottoinsieme dei calcolatori di Internet, connessi in modo tale
da rendere i propri contenuti reciprocamente accessibili in maniera semplice.
Quando fu ideato il WWW si rese necessario lo sviluppo di software (Web
browser) in grado di leggere i documenti scritti in formato HTML, e di spostarsi
sia all’interno di un documento che tra diversi documenti tramite i vari
collegamenti ipertestuali.