5
dal punto di vista economico: il commercio elettronico e tutto ciò che riguarda la
cosiddetta new economy, analizzando il suo impatto economico, ma anche sociale,
le opportunità che offre e cercando di valutare le sue prospettive future.
Il secondo capitolo affronta le teorie che stanno a fondamento delle decisioni
delle imprese in merito alla determinazione dei prezzi e all’applicazione delle
politiche di prezzo. Dopo avere brevemente descritto la struttura del mercato
turistico e gli approcci utilizzati per la sua analisi economica, verranno riprese le
teorie economiche fondamentali riguardanti la differenziazione del prodotto
(verticale, orizzontale e dell’informazione), la discriminazione del prezzo di
primo e di terzo grado, i metodi più complessi di discriminazione (di secondo
grado) e, più in generale, i metodi di fissazione di prezzi non uniformi e le relative
condizioni per applicarli.
Nel terzo capitolo si entra in quella che possiamo considerare la parte
centrale del lavoro, dove vengono prese in considerazione 84 imprese alberghiere
che si propongono sul Web tramite dei siti propri oppure attraverso portali o
motori di ricerca, in alcuni casi, generici e, in altri, specializzati. L’analisi svolta
in questi paragrafi è di tipo prettamente descrittivo e si struttura in una
classificazione per tipologia di albergo in sei categorie (resort, hotel, catene di
alberghi, inn, Bed & Breakfast e ostelli), senza, però, escludere approfondimenti
particolareggiati dei casi più significativi, fornendo anche i relativi collegamenti
ipertestuali. Inoltre, i risultati della ricerca sono riassunti in un tavola sinottica alla
fine del capitolo ed esemplificati in numerose figure raggruppate, per chiarezza e
semplicità, in un’appendice al termine del capitolo.
Infine, nel quarto ed ultimo capitolo viene analizzato, da un punto di vista
statistico, un campione di 104 alberghi appartenenti alle categorie resort, hotel,
hotel chain e alcuni, tra i più significativi, appartenenti alle altre tre considerate
(Inn, Bed & Breakfast e ostelli), prelevato, con la stessa metodologia di ricerca
usata nel terzo capitolo, dal WWW. Lo scopo è quello di capire come alcune
caratteristiche delle imprese alberghiere influiscono sulle variazioni dei prezzi tra
i periodi più costosi e quelli più economici. Per farlo sono state costruite due
variabili dipendenti che rappresentano, rispettivamente, le variazioni percentuali
dei prezzi massimi rispetto a quelli medi e di quelli massimi rispetto a quelli
6
minimi e sono state considerate sette variabili indipendenti. Successivamente sono
state calcolate le funzioni di regressione e da esse è stata dedotta l’influenza che le
seconde esercitano sulle prime.
7
Internet: la Rete (di reti) come mezzo
d’informazione, promozione e
distribuzione
L’obbiettivo di questo capitolo è quello di fornire una visione d’insieme del
panorama Internet, spaziando dai passi fondamentali della sua storia ad alcune
semplici nozioni tecniche, passando per l’economia dell’informazione, fino ad
approfondire l’aspetto che interessa direttamente l’argomento più importante di
questo studio: il commercio elettronico. Ho ritenuto opportuno cominciare
dall’origine della Rete, legata a finalità ed interessi ben diversi da quelli che oggi
si conoscono, dando spazio anche ad alcune delle fondamentali nozioni tecniche
della Information Communication Technology, al fine di rendere meglio
comprensibile la situazione odierna, caratterizzata da una pletora di nomi, lemmi e
locuzioni spesso di difficile comprensione per chi si avvicina per la prima volta al
mondo di Internet e dell’informatica più in generale.
L’importante aspetto dell’economia moderna, che riguarda l’informazione nel
senso più esteso del termine, trattato nel paragrafo 1.3, è inteso a fornire alcuni
importanti elementi di analisi del lato economico di Internet, dal punto di vista dei
8
“contenuti” e degli equilibri del suo mercato. Infine, col paragrafo 1.4, entreremo
nello specifico dell’e-commerce, che rappresenta, pur rimanendo uno dei vari
utilizzi della Rete, ormai il nocciolo di Internet dal punto di vista economico.
Sulla stessa scia dei paragrafi 1.1 e 1.2, anche qui ho ritenuto utile offrire un
“overview” dell’argomento, che dia delle importanti informazioni sulla nuova
economia, sugli effetti e sulle conseguenze dell’avvento del commercio
elettronico e sulle opportunità che offre. Per questo ho pensato, inoltre, di
mostrare alcune interessanti statistiche e delle previsioni di insigne fonte sulla
diffusione, sull’utilizzo e sulle aspettative che riguardano Internet e l’e-commerce,
oltre che di sollevare degli importanti interrogativi attorno a problematiche di
estrema attualità. Tutto ciò è stato fatto con l’intento di fornire dei semplici
strumenti per seguire e valutare il percorso di ricerca che seguirò nel capitolo
centrale della mia Tesi.
Si chiude il XX secolo, un periodo di grandi invenzioni e scoperte scientifiche, le
cui innovazioni tecnologiche hanno cambiato la vita dell’uomo. Dal primo
segnale radio inviato attraverso l’Atlantico da Guglielmo Marconi alla televisione,
dallo Sputnik all’allunaggio, dal telefono di Meucci al sistema globale per le
comunicazioni GSM, al World Wide Web; e come le prime reti elettriche e
telefoniche che, oltre ai modi di vivere e gli usi, trasformarono radicalmente
l’economia del passato, anche la Rete di reti ad estensione mondiale ha cambiato,
sta cambiando e, come in molti prevedono, cambierà in modo significativo le
abitudini e gli stili di vita dell’uomo, già nel futuro prossimo.
Internet è una rete mondiale per la trasmissione di dati che interconnette decine di
migliaia di reti di calcolatori in quasi tutti i Paesi e per questo è comunemente
conosciuta come la Rete. Le sue origini risalgono agli anni 60, quando l’ARPA
(Advanced Research Projects Agency), centro di ricerche del Dipartimento della
9
Difesa statunitense, promosse la costruzione di una rete che collegasse, sfruttando
le normali vie telefoniche, calcolatori sparsi in tutto il territorio dello stato. Il
progetto aveva interesse militare: la rete doveva essere in grado di rimanere attiva
anche qualora un episodio bellico avesse parzialmente distrutto le linee
telefoniche, perciò i protocolli preposti a governare il traffico dovevano essere tali
da permettere ai messaggi di non seguire percorsi fissi dal mittente alla
destinazione. Il risultato fu una rete, denominata ARPAnet, che fu realizzata tra
l’ottobre e il dicembre 1969 e che inizialmente collegava i centri di ricerca di
quattro università. Benché il progetto fosse militare e i centri di ricerca interessati
fossero coinvolti in ricerche militari, ARPAnet fu subito utilizzata
prevalentemente come risorsa universitaria. L’efficacia e la velocità degli scambi
d’informazioni hanno conquistato rapidamente tutto il mondo accademico. Dopo
l’introduzione della commutazione a pacchetto, i nodi (sistemi collegati alla rete
detti anche hub) furono dotati di elaboratori ad alta velocità e crebbero
rapidamente di numero: erano 23 nel 1971, 37 l’anno dopo e hanno continuato ad
aumentare da allora con un ritmo analogo. ARPAnet è diventata Internet negli
anni Ottanta, ha perso ogni tipo di rapporto con il mondo militare e ha continuato
a svilupparsi in forma sostanzialmente spontanea, diffondendosi al di fuori del
mondo universitario. Il numero delle reti collegate, che nel 1991 erano 5000, nel
1994 superava già le 50.000 e ha continuato a crescere in forma esponenziale
negli anni successivi.
Le comunicazioni erano inizialmente basate esclusivamente sui caratteri e
consentivano solo messaggi di testo, ma negli anni Novanta sono state introdotte
capacità grafiche (ed è nato così il World Wide Web, WWW) e sono stati creati
siti organizzati che contengono informazioni di ogni genere, attività commerciali,
e che vengono realizzati e utilizzati da aziende, istituti pubblici e privati, utenti
privati... Fino ad un’epoca relativamente recente, Internet riguardava quasi
esclusivamente la sfera d’azione del mondo accademico e della ricerca; agli
individui privati risultava difficile avervi accesso, innanzi tutto perché pochi la
conoscevano, in secondo luogo, siccome finanziata dal governo degli Stati Uniti,
il suo utilizzo per fini commerciali era ritenuto un vero tabù. Il networking tra e
all’interno di organizzazioni commerciali era largamente basato su sistemi privati,
10
alcuni dei quali, dal punto di vista funzionale, erano simili a Internet, ancorché
nessuno di essi fosse in grado di interagire. Molti prospettarono che quei sistemi
privati insieme con la Rete avrebbero gradualmente aperto la strada agli OSI
(Open Systems Interconnection), dei regolamenti per l’interconnessione definiti
dall’International Standards Organisation, ma la situazione è cambiata
radicalmente negli ultimi anni; infatti, Il software per Internet si è largamente
diffuso per tutti i tipi di computer e i protocolli
1
hanno ampiamente preso il posto
occupato dagli OSI; inoltre il finanziamento centrale governativo è stato sostituito
dalla fornitura di servizi commerciali privati, le cui attività rappresentano ora la
grande maggioranza della crescita e dello sviluppo della Rete.
Sin dal principio gli utenti svilupparono strumenti che permettessero di
comunicare più facilmente attraverso il network, i cui esempi più recenti sono la
posta elettronica (o e-mail), che risale ai primi anni Settanta, e il File Transfer
Protocol (FTP); un altro è Usenet News, un sistema di “bacheche” che oggi è
usato per discussioni internazionali riguardanti milioni di argomenti, sacri e
profani, originariamente operati indipendentemente da Internet, ma attualmente
considerati uno dei suoi basilari servizi d’informazione. Le prime forme di
editoria elettronica consistevano semplicemente nel rendere disponibili directory
(letteralmente indici, elenchi) di file (archivi virtuali) di testo per il reperimento
pubblico tramite FTP, ma visto che per localizzare la giusta informazione era
necessario conoscere l’indirizzo del sistema di computer e il nome del file, si
poneva un ovvio limite circa la dimensione quantitativa dell’utenza e l’ammontare
delle informazioni che potevano essere utilmente distribuite in tal modo. Del
problema di trovare il sistema di computer contenente il file se ne occupava il
protocollo FTP, cercando file con un particolare nome attraverso siti di archivi
conosciuti. Ciò, però, poteva funzionare per siti con nomi noti, così come per
pacchetti software, ma non era di grande aiuto nel caso di informazioni arbitrarie e
discrezionali.
Grazie allo sviluppo dei personal computer e delle loro interfacce grafiche,
l’Università del Minnesota ideò un sistema chiamato gopher, che non richiedeva
1
Il protocollo è un insieme di regole per i programmi di entrambi gli estremi del link che stabilisce
come questi possono comunicare tra di loro e che significato devono dare ai dati ricevuti.
11
la disponibilità di costosi computer o la conoscenza di particolari di linguaggi
informatici, bensì si presentava semplicemente con un menù che, oltre ai nomi di
file in un sito, elencava anche la descrizione dei loro contenuti e selezionando,
altrettanto semplicemente, quella interessata, il file poteva essere rintracciato e
reperito. I menù inoltre potevano contenere link (collegamenti) ad altri siti, che
permettevano agli user (utenti) di spostarsi tra sistemi di computer diversi in una
rete integrata di risorse di informazioni, piuttosto che muoversi tra una serie di
archivi distaccati. Gopher fu il precursore del Web in termini di livello d’interesse
suscitato, ma aveva, nel fatto di essere un sistema di menù distribuiti, un notevole
limite; infatti permetteva di aprire link per arrivare alle informazioni solo
all’interno dei menù e non nelle stesse informazioni. A tal proposito il World
Wide Web, o più brevemente Web, integra ed estende questi sviluppi
aggiungendovi una struttura per collegare informazioni correlate in un modo che
cerca di riprodurre quello dell’associazione di idee della mente umana.
Tim Barners Lee del CERN di Ginevra per primo propose, nel 1989, il Web
come progetto per facilitare la collaborazione tra studiosi della fisica, lavorando in
luoghi diversi in tutto il mondo; scrisse i primi programmi browser (software per
navigare) e per web server. Più tardi Marc Andreessen, studente al National
Center for Supercomputing Applications (NCSA), presso l’Università
dell’Illinois, lavorando a software di visualizzazione, scrisse Mosaic,
un’interfaccia grafica Web (browser), che fu reso pubblico su Internet nel 1993 e
divenne molto conosciuto in pochissimo tempo (in meno di un anno veniva già
usato dal 60 per cento degli utenti Web). Così, Andreessen conobbe Jim Clark, ex
docente della Stanford University e fondatore della Silicon Graphics e insieme
decisero di sostituire il primo prototipo con un prodotto completo e funzionale.
Dopo soli sei mesi rilasciarono la versione beta di quello che sarebbe diventato
Netscape Navigator, che alla fine del 1995 fu diffuso nella versione commerciale
e in soli quattro mesi ottenne un successo strabiliante: sei milioni di utenti. La sua
fenomenale popolarità deriva in gran parte dal modo in cui consente agli user di
“navigare” seguendo un proprio percorso all’interno della giungla d’informazione
e fornisce idee ad un pubblico globale mediante il supporto di alcune delle più
grandi organizzazioni mondiali.
12
Il World Wide Web può essere innanzitutto descritto come un gigantesco
contenitore con milioni di nicchie verticali e migliaia di informazioni relative ad
ogni tipo di argomento. Tuttavia è molto più che un semplice deposito di dati e
informazioni, è una fibra connettiva che collega milioni di persone, ciascuna delle
quali, in qualsiasi momento, è consumatore, ma anche di informazioni, non solo
“consumatore” in senso stretto. Poiché ciascun individuo non è collegato solo ad
un sistema d’informazioni, ma anche ad altri individui, l’ambiente digitale ospita
svariate comunità a breve o a lungo termine, per cui, nella Rete, non esistono
masse, ma milioni di individui in grado di selezionare il loro “universo
momentaneo”
2
. Si tratta di un servizio d’informazione assai esteso, economico e
facile da usare, ma soprattutto eclettico per la sua capacità di fornire un’interfaccia
compatibile con altri sistemi informativi (gopher, FTP, USENET News, ecc.) e di
essere utilizzabile su tutte le attuali piattaforme. A differenza dei mass media
tradizionali è interattivo, perciò dà la possibilità a chiunque di diventare un
potenziale editore ed, essendo progettato per essere un sistema multimediale
aperto ed estendibile, consente di trasmettere informazioni sia in forma testuale
che no (audio, video e grafiche). La Rete si trova tuttora in una fase di rapida
evoluzione: la gente sta scoprendo nuove metodologie d’uso ed ognuno può
partecipare al dibattito dando il proprio contributo.
Il Web è un sistema hypertext globale, vale a dire un sistema, basato su
calcolatori, che permette di collegare dei documenti ad altri correlati; tali
collegamenti (link) vengono inseriti nel testo sottoforma di parole evidenziate o
immagini e, quando attivati (selezionandoli e “cliccando” con il mouse), il
documento collegato viene individuato e “aperto”. La teoria fondante del
hypertext system risale sorprendentemente agli anni Quaranta; infatti la tecnologia
per il suo utilizzo divenne disponibile solo alcuni decenni più tardi. In tempi più
vicini si è assistito ad un graduale progresso che, partendo da sistemi informativi
gerarchici basati su menù, ha portato a sistemi hypertext non gerarchici; il tutto in
un contesto di decentralizzazione della tecnologia dei calcolatori, dove l’utilizzo
di più terminali collegati ad un unico nucleo centrale veniva sostituito da una rete
omnipresente che collegava più personal computer. Una concreta realizzazione
2
C. Martin, The Digital Estate, McGraw-Hill, 1997, p. 23.
13
della suddetta teoria è proprio il WWW, la quale potrebbe comprendere l’intera
conoscenza umana, completa, con indici e rimandi incrociati o, più
semplicemente, che consiste in un corpo dinamico di informazioni distribuite in
tutto il mondo tramite computer che comunicano per mezzo di protocolli
standardizzati. In termini pratici si può dire che ci sono tre aspetti che
concretamente consentono alla Rete di funzionare:
- uno schema di naming (denominazione) compatibile per rimandare alle
singole risorse, intese come unità d’informazione (documenti, immagini,
video, audio), mediante un identificatore che indica la loro localizzazione e
come il software può recuperarle. Il meccanismo attualmente utilizzato è lo
Uniform Resource Locator (URL), che esprime l’indirizzo della risorsa e il
metodo per accedervi, così come per cercare un libro in una biblioteca occorre
l’indirizzo della stessa, il codice dello scaffale...;
- un meccanismo per recuperare una risorsa una volta dato il suo nome: il
protocollo Internet HTTP, anche se i programmi browser ne possono usare
altri, come FTP o gopher, per comunicare con altri sistemi informativi;
- un sistema per descrivere la struttura logica del testo: il linguaggio HTML
(Hypertext Markup Language) che definisce le componenti logiche di un
documento.
Il Web si basa su concetti standard di networking ed è dotato di un’architettura
client-server, nella quale ogni sito utilizza programmi server che rispondono alle
richieste di risorse di informazioni da parte dei programmi browser, che in questo
modello rappresentano il cliente. I browser possono effettuare richieste a diversi
server a seconda dei percorsi di link seguiti dall’utente, senza che i server
“ricordino” l’origine della richiesta, infatti questi ultimi considerano ognuna di
esse come completamente nuova, anche se proviene dalla stesso terminale. Dove
invece il documento ricercato è composto da una serie di risorse d’informazione
(per esempio un testo e delle immagini insieme), allora si rende necessaria
un’ulteriore richiesta separata, da inoltrare per reperire ognuna delle singole
risorse.
14
Pur essendo primariamente uno strumento informativo, la Rete offre grandi
opportunità, sia a coloro che producono informazione che ai suoi lettori, che
trascendono quelle dei media tradizionali. Innanzitutto permette un accesso facile
ed economico ad un sistema informativo globale (sia in senso geografico, sia per
ciò che riguarda l’estensione qualitativa e quantitativa) in continua e rapida
espansione; la maggior parte delle persone, persino coloro con scarsa esperienza
informatica o con poco feeling per i computer, trovano l’utilizzo dei browser
facile e chiaro. Qualcuno ha detto che rende la tecnologia invisibile, nel senso che
permette allo user di concentrarsi sul contenuto dell’informazione, senza dovere
pensare troppo a perché e come funziona. I programmi per navigare sono ormai
facili da installare e spesso sono integrati come componenti standard dei sistemi
operativi, mentre il set up e il funzionamento di un server è solo leggermente più
difficile e i software relativi sono largamente diffusi e disponibili sulla Rete.
Internet ha reso possibile la creazione di una “comunità elettronica” che
superasse i confini nazionali, particolarmente utile al mondo accademico, visto
l’alto grado di specializzazione raggiunto nello studio di ogni materia, per trovare
e mantenere contatti con centri di ricerca localizzati a considerevoli distanze, e al
mondo degli affari visto il crescente uso dovuto alla sua portata globale. La Rete
permette inoltre, a quelle persone affette da gravi disabilità, di comunicare
partendo da una posizione ugualitaria, dando loro, se lo desiderano, la possibilità
di non dovere mostrare completamente i loro problemi e di relazionarsi ad altri,
per la prima volta, come persone e non come disabili; permette, inoltre, a chi vive
sempre chiuso in casa di comunicare col mondo esterno e, in qualche modo, di
alleviare il proprio isolamento.
Il risultato della caduta dei costi dei calcolatori, dei sistemi software e
hardware e di tutti quei prodotti relativi alle moderne telecomunicazioni, insieme
alla crescente facilità del loro utilizzo e di accesso alla Rete, è un notevole
aumento delle dimensioni di tale comunità elettronica.
L’utilizzo del Web all’interno di un’organizzazione non necessariamente implica
il dover rendere pubblico il proprio sistema interno di comunicazione. Può infatti
essere usato internamente per la creazione di un sistema privato di informazione
dal facile accesso e senza connessioni esterne. Il temine Intranet è stato
15
appositamente coniato per descrivere un network privato basato sulla tecnologia
di Internet, che utilizza software funzionanti con i suoi protocolli, i suoi server e i
suoi browser, così da creare un’efficiente sistema informativo interno a costi
relativamente bassi, che integri o, addirittura, soppianti le soluzioni tradizionali.
Le sue applicazioni potrebbero includere sistemi di help, collaborazioni di gruppo,
accesso a manuali di procedura e interfacce per software già esistenti come, per
esempio, i sistemi di database, mentre l’utilizzo di un server interno può essere
utile anche per valutare la possibilità che l’accesso alla Web sia adatto per
un’organizzazione in un contesto più ampio. Molte aziende stanno già facendo
business su Internet ed è molto probabile, come prevedono in tanti, che il volume
delle loro transazioni commerciali crescerà in modo significativo in un periodo
relativamente breve (vedere tabella 1.1). La grande opportunità è quella di
raggiungere un mercato, con dimensioni planetarie, di potenziali clienti, che
soprattutto si trova in una fase di forte e rapida crescita e, benché la tecnologia dei
sistemi di pagamento per beni e servizi acquistati “over the Net” sia tuttora in fase
di sviluppo, i risultati fino ad ora ottenuti dimostrano delle grandi potenzialità.
Tab. 1.1. Confronto tra varie stime sul Commercio Elettronico totale (in
milioni di dollari)
Attività
1995-97
2000-02
Morgan Stanley 600 375 000
Forrester 8 000 327 000
Hambrecht & Quest 1 170 23 200
Fonti: Morgan Stanley Dean Witter, 1997; Forrester Research, 1997; H & Q, 1997
Tra le caratteristiche del Web v’è quella di essere un “Two-way information
system”
3
, ossia un sistema informativo a doppio senso di percorrenza, che
consente il reperimento di informazioni attraverso il server e nello stesso tempo di
3
A. Ford & T. Dixon, Spinning the Web, 2
nd
edition, International Thomson Computer Press,
1996, p. 9.
16
ritornargliele tramite la creazione di forme o moduli on-line di raccolta di dati, che
possono contenere diversi elementi associati ad interfacce grafiche di personal
computer (pulsanti, pannelli di scorrimento del testo, pop-up menù, checkboxes).
La capacità di fornire ciò che essenzialmente è un’interfaccia utente su misura,
offre l’opportunità di usare il browser come client universale o come porta per un
ampia varietà di applicazioni interconnesse e, invece di sviluppare separatamente i
rapporti con gli utenti per ogni singolo PC, permette di utilizzare un unico
programma gateway (di uscita), che operi tra il Web server e le varie applicazioni,
consentendo ad ognuno di interagire in modo semplice tramite la propria. Benché
esistano tuttora dei limiti (ad esempio quello relativo all’impossibilità di
convalidare i dati e gli input col browser prima di trasmetterli al server), è
evidente la possibilità di ridurre i costi, in particolare quelli di sviluppo di sistemi
distribuiti. Nonostante la Rete sia stata principalmente creata grazie
all’entusiasmo di appassionati volontari, la sua scala immensa, la sua importanza
accademica e, oggi soprattutto, commerciale stimolano la ricerca e il progresso di
nuove strutture per promuovere e coordinare il suo sviluppo futuro ed assicurare
la più ampia compatibilità e standardizzazione dei software e della fornitura di
contenuti.
L’organismo che si occupa di standard per protocolli Internet è l’IETF
(Internet Engineering Task Force), un corpo il cui status non è riconosciuto
legalmente, ma che gode di una considerevole autorità morale, sviluppa e
revisiona i protocolli all’interno di un contesto di gruppi di lavoro aperti a
chiunque, dove le discussioni hanno luogo via e-mail, in incontri informali e in
conferenze formali che si tengono più volte l’anno. A differenza dei metodi di
lavoro delle organizzazioni nazionali ed internazionali che si occupano di
standard, come per esempio l’ISO, gli standard di Internet sono accordati sulla
base della combinazione di lavori di dimostrazione da un lato e dell’ottenimento
del consenso del meeting in corso dall’altro. Come era prevedibile non mancarono
i problemi all’interno del processo di standardizzazione dell’IETF, in particolare
nelle prime fasi dello sviluppo del Web (con CERN e NCSA attivamente
coinvolti) parve ad alcuni prematuro il lavoro finalizzato a ricercare delle regole
comuni che fossero condivise su scala mondiale; più recentemente le necessità e
17
le intenzioni delle aziende che miravano allo sfruttamento della tecnologia della
Rete per fini prettamente commerciali provocarono delle frizioni tra i loro
interessi, quelli accademici-universitari e quelli degli utenti privati, rappresentati
all’interno dell’IETF. Una delle maggiori attività della “Task Force” fu quella
della proposta di una codificazione standard per il linguaggio HTML, utilizzato
per creare e strutturare le pagine dei siti Web.
Nel 1994 fu annunciata la fondazione del W3 Consortium (W3C), un
consorzio di industrie progettato sulla traccia dell’X Window Consortium, con
base al Massachusetts Institute of Technology e diretto congiuntamente con
INRIA, organizzazione di ricerca francese. Il suo proposito è assicurare la
compatibilità tra i prodotti di tutte le industrie, coordinare lo sviluppo della
tecnologia Web e del software, che, se sviluppato da o per il consorzio diventa
gratuitamente disponibile per tutti, pur riservando un accesso privilegiato ai
membri. Pochi anni or sono, i maggiori produttori di software si impegnarono ad
utilizzare il W3C col fine di assicurare alti livelli di interoperabiltà tra i diversi
browser: Allo stesso modo si formarono gruppi di produttori e venditori con lo
scopo di promuovere lo sviluppo e la standardizzazione di tecnologie ed
applicazioni specifiche; un esempio fu l’accordo tra le maggiori società di carte di
credito, MasterCard, Visa International e numerose aziende tecnologiche circa la
sicurezza delle transazioni su Internet (Secure Electronic Transactions), anche se
il processo è stato guidato dalle stesse società, piuttosto che utilizzare i corpi
standard tradizionali, nonostante in principio dovesse essere neutrale rispetto ai
contraenti, con meccanismi di licenza gratuita e aperto ai commenti di chiunque
avesse delle critiche da avanzare.
Infine, la Rete offre l’opportunità di tenere conferenze riguardanti una serie
teoricamente infinita di argomenti, creando un terreno fertile per la ricerca e lo
sviluppo, generando energia positiva per la produzione e lo scambio di idee e un
significativo impulso per il progresso, anche al di là della tecnologia. La prima
conferenza Web fu tenuta a Ginevra nel 1994 con uno straordinario successo dal
punto di vista della partecipazione e delle presenze; esito che fu confermato negli
anni successivi con afflussi crescenti a ritmi esponenziali. Tale interesse sottolinea
18
l’importanza delle conferenze come piazze per prodotti e servizi inerenti alla Rete
e come opportunità di sviluppo delle tecnologie relative.
Dal punto di vista tecnico, le reti sono le strutture che permettono ai computer di
connettersi e comunicare tra loro mediante l’invio di dati; proprio per questo si
parla di collegamento in rete. Per regolare il flusso di informazioni, sovente
denominato “traffico”, è necessario che esistano un insieme di metodi e regole
condivise e concordate a priori, i già citati protocolli, che i computer utilizzano
per lo scambio di segnali. Per meglio intendere la loro funzione è sufficiente
pensare ad un elettrodomestico che utilizziamo quotidianamente, il televisore, che
senza un codice prefissato non potrebbe ricevere ed interpretare i segnali inviatigli
dal relativo comando a distanza; analogamente, le comunità dei computer e delle
reti hanno sviluppato numerosi protocolli per la trasmissione di dati e per regolare
il modo in cui i computer e le reti si scambiavano le informazioni necessarie per
gestirla. La connessione attraverso la quale passa il flusso del traffico prende il
nome di collegamento o linea. La quantità di informazioni che possono essere
inviate attraverso una connessione in un determinato intervallo di tempo, per
esempio in 1 secondo, è detta larghezza di banda o velocità della linea.
Come noto, i computer gestiscono i dati mediante la scala binaria, quindi il
più piccolo pezzo d’informazione che può essere rappresentato è un bit, che può
rispettivamente assumere valore 0 oppure 1. I dati espressi utilizzando sequenze di
bit si dicono digitalizzati. Una stringa di 8 bit prende il nome di byte. La larghezza
di banda (velocità) viene normalmente espressa in bit per secondo (bps), con
l’apposizione di prefissi del sistema metrico decimale come “kilo” (k = x 1000),
“mega” (M = x 1.000.000) e “giga” (G = x 1.000.000.000).
I primi collegamenti venivano effettuati con l’utilizzo di cavi contenenti fili
elettrici, impiegati per connettere direttamente i computer, prima alle stampanti, in