avesse presentato dei problemi il pacchetto sarebbe stato reindirizzato verso un
percorso alternativo e più sicuro. Tale sistema fu chiamato Arpanet.
Tra i più autorevoli i sostenitori del progetto troviamo Douglas Engelbart, inventore
del mouse, che mette a disposizione dell'ARPA il suo gruppo di lavoro per la
realizzazione del NIC, che in seguito diventerà INTERNIC (Internet Network
Information Center). Importante per lo sviluppo di Arpanet è stato il progetto
proposto da Wesley Clark, per il quale non andavano collegati tra loro due computer,
ma andava usata una sottorete di computer uguali tra loro per trasmettere e ricevere
dati, in modo che ogni computer collegato avesse dovuto imparare solo il
“linguaggio” della sottorete e non quello di tutti computer on-line. Queste sottoreti
vennero definite IMP (Interface Message Processor).
Realizzato il primo IMP, nel 1969
2
viene inaugurato il primo nodo, ubicato
fisicamente presso la University of California Los Angeles (UCLA), al quale seguirà
il collegamento della University of California at Santa Barbara (UCSB), della
Stanford University e della University of Utah. Nel 1973 Vinton Cerf e Robert Kahn
sviluppano il progetto di realizzazione di un’architettura di cooperazione tra reti
(internetworking), in grado di collegare tra loro reti diverse basate su pacchetti di
informazioni e macchine diverse collegate a tali reti. Questa architettura si basa sul
protocollo TCP/IP (Transmission Control Protocol / Internet Protocol), del quale
furono realizzate quattro versioni nella seconda metà degli anni ’70, e negli anni ‘80
aveva già un successo tale da “oscurare” lo standard dal quale deriva, l’ISO/OSI,
poiché ha assunto lo status di open standard, in quanto chiunque può utilizzare le sue
caratteristiche ed inoltre perché tale protocollo è indipendente dal modo in cui la rete
alla quale si attacca è realizzata; esso infatti supporta una rete Ethernet, una linea
telefonica o un cavo a fibre ottiche, integrando i diversi componenti hardware in
un’unica soluzione.
Nel 1983 l’ARPA esaurì il suo scopo, mentre grazie all’utilizzo del protocollo
TCP/IP e all’avvento dei primi personal computer, il successo di Arpanet fece
proliferare i computer collegati ed il Dipartimento della Difesa statunitense si
convinse che, per favorire la crescita del networking di suo interesse, si doveva
dividere la rete in due separate sottoreti: una di queste reti veniva usata a scopi
2
Ricordiamo che in quello stesso anno gli Stati Uniti mandano il primo essere umano sulla Luna.
6
militari e collegava prevalentemente siti all'interno degli Stati Uniti e solo
eccezionalmente nel resto del mondo (la cosiddetta rete MILNET) mentre la sezione
della ricerca universitaria prendeva il nome di NSFnet (National Science Foundation
Network) della quale facevano parte diversi enti di ricerca (Bolder, Carnegie Mellon
University, University of Pittsburg) e che in seguito sará chiamata Internet. Tale
scissione fu sostenuta in modo da far sì che gli atenei potessero usufruire dei benefici
della rete nonostante non fossero a diretto contatto con enti militari; per questo
motivo la NSF durante i primi anni ‘80 dà vita alla Csnet, che mette in contatto fra
loro tutte le università americane. Ovviamente il protocollo TCP/IP mette ancora in
comunicazione le macchine sulla rete MILNET e quelle sulla rete NSFnet, anche se i
nodi della rete militare sono protetti dal fatto di trovarsi all'interno di siti più sicuri di
quelli dei laboratori di ricerca; dunque, se si presentavano problemi sulla rete
NSFnet, la rete MILNET poteva essere disconnessa dalla NSFnet, tagliando i
collegamenti in un determinato numero di gateways che le mettevano in
comunicazione.
Ben presto la rete si arricchisce di servizi: già dal 1972 si può usufruire della posta
elettronica (e-mail), nel 1985 nasce la prima comunità virtuale, Well (Whole Earth
Lectronic Link), nel 1986 i Newsgroup creati da due studenti dell'Università del
Nord Carolina migliorano enormemente grazie all'utilizzo del protocollo NNTP, che
usufruisce del protocollo TCP/IP, nel 1988 nasce anche IRC (Internet Relay Chat), la
prima chat che consente agli utenti di chiacchierare tra loro in diretta.
Sempre nel 1988 cominciano le prove di “terrorismo” sulla rete (creazione di virus
che danneggiano il sistema): alla fine del 1988 la prima infezione colpisce il 10% dei
60.000 computer collegati alla rete. A seguito di ciò viene istituito il CERT
(Computer Emergency Response Team) con il compito di controllare l'intromissione
di virus informatici nella rete.
Nel 1990 cade il Muro di Berlino, simbolo della Guerra Fredda fra USA e URSS, e
conseguentemente il Dipartimento della Difesa statunitense abbandona
definitivamente il progetto: MILNET e quindi Arpanet non esistono più.
In quello stesso anno Peter Deutsch e la sua equipe realizzano il software ARCHIE,
che permette di sviscerare all'interno di grandi archivi per gestire il contenuto dei
singoli siti a livello di FTP: ad ogni nome di file di tali archivi è infatti associata una
7
serie di informazioni (data di memorizzazione, dimensione) automaticamente
archiviate dal programma; l'enorme circolazione di notizie sulla rete Internet
comincia a rendere difficili i controlli e le censure delle stesse informazioni e quindi,
sempre nel 1990, nasce la EEF
3
(Electronic Frontier Foundation) per opera di Mitch
Kapor: tale fondazione si propone come scopo quello di tutelare i “naviganti”
riguardo la libertà di circolazione delle informazioni e alla libertà di accesso a queste
stesse. Nello stesso periodo nascono software per la navigazione protetta: GOPHER
creato da Mark McCahill e Paul Lindner, che rappresenta il primo tentativo di
razionalizzare l'architettura delle informazioni utilizzando una struttura ad albero ed
un sistema client-server per l’esplorazione-gestione delle stesse, e PGP
4
(Pretty Good
Privacy), inventato da Philip Zimmerman, che garantisce la sicurezza nello scambio
di messaggi tramite la posta elettronica. Nel 1991 Tim Berners Lee, del CERN di
Ginevra, riuscì ad incarnare l’esigenza ormai fatta propria dall’intera comunità
scientifica, di un sistema di gestione dell’informazione che fosse adatto alla messa in
comune di un esteso patrimonio di relazioni, documenti e in genere di letteratura
grigia: nasce il World Wide Web. La “ragnatela mondiale”, è questo il significato
della tripla w, mira al superamento delle barriere geografiche che impediscono la
collaborazione fra gruppi scientifici fisicamente distanti, ma anche ad accelerare lo
scambio di informazioni grazie a protocolli e formati standardizzati (HTTP, HTML)
sfruttando un’architettura client-server.
Nel 1993 Marc Andreessen del NCSA
5
(National Center for Supercomputing
Applications) presso l’University of Illinois, sviluppò il primo browser grafico:
Mosaic; questo software, in grado di visualizzare le informazioni delle pagine web,
testo e immagini, in formato ipertestuale (sino a quel momento la comunicazione
avveniva su un numero variabile di righe in formato testo), fu rapidamente adattato ai
sistemi operativi allora diffusi. La disponibilità di un browser grafico di facile
utilizzo, sviluppato per le differenti piattaforme software allora esistenti, ha prodotto
un effetto positivo immediato e nel giro di pochi mesi i server e le istituzioni presenti
in linea si sono moltiplicati; da quel momento il successo del World Wide Web è
stato inarrestabile.
3
http://www.eff.org
4
http://www.pgpi.com
5
http://www.ncsa.uiuc.edu
8
1.2 Web statico e Web dinamico
I primi siti web, erano formati da un insieme di pagine statiche con testo ed
immagini, concatenate da semplici link incrociati, ed esclusivamente realizzate in
linguaggio HTML (HyperText Markup Language). Tali siti erano creati sulla base di
un progetto iniziale e per fare modifiche ed aggiornamenti bisognava intervenire
direttamente sui sorgenti HTML; le pagine erano preparate una ad una ed allo stesso
modo modificate, in caso di necessità, dai singoli creatori.
Un deciso passo avanti furono i siti dinamici: una struttura grafica fissa riempita da
contenuti letti da una base dati. Le pagine, sviluppate con appositi linguaggi come ad
esempio ASP (Active Server Pages) o PHP (Personal Home Page), sono create “al
volo” unendo la parte fissa (di solito il layout grafico, i menu, i link principali, …)
con quella prelevata dal database a seconda della sezione nella quale ci si trova. Il
vantaggio è che poche pagine possono generare molteplici documenti e contenuti per
l’utente del sito web, mantenendo la stessa impostazione grafica ma modificando i
dati visualizzati prendendoli di volta in volta dal database; ma l’aspetto più
importante è che tali dati saranno sempre aggiornati perché “estratti” dalla base dati
al momento del caricamento della pagina. Altri vantaggi sono dati da una
manutenzione più semplice poiché, oltre ad avere meno pagine da gestire, le
modifiche dei dati avvengono sul database senza modificare materialmente le pagine;
quindi non occorre conoscere il linguaggio di programmazione delle pagine per poter
aggiornare i contenuti del sito web.
Sebbene con il concetto di Web dinamico siano state introdotte tecnologie di
programmazione come complementari alla descrizione grafica HTML, tali tecnologie
rimanevano essenzialmente concentrate sul lato server dell’architettura. Una
successiva evoluzione ha poi condotto all’impiego di codice (scripts) eseguito anche
sul lato client (browser) principalmente tramite il linguaggio Javascript ed i suoi
derivati. Inizialmente, tuttavia, gli script potevano solo generare dinamicamente
codice HTML mediante funzioni di scrittura testuale. L’ultima fase dell’evoluzione
del Web “tradizionale” è rappresentata infine dal cosiddetto HTML dinamico, in cui
procedure Javascript possono operare direttamente a livello di API (Application
9