4
Con questi obiettivi abbiamo allestito un insieme di strumenti per il corso Web 2.0 per
l‟AA2009/10. Corso che si è svolto presso l‟Università di Milano Bicocca. Questo cor-
so, oltre che svilupparsi in lezioni frontali, ha richiesto da parte degli studenti lo sforzo
di utilizzare attivamente e creativamente le tecnologie che sono state presentate a lezio-
ne. In questo modo abbiamo potuto annotare le difficoltà incontrate, analizzare gli spun-
ti proposti dagli studenti, e soprattutto osservare il modo in cui i partecipanti si sono
mossi tra gli strumenti a disposizione. Se, infatti, il Web 2.0 si fonda sulla partecipazio-
ne e sul coinvolgimento attivo di tutti i presenti, è anche vero che ogni internauta arric-
chisce la comunità con le proprie idee, con i propri spunti, aggiungendo di fatto la pro-
pria e personale equazione umana, rendendo la comunità attiva e vitale: molto più che
una semplice somma di dati, collegamenti e slide di Power Point.
Dopo aver introdotto brevemente il web2.0, nel primo capitolo, passeremo in rassegna
alla letteratura attualmente disponibile online sull‟e-Learning 2.0, sia italiana che inter-
nazionale. La comunità dei docenti è estremamente fertile, soprattutto nel mondo anglo-
sassone, e molti sono i casi di sperimentazione delle nuove tecnologie. Analizzeremo
quindi le più interessanti, nell‟ottica prefissata da questa Tesi.
Nel terzo capitolo presenteremo il corso oggetto di questo caso studio, descrivendo bre-
vemente le tecnologie adottate e analizzando il modo in cui gli studenti si sono approc-
ciati ad esse.
Nell‟ultimo capitolo, infine, formuleremo la proposta di una nuova tecnologia. Alla luce
dei risultati delle nostre ricerche e dell‟esperienza maturata durante il caso studio ana-
lizzato, proporremo un ambiente complesso, coadiuvato da un prototipo sviluppato ad
hoc, che possa fungere da supporto all‟attività didattica. Tutto in ottica Web 2.0.
5
Capitolo I: il Web 2.0
Internet è la più grande biblioteca del mondo. È
solo che tutti i libri sono sparsi sul pavimento.
(John Allen Paulos)
Cos’è il Web 2.0
Con il termine Web 2.0 ci si riferisce ad un nuovo concetto di web.
Il termine è stato coniato da Tim O‟Reilly, fondatore della O‟Reilly Media, società fon-
data nel 1998 che pubblica libri ed organizza conferenze su temi informatici. Celebri i
suoi volumi che recano in copertina illustrazioni di animali.
Durante una conferenza del 2004 O‟Reilly1 ha usato per primo questo termine, non per
riferirsi ad un aggiornamento tecnico o ad una nuova release dei software web-based,
ma piuttosto per indicare le massicce modifiche nell‟uso del web stesso, sia da parte de-
gli sviluppatori che degli utenti.
Il fenomeno a cui si stava assistendo era destinato a cambiare radicalmente il concetto
stesso di web. Fino al 1999, infatti, il flusso comunicativo che univa i siti internet ai let-
tori, era fortemente unidirezionale: con la sola eccezione dei moduli contatti, gli inter-
nauti non avevano modo di interagire con gli autori dei testi presenti sulle pagine web.
Allo stesso modo non avevano la possibilità di intervenire sui contenuti stessi, se non
diventando a loro volta autori di un sito.
Tuttavia, agli inizi del ‟99, fecero la loro comparsa i primi web-blog, che nel giro di po-
chissimo tempo iniziarono a moltiplicarsi giornalmente2.
Con l‟avvento dei blog iniziò a cambiare il flusso comunicativo, integrando gli internau-
ti che, finalmente, ebbero occasione di esprimere i propri pareri, le proprie idee.
Il blog altro non è che un diario online, in cui chiunque può scrivere qualunque cosa.
Così ridotta, la tecnologia può apparire estremamente riduttiva, ma questa è proprio la
chiave per comprendere la portata del cambiamento: rendere il web accessibile a tutti,
tramite interfacce semplici e tecnologie “povere”. In questo modo tutti possono modifi-
care i contenuti del web stesso, e far si che tutti gli altri possano leggere e commentare i
propri interventi.
1
http://oreilly.com/web2/archive/what-is-web-20.html
2
http://www.rebeccablood.net/essays/weblog_history.html, tratto il 3 novembre 2009
6
Fino a quel momento, per creare una pagina web occorrevano competenze tecniche me-
dio alte: conoscere il codice html e un po‟ di computer graphic, essere in grado di regi-
strare un dominio e saper utilizzare il protocollo FTP per la pubblicazione delle pagine.
Con l‟avvento dei blog, tutti gli interventi tecnici sono stati demandati a processi auto-
matici, gestiti da un software dedicato, e l‟utente doveva concentrarsi unicamente sul
testo che desiderava pubblicare, sulle foto, sulla musica o i video che desiderava ag-
giungere al proprio “diario”.
Anche la veste grafica del diario richiedeva alcuni semplici click per poter scegliere tra
un ventaglio di opzioni preconfezionate.
La parola chiave, quindi, è “piattaforma”: il web come piattaforma. Non più un agglo-
merato di siti web statici da cui trarre informazioni, ma un vero computer a cui far fare
operazioni e calcoli; su cui far girare software, alleggerendo le singole postazioni. E‟
come se si tornasse verso il concetto di terminale, in cui tutte le operazioni e i software
venivano presi in carico dai mainframe.
La differenza, nel web 2.0, è che non c‟è un unico mainframe a cui tutti i terminali sono
agganciati: il supercomputer è la Rete stessa, e le singole postazioni non hanno bisogno
d‟altro che di un browser web per accedere ai più svariati software: documenti e fogli di
calcolo, grafica bitmap e vettoriale, database, web design, posta elettronica, video con-
ferenza... Per ognuno di questi prodotti esiste un servizio online, la maggior parte delle
volte gratuito, o che mette a disposizione un set di funzionalità base per utenti medi.
Con il termine web 2.0, quindi, non si intende la semplice progettazione e adozione di
una nuova interfaccia, per quanto accattivante essa sia, per dare in pasto agli utenti i so-
liti contenuti (O‟Reilly, 2005). Si intende piuttosto un approccio del tutto diverso al
mondo del web, un approccio che aggiunge una freccia, in senso opposto, al normale
flusso comunicativo: sorgente - ricevente.
Bart Decrem, uno dei fondatori di Flock (browser dedicato alle social network, con fun-
zionalità pensate per incrementare l‟accessibilità dell‟utente alle reti sociali cui è iscrit-
to), definisce il 2.0 come il “Web partecipativo”, al contrario del “Web come risorsa di
7
informazioni” quale era il Web 1.03. Ed è proprio questo il focus del nuovo Web: la par-
tecipazione di tutti ad un unico progetto conoscitivo: il propagarsi della conoscenza.
La funzione principale dell‟utente, nel Web 2.0, non è semplicemente quello di dare il
proprio contributo alle informazioni presenti online, ma piuttosto quello di partecipare
attivamente nel promuovere e premiare le tecnologie degne di nota che vincono il con-
fronto con i competitor.
E‟ l‟approvazione degli utenti che ha reso Google quello che è oggi, e FaceBook il so-
cial network più noto e diffuso. Sono gli utenti a decidere il destino di queste applica-
zioni: semplicemente usandole o ignorandole.
Allo stesso modo il discorso vale per le informazioni: sono gli utenti a decretare se una
notizia è importante, se un libro merita di essere letto e acquistato; un film visto al ci-
nema o noleggiato in DVD. Se una singola persona indica le proprie preferenze
all‟interno del proprio blog, queste verranno lette solo dalla sua schiera di lettori. Se in-
vece moltissime persone segnalano la presenza di un nuovo software, lo provano e lo
pubblicizzano, ecco che l‟informazione si propagherà a macchia d‟olio. E grazie alla
presenza di hub (nella teoria delle reti piccolo mondo, sono quegli individui che hanno
centinaia o migliaia di contatti diretti4) quella singola notizia viene letta da milioni di
persone in tutto il mondo.
Molto spesso, infatti, l‟operazione principale del blogger (ma anche di chi partecipa alle
social network) non è quella di scrivere nuovi contenuti, ma di propagare informazioni o
notizie scritte da altri e ritenute interessanti. Oppure di esprimere un commento su un
particolare articolo acquistato, o aggiungere il proprio punto di vista ad un post scritto
da un altro blogger.
Questo ha come pregio, come appena detto, la rapidità di propagazione, quasi virale; il
rovescio della medaglia è il rischio di perdere traccia della fonte originale, che la notizia
venga travisata, modificata o cambiata in alcune sue parti.
Resta, tuttavia, la forza del numero. Quando decidiamo di effettuare un nuovo acquisto
è alla Rete che chiediamo consiglio: è infatti dimostrato dagli studi di psicologia socia-
le
5
che ci fidiamo molto di più del parere di un amico (che ha già provato l‟oggetto in
3
Bart Decrem. “Introducing Flock Beta 1”. Blog ufficiale. http://www.flock.com/node/4500. Tratto il 30
novembre 2009.
4
http://www.bol.it/remainders/Nexus.-Perche-natura/Mark-Buchanan/ea978880451251/. Tratto il 28 no-
vembre 2009.
5
(Russo & Olivero, 2009, p. 23)
8
questione) piuttosto che di un esperto. Accediamo quindi al web e ci rivolgiamo a porta-
li specializzati nella comparazione degli articoli, dei prezzi e delle offerte, e soprattutto
nella raccolta di commenti da parte di altri acquirenti.
E‟ così che la Rete sceglie l‟andamento del mercato, semplicemente consigliando o
sconsigliando l‟acquisto di un prodotto.
Naturalmente le società potrebbero introdurre falsi commenti: fingersi acquirenti di un
prodotto e pubblicizzarlo come se fossero degli utenti soddisfatti. Ancora una volta è la
rete stessa a difendersi da questo genere di interventi tendenziosi: portali come
“www.ciao.it”, infatti, dà ai propri iscritti la possibilità di valutare gli altri utenti che
hanno lasciato commenti e recensioni sui prodotti. In questo modo è possibile capire se
un particolare intervento è autorevole o no. E‟ la Rete stessa a decretare l‟autorevolezza
dei suoi contenuti.
Per trovare una situazione come quella odierna bisogna risalire a 500
anni dall’invenzione della stampa, alla nascita dei mass media. Ora come
allora la tecnologia sta spostando il potere dagli editori, dai giornalisti,
dalle élite: ora è la gente comune che sta assumendo il controllo della
comunicazione6
Per completare il quadro occorre prestare attenzione anche alla componente hardware e
di connettività. Infatti avere strumenti web-based usabili e potenti, non sarebbe suffi-
ciente se le possibilità di accesso alla Rete fossero limitate.
Dal 1998 (anno in cui Libero, nato da Italia On Line, mise a disposizione gratuitamente
l‟accesso ad Internet) ad oggi, i punti di accesso al web si sono moltiplicati. Non solo
esistono decine di operatori attraverso cui connettersi alla Rete, ma l‟ampiezza di banda
(la velocità di trasmissione delle informazioni7) è aumentata e consente il trasferimento
di file ed informazioni di grosse dimensioni (come audio e video di alta qualità) in tem-
pi ridotti, o addirittura in tempo reale, come nel caso del live streaming.
Anche i device per effettuare l‟accesso alla Rete sono aumentati in numero (worksta-
tion, laptop, pda, smartphone) riducendosi di prezzo.
6
Rupert Murdoch, intervistato da Wired nel luglio 2006
7
Http://it.wikipedia.org/Wiki/Ampiezza_di_banda
9
Nonostante questo, il digital divide8, in Italia, resta ancora molto alto: l‟ultima stima è
infatti del 13%, pari circa 7 milioni e 800 mila persone, distribuite su tutto il territorio.
Non si tratta di un dato confortante, soprattutto se confrontato con quello degli altri pae-
si europei e mondiali (l‟Italia si assesta al 27° posto, tra Malta e il Portogallo9) . Per
questa ragione la corrente legislatura ha in programma di stanziare 73 milioni di euro
per colmare questo gap, garantendo un accesso a banda larga (almeno 2Mbit/sec) ad o-
gni cittadino italiano entro il 201110.
8
Il divario tra coloro che possono accedere alle nuove tecnologie e coloro a cui l‟accesso è precluso
9
Rapporto Caio: http://download.repubblica.it/pdf/2009/italia-caio-broadband-report-2009.pdf
10
Fonte: APCOM, 30 novembre 2009
10
Mash-up
Analizziamo ora il modo in cui funziona praticamente il Web 2.0, senza tuttavia entrare
in dettagli tecnici che esulano dagli scopi di questa ricerca.
Abbiamo affermato che la funzione principale degli utenti è quella di partecipare alla
conoscenza collettiva della Rete, e questo consiste spesso nel far rimbalzare da un posto
all‟altro le informazioni: da un blog a Twitter, da YouTube a FaceBook, eccetera.
E‟ importante ricordare, però, che il Web 2.0 non richiede competenze tecniche avanza-
te, anzi: chiunque deve essere in grado, senza conoscere una riga di codice, di partecipa-
re attivamente alla comunità online.
La risposta a queste esigenze prende il nome di mash-up: ovvero la possibilità di aggre-
gare informazioni prelevate da diverse fonti, combinandole all‟occorrenza e integrando-
le se desiderato.
In questo modo è possibile creare un nuovo contenuto partendo, per esempio, da un vi-
deo di YouTube, o da un articolo pubblicato su un quotidiano online, combinandoli e
creando un nuovo post da pubblicare sul proprio blog. Oppure è possibile segnalare alla
propria social network un articolo su un blog particolarmente interessante e aggiungere
un commento personale.
Tutto questo in pochissimi click, perché, ancora una volta, le operazioni necessarie agi-
scono di nascosto dall‟utente. Se osserviamo con attenzione, infatti, quasi tutti i quoti-
diani online mettono a disposizione una barra di link in coda ai proprio articoli: è suffi-
ciente scegliere da questa barra l‟icona del proprio blog (Wordpress, Blogger, ecc.) o
della propria social network (FaceBook, Ning, SocialGo, ecc.) per veder pubblicato un
collegamento a quell‟articolo all‟interno della propria pagina.
Allo stesso modo sotto ogni video di YouTube c‟è la possibilità di condividere quel vi-
deo su FaceBook o MySpace. In questo modo un utente può navigare sul social network
e guardare un contributo che, fisicamente, risiede altrove.
In questo modo è possibile anche limitare un fenomeno preoccupate a cui sembra che
nessuno abbia ancora pensato seriamente: con il crollo dei costi di servizi e memoria.
Con l‟avvento del web 2.0, infatti, la Rete si sta riempiendo di spazzatura: account non
utilizzati, blog abbandonati, video ed immagini salvate ovunque e dimenticate. E‟ lecito
11
chiedersi fino a quando la Rete potrà raccogliere indiscriminatamente tera-byte di mate-
riale inutile, dimenticato o abbandonato.
Se prendiamo per valida le celebre legge di Sturgeon11, secondo cui “il 90% di tutto è
spazzatura”, allora dobbiamo fare i conti con un incremento esponenziale del materiale
inutile in rete: ogni giorno vengono creati 75.000 nuovi blog, aggiornati con oltre 1,2
milioni di post al giorno, cioè 18 ogni secondo12.
Il mash-up, se usato correttamente, fornisce un primo esempio in controtendenza.
11
http://www.gandalf.it/arianna/sturgeon.htm
12
Fonte: Technorati. Tratto il 20 novembre 2009.