5
Al di là dello straordinario intuito di Berners-Lee riguardo il linguaggio Html che ha
reso possibile la realizzazione tecnica della rete, la vera idea rivoluzionaria risiede nel
modo in cui Berners-Lee concepisce la rete. Fin dal progetto originario l’intenzione era
quella di creare un mezzo di comunicazione non elitario, che permettesse lo scambio
piuttosto che la diffusione unilaterale di informazioni; una rete in cui non solo tutti gli
utenti sono posti su uno stesso livello comunicativo, ma dove avviene anche un
continuo scambio circolare di ruoli fra emittente e ricevente.
Indagando le attese degli scopritori di Internet, passando per le tappe della sua
diffusione, è inevitabile domandarsi se la rete rappresenta lo strumento adatto per
affrontare e sconfiggere le asimmetrie culturali presenti nella società, o non è altro che
una ricombinazione e dilatazione ingegnosa di retaggi comunicativi preesistenti, che
evolverà in un semplice canale di trasmissione, al servizio dei media tradizionali.
Di fronte alle potenzialità di condivisione della conoscenza della rete, le istituzioni e le
forze economiche si interrogano su chi ha il diritto reale ad accedervi e con quali mezzi
si può facilitare l’accesso, non solo per questioni di filantropia, ma anche per
problematiche riguardanti i costi sociali e ritorni economici. In una rete che trae forza
da un processo di alfabetizzazione collettiva e non ha ancora sviluppato, e forse mai
svilupperà, un proprio orientamento semantico stabile, vengono allora omaggiati come
déi (i famosi guru dell’usabilità) coloro che, anche tramite soluzioni talvolta banali,
hanno l’abilità di rendere semplice il complicato.
In questo caso il “semplice” prende il nome di accessibilità e usabilità, inteso come
rappresentazioni astratte dell’insieme dei requisiti essenziali che forniscono un accesso
agevole ad Internet, e contribuiscono a rendere l’esperienza dell’utente che naviga, la
migliore esperienza possibile. In sintesi l’accessibilità si riferisce a tutti i requisiti che
permettono ad un sito di essere consultabile dal maggior numero di utenti, anche da
parte di coloro che soffrono di disabilità fisiche e sensoriali, di coloro che dispongono di
attrezzature obsolete, o che possiedono una preparazione informatica scarsa o nulla.
L’usabilità invece riguarda il modo in cui sono rappresentate e distribuite le
informazioni e garantisce la fruibilità della pagina e/o sito web.
6
Con questo lavoro si intende fornire uno spunto di lettura del fenomeno, partendo
dall’analisi dei principali autori che hanno indagato le tematiche dell’usabilità e
accessibilità e le discipline collegate. Dall’analisi della letteratura e dalle evidenze delle
criticità che Internet, come nuovo medium, porta con sé, si è pensato infine di calare
nello specifico della realtà un caso concreto di analisi di accessibilità e usabilità, un sito
web dedicato alle persone anziane. La domanda relativa all’esperienza riguarda le
caratteristiche del sito; se la veste grafica, la distribuzione informativa e gli altri
elementi comunicativi sono appropriati in base alle finalità del sito stesso, ovvero
facilitare l’anziano nella ricerca delle informazioni, non nel senso di aumento della
conoscenza, ma misurando piuttosto quanto lo strumento appare duttile rispetto alle
competenze informatiche che le persone presentano.
Internet oggi appartiene alla moderna normalità. Se si considera il 1993 come l’anno di
riferimento per la vera e propria esplosione della rete (l’anno in cui viene rilasciato il
primo programma per navigare nel World Wide Web, chiamato Mosaic), Internet è uno
strumento tecnologico che compie ormai dodici anni. Generalmente dodici anni nel
campo della tecnologia indicano sicura obsolescenza, ma le innovazioni del world wide
web sono di tale portata, che Internet appare come uno strumento di comunicazione la
cui evoluzione è costantemente in uno stadio intermedio.
Agli inizi, la diffusione pressoché universale del World Wide Web scatenò l’entusiasmo
collettivo per un’imminente rivoluzione digitale. Alla luce degli avvenimenti che si
sono susseguiti nell’ultima decina d’anni, tali speranze di rivoluzione digitale oggi
possono apparire ingenue, tuttavia non appena il web muove verso schemi oligopolistici
tipici della Old Economy, il popolo della rete è capace di compattarsi e di reagire con
dei veri e propri esempi di resistenza collettiva più o meno diretti.
La rete si evolve a ritmi vertiginosi ogni giorno che passa; la sua vita segue un percorso
di errori ripetuti (o evitati) che ricorda l’andamento di una spirale in cui nuovi codici si
mescolano ad antiche tecniche di comunicazione. L’obiettivo ultimo di tutti coloro che
sono coinvolti nella gestione e fruizione della rete è una reale interattività fra macchine
e persone, un’interattività di livello talmente elevato che Berners-Lee, l’inventore del
World Wide Web, preferisce definire intercreatività.
7
Nella prima fase di sviluppo di Internet l’obiettivo principale di aziende e cittadini era
essere semplicemente on line con il proprio sito, il che avveniva con grande rapidità,
grazie alla facilità di apprendimento del linguaggio Html, fondamentale per scrivere le
pagine web. Successivamente la bolla speculativa intorno al World Wide Web si è
drasticamente ridimensionata e la selezione naturale effettuata dalle preferenze dei
lettori della rete ha fatto in modo che avessero successo solo i siti con dei contenuti
aggiornati e minuziosamente strutturati. Solo di fronte a questi segnali inequivocabili di
una diffusa perdita di interesse, o addirittura insofferenza, per i siti vuoti di contenuto e
per le grafiche dai colori squillanti, la comunità dei web-designer ha iniziato a chiedersi
quali siano gli itinerari operativi corretti che permettono di costruire un buon sito con
costi e tempi ragionevoli.
Le istituzioni pubbliche nazionali ed internazionali non sono rimaste indifferenti a
questo dibattito, hanno anzi dato segnali chiari di quale sia la via da intraprendere.
Parlare di accessibilità infatti significa parlare di diritto universale all’informazione e
alla conoscenza; significa analizzare e combattere l’emarginazione sociale causata dal
divario digitale fra chi ha le facoltà per accedere alle nuove tecnologie e le fasce deboli
della popolazioni (disabili e anziani) che senza adeguate politiche di
alfabetizzazione/sensibilizzazione ne rimangono “naturalmente” escluse.
In prospettiva di un futuro di e-government ed e-partecipation la Pubblica
Amministrazione si sta gradualmente insediando nella rete Internet. L’apparato
pubblico statale deve essere in grado perciò di garantire siti accessibili e usabili, non
solo per principi di senso civico ed equità sociale, ma per non dover pagare costi
socioeconomici pesantissimi, quando tra qualche decina d’anni la stragrande
maggioranza degli utenti del servizio saranno persone anziane che soffrono di patologie
che limitano i movimenti, la vista e la memoria. Da questo punto di vista l’Italia si pone
all’avanguardia nel recepire le raccomandazioni dell’Unione Europea riguardo l’e-
inclusion, grazie alla normativa 4/2004 “Disposizioni per favorire l'accesso dei soggetti
disabili agli strumenti informatici”, frutto di una lunga mediazione fra diversi disegni di
legge parlamentari (ad esempio il disegno di legge detto “Campa-Palmieri” e il disegno
di legge progetto di legge 7541 dell’onorevole Bono).
8
Nel secondo capitolo si affronta in dettaglio la definizione del termine disabilità in
rapporto alle tecnologie assistive. L’assunto di base, ripreso e approfondito nell’analisi
delle classificazioni a cura dell’Organizzazione Mondiale della Sanità che hanno portato
attuale ICF (International Classification of Functioning), è che la disabilità non è uno
stato dell’individuo, bensì è una condizione che si manifesta nel momento in cui
l’individuo è inserito in un contesto socioambientale sfavorevole. La tecnologia e una
rete Internet veramente accessibile hanno la potenzialità intrinseca di permettere a
ciascun disabile di vivere una vita normale, di annullare o alleviare le disabilità
sensoriali, motorie e cognitive.
Il terzo e il quarto capitolo sono dedicati rispettivamente all’analisi dei principi che
hanno dato origine ai concetti di accessibilità e usabilità. Come descritto nella teoria del
Design Universale, progettare siti accessibili e usabili per tutti non vuole dire progettare
siti con un’estetica povera, secondo quello che si può definire un minimo comune
denominatore, significa invece prevedere per ciascun sito delle alternative compresenti
e gradevoli che accontentino più tipologie di utenti e non la figura indefinita e
fuorviante dell’utente medio (average user).
Per quanto i web designer possano essere sensibilizzati al tema, realizzare siti usabili e
accessibili non è un’operazione semplice. Per diffondere la cultura dell’accessibilità
nella comunità mondiale dei web designer, Berners-Lee, il padre del World Wide Web,
fonda nel 1994 il World Wide Web Consortium (abbreviato in W3C), un ente
internazionale nato per facilitare l’interoperabilità del Web. Nel 1999 il W3C pubblica
quello che è ritenuto il più importante documento in materia di accessibilità, ovvero le
14 linee guida denominate WCAG 1.0 (Web Content Accessibility Guidelines 1.0).
Berners-Lee sceglie volutamente il termine linee guida per sottolineare il carattere non
coercitivo delle norme; si tratta piuttosto di un invito ad aderire a degli standard
internazionali alla cui stesura hanno contribuito migliaia di web designer esterni al
consorzio, con la consapevolezza di lavorare per una rete futura in cui le macchine
saranno capaci di creare connessioni e deduzioni.
Concetto complementare a quello accessibilità è l’usabilità, che indica letteralmente la
capacità di un artefatto di essere usato. Tradizionalmente è considerata un campo di
indagine dell’ergonomia classica, tuttavia l’avvento dei computer e di Internet ha dato
9
nuova linfa agli studi di questo settore, soprattutto nell’ambito della progettazione
hardware e software. In particolare lo studio di interfacce usabili è parte fondamentale
della storia del personal computer, nonché campo di battaglia nella guerra commerciale
in corso, combattuta fra i due colossi dell’informatica, Macintosh e Microsoft, alla
ricerca del sistema operativo il più corrispondente possibile agli schemi cognitivi
dell’utente finale. Nel web l’usabilità è quella particolare proprietà che permette al
visitatore del sito di esplorarlo in profondità, trovando sempre tutte le informazioni
desiderate senza mai sentirsi in balia del caso, di interrogare il sistema ottenendo
risposte sensate. Prima di estendersi ad altri ambiti contigui, come ad esempio la
disciplina emergente dell’architettura informativa, l’usabilità si legittima rispetto
all’osservazione empirica del comportamento dell’utente che naviga in Internet. In
particolare, due esperti statunitensi, Jakob Nielsen e Steve Krug, non a caso definiti
“guru dell’usabilità”, hanno saputo sfruttare più di altri le proprie intuizioni ricavate
dall’osservazione diretta dell’utente di fronte al monitor. Entrambi hanno creato due
paradigmi di usabilità diversi, ma ugualmente efficaci, che hanno avuto una diffusione
mondiale: Nielsen ipotizza un’usabilità scalabile in base ad euristiche di sua invenzione,
mentre Krug sceglie un approccio apparentemente più informale, orientato
all’autoesplicatività del messaggio e più in generale al buon senso, a common sense
approach.
La fine del capitolo è dedicata alla già citata intercreatività del web, realizzata
sottoforma di web semantico, e all’analisi del rapporto fra l’ipertesto e il lettore
dell’ipertesto. Berners-Lee inventa il web semantico come ulteriore tappa verso un
progetto di comunicazione ipertestuale democratica e intercreativa. Grazie alle
metainformazioni che accompagnano ogni elemento del web, in un futuro non troppo
lontano i dati potranno interagire fra di loro in modo tale che l’intero sistema sarà
capace di valutare il valore e le conseguenze delle proprie azioni. Non si tratta di teorie
legate all’intelligenza artificiale, bensì ad un ritorno alla rigorosa pulizia del codice per
evitare il rumore comunicativo, come avveniva d’altronde nell’essenziale web delle
origini.
Osservando i processi comunicativi all’interno della rete ci si accorge che le modalità di
interazione rappresentano una forma ibrida fra comunicazione orale e comunicazione
scritta, quella che Ong definisce oralità secondaria. Rientrano in questa definizione non
10
solo le applicazioni di interazione diretta con altri utenti le chat, le e-mail, ma anche lo
stesso ipertesto, espressione primaria della natura della rete. L’ipertesto non è altro che
un contenuto scritto che grazie a dei collegamenti denominati link si sviluppa su più
piani paralleli. Esso riveste sì la funzione di una tradizionale parentesi all’interno di un
discorso, ma offre anche l’inedita possibilità per il lettore di abbandonare il testo
principale per addentrarsi in percorsi informativi che, come nella comunicazione
parlata, possono assecondare i desideri istantanei o essere affidati completamente alla
casualità.
Un interrogativo che rimane aperto riguarda il rapporto che intercorre fra testo
tradizionale e lettura/scrittura digitale, sia da un punto di vista psicologico che
funzionale. Coloro che pensano che il web minacci il testo cartaceo, non tengono conto
del fatto che per l’utente è difficile superare i retaggi legati alla fisicità dell’oggetto
libro: l’utente si sente rassicurato psicologicamente quando possiede il testo stampato,
perché grazie alla fisicità dell’oggetto riesce ad attenuare quella sensazione di volatilità
e indeterminatezza, che accompagna la fruizione di tutti i supporti digitali.
Inoltre da un punto di vista funzionale, la leggibilità su carta risulta essere attualmente
insuperabile; ad esempio la velocità di lettura su schermo è inferiore del 25% rispetto a
quella su carta. Per lo sviluppatore di siti web si tratta dunque di progettare contenuti
tenendo conto sia delle caratteristiche dell’ipertesto, ma anche del lettore del web che
vuole solo leggere le pagine web “presto e bene”. In questo scenario le regole della
buona scrittura sul web seguono delle regole di composizione specifiche che spesso
differiscono da quelle collaudate da decenni sui media tradizionali.
In conclusione, come già anticipato, la parte sperimentale di questa tesi è dedicata alla
descrizione e realizzazione di un test di usabilità condotto su un sito dedicato agli
anziani, che, come noto, rappresentano statisticamente il settore di popolazione più a
rischio rispetto al fenomeno del digital divide. La scelta di considerare il portale gestito
da un’azienda sanitaria della regione, www.infoanziani.it, come oggetto di studio è
parsa una soluzione che conciliava con tutti gli aspetti che si intendeva indagare: un sito
del settore pubblico, che si rivolge principalmente ad utenti anziani è parso costituire un
punto di osservazione appropriato per valutare gli sforzi delle istituzioni per l’attuazione
concreta dei requisiti di usabilità e accessibilità. Il test di usabilità realizzato secondo il
11
thinking aloud method (protocolli verbali) e condotto con una metodologia che pone in
primo piano l’analisi qualitativa, avvicina il ricercatore all’utente finale. Tale metodo
non può non coinvolgere l’ascolto attivo e l’osservazione partecipe del ricercatore.
Grazie all’esperienza di Nielsen e Krug volta alla diffusione della cultura
dell’accessibilità e usabilità attraverso la semplificazione dei metodi di indagine, nel
nuovo corso della rete i test di usabilità non necessitano più di laboratori e di
cronometri, ma sono strumenti pratici e veloci, utilizzabili da chiunque voglia dare il
proprio contributo alla e-inclusione; in virtù della consapevolezza di essere validi solo
per ambiti limitati, i test diventano una prassi operativa ordinaria, naturalmente
collegata a ciascuna delle fasi di sviluppo del progetto web.
12
1. Internet c’è
1.1 Nuovi linguaggi, antiche problematiche
Internet è ormai una realtà consolidata che coinvolge milioni di utenti privati in tutto il
mondo e la quasi totalità della pubblica amministrazione. Negli ultimi anni abbiamo
assistito ad una rivoluzione profonda (ma, tutto sommato, poco appariscente a livello
quotidiano) nel modo di comunicare e di ricercare informazioni. Grazie ad Internet il
grado di reperibilità di un’informazione è verificabile in tempo reale, come anche
l’effettiva disponibilità su fonti alternative. La rete Internet permette infatti di
“teletrasportare” le informazioni e le idee e quindi annulla ogni tipo di ostacolo legato
alla distanza spazio-temporale.
Accorciare od eliminare le distanze fisiche è una caratteristica che contraddistingue tutte
le più grandi innovazioni tecnologiche (l’invenzione del telefono e della televisione, ma
anche lo sviluppo dei sistemi di trasporto intercontinentali) capaci di sconvolgere ogni
settore della vita quotidiana. In base a questo criterio appare evidente come questa
esperienza collettiva, resa ancora più rivoluzionaria dalla sua diffusione su larghissima
scala nell’arco di neanche dieci anni, sia stata immediatamente recepita da una parte
della società come il primo strumento concreto per la libertà di pensiero per una
democratizzazione del sapere a vantaggio dei più deboli. Nonostante questo aspetto sia
stato caricato di accezioni utopiche certamente eccessive, presto smentite dalle tendenze
del mercato verso le divisioni piuttosto che verso le convergenze digitali, nonché da una
inedita ossessione per la difesa del copyright, non si può negare che la rete Internet ha
prodotto e continuerà a produrre importanti mutamenti sociali accanto a nuove forme
ibride di comunicazione ipertestuale che stravolgeranno i codici dei tradizionali mezzi
di comunicazione.
Attualmente la democratizzazione di Internet non si realizza, come inizialmente
auspicato, attraverso la diffusione digitalizzata dello scibile umano, bensì attraverso un
processo di disintermediazione, ovvero l’eliminazione dell’esperto che funge da
intermediario nelle attività legate alla rete. Così ognuno diventa un giornalista capace di
raggiungere altri utenti raccontando sul proprio spazio web la propria visione dei fatti,
13
ognuno può comprare biglietti aerei senza recarsi in agenzia o allo stesso modo può
consultare orari, partecipare ad aste on line in completa autonomia. Software
specializzati - chiamati “agenti” - possono personalizzare e effettuare autonomamente
delle ricerche di rete, ritornando poi al cliente con le proposte su misura più interessanti,
confrontate per prezzo e qualità
(Carlini 1999, 13).
Bisogna tener presente che l’eliminazione dell’intermediario
1
è un fenomeno
temporaneo legato alla fruizione di Internet nel nostro tempo. Internet sta subendo un
ennesimo passaggio verso quella che si può chiamare terza fase, una terza vita di
Internet caratterizzata da reti diverse (banda larga, sistemi wireless) che assorbe la
multimedialità insita in tutti i medium tradizionali, come una televisione con migliaia di
canali, possibilmente tutti a pagamento (Carlini 2004) e diventa terreno di conquista per
i soggetti della Old Economy, mentre l’utente ritorna ad essere un semplice cliente che
paga per avere accesso temporaneo al servizio e che usufruisce di spazi autonomi
all’interno del web sempre più limitati
2
.
Anche se Internet ha fatto incontrare virtualmente milioni di persone lontane e la
globale possibilità di accesso alle banche dati in rete ha permesso di effettuare ricerche e
approfondimenti sempre più accurati, l’interattività offerta dal web rimane comunque
bassa rispetto alle speranze dei ricercatori che studiarono i primi protocolli di
trasmissione. Tim Berners-Lee, ricercatore del Cern nel campo dell’ingegneria del
software che negli anni Novanta creò la prima versione del linguaggio di creazione di
1
Un esempio concreto del successo di questo processo di disintermediazione commerciale è il sito
Amazon.com. Con un catalogo di circa 3 milioni di libri, è contemporaneamente libreria on line,
comunità di lettori e un incredibile serbatoio di recensioni. Al cliente che rientra nel sito viene proposto
un elenco di ultime uscite, affinato in base alle proprie esigenze, ai propri acquisti, alla sezione di
argomenti che più ha frequentato.
2
Berners-Lee esprime efficacemente le sue preoccupazioni: “Ma pensate bene a cosa potrebbe capitare
[…] quando I motori di ricerca saranno più intelligenti. […] dico a un motore di ricerca che voglio
comprare un paio di scarpe, e in teoria questo dovrebbe avventurarsi nel web a cercare negozi, mentre in
realtà mi porterà solo a quelli che hanno stipulato un accordo con quel motore di ricerca. […] è come
avere una macchina con un comando “vai a comprare le scarpe” sul cruscotto. Quando lo premi, quella ti
porta solo al negozio che s’è messo d’accordo col fabbricante dell’auto. Questo non mi aiuterà a trovare il
miglior paio di scarpe al prezzo più basso, non favorirà il libero mercato e non favorirà la democrazia”
(Berners-Lee 2001, 121).
14
collegamenti ipertestuali Html e il fondamentale concetto di Url (uniform resource
locator), inventando il World Wide Web, non nasconde una certa delusione per non
essere riuscito a realizzare un medium veramente interattivo
3
. Fin dall’inizio pensò al
web come un strumento che recasse significative ricadute sui rapporti sociali reali.
Berners-Lee voleva realizzare un medium che permettesse l’intercreatività, piuttosto che
l’interazione, in una rete di conoscenza intrecciata tramite ipertesto che contenga una
fotografia istantanea della reciproca comprensione (Berners-Lee 2001); un continuo
scambio di idee fra più lettori attenti e un autore finalmente presente, piuttosto che una
consultazione di una pagina web fissa da parte di singoli utenti dove l’unica possibilità
di feedback è il pulsante per scrivere al webmaster.
In modo meno pessimistico si può affermare che Internet, data la sua recente creazione,
rimane ancora una materia in cui la ricerca di un modello di comunicazione efficace
procede per lo più per tentativi ed errori, dove l’interazione fra utenti è intensa, ma
testuale, effimera e destinata a creare intrattenimento.
Tale difficoltà nel creare percorsi efficaci nel web è senz’altro frutto della relativa
incapacità di valutare con la giusta distanza di analisi gli impatti a lungo termine di un
fenomeno comunicativo giovane come Internet, ma origina anche da un errore di fondo
nato da una logica di assimilazione che ha portato a paragonare la rete ad altri media
tradizionali. Il paragone diretto con altri mezzi di comunicazione, senza riorganizzarne
gli ambiti di indagine, neanche di fronte alla rapidissima diffusione a livello mondiale
del web, fa sì che il conflitto fra accessibilità e usabilità da una parte e creatività
dall’altra non sia stato ancora sostanzialmente risolto.
Eppure l’innovazione profonda che rende Internet non assimilabile agli altri mezzi di
comunicazione tradizionali è stata colta da molti, esperti e non: De Kerckhove ha più
volte affermato che Internet è un “my-way medium”, cioè dispone di una illimitata
interattività e adattabilità alle esigenze degli utenti, una potenziale personalizzazione
totale che appare inedita nella storia delle comunicazioni umane.
3
In un’intervista-profilo (Holloway 1997) Berners-Lee dichiara: "It was to be a very interactive medium;
that was the idea. But you ain’t got that".
15
Tuttavia non è detto che riconsiderare le specificità della rete e l’evoluzione di Internet
attraverso una logica di assimilazione in favore degli altri media sia un processo di
analisi di per sé inefficace. Negli anni Sessanta McLuhan ricordava quali siano i fattori
rilevanti che condussero all’invenzione del cinema, estremizzando il concetto di causa-
effetto alla base dell’innovazione tecnologica: all’origine del cinema vi è l’invenzione
della ruota. Senza il concetto di ruota nessuno avrebbe mai inventato la bobina per
avvolgere la pellicola, i cui fotogrammi creano la sensazione di movimento.
Secondo questa logica “rassicurante” Internet, come ci appare oggi, non è uno
strumento significativamente caratterizzato da contenuto tecnologico. Infatti, le reti di
computer erano già state utilizzate, sebbene in ambiti ristretti come quello militare
(ARPANET). L’ambiente virtuale delle interazioni nella rete, il cosiddetto cyberspazio,
non implica nuove modalità di approccio comunicativo, non è una particolare
infrastruttura tecnica di comunicazione, ma un certo modo di servirsi delle infrastrutture
esistenti (Levy, 1999) e la tecnologia rappresenta semplicemente una chiave che
permette di conoscere e scegliere se accedere o ignorare alcune possibilità sociali.
1.2 Moltitudini intelligenti
Accanto alle pagine web che ricalcano gli schemi e gli stili dei media tradizionali, ai
weblog senza notizie e alle chat-room convivono esperienze collettive che fungono da
banco di prova e lasciano ben sperare per la democratizzazione della rete e
l’intercreatività. Nel 2002 Howard Rheingold conia la fortunata definizione smart mobs
per indicare il rapporto di sinergia che si instaura fra le forze sociali e la nuova
tecnologia. La contrapposizione fra i termini smart e mob, dove mob ha il significato
dispregiativo di “folla, ressa, calca” e l’aggettivo smart si traduce con “brillante,
intelligente, abile” ma anche “veloce”, sembra indicare che questa sinergia delle
capacità cooperative attraverso i nuovi media abbia contemporaneamente sia effetti
benefici sia distruttivi: nel 2000 nelle Filippine il tam-tam via Internet e via Sms fece in
modo che un milione di cittadini si riversasse nelle piazze, spostandosi secondo un
movimento coordinato per disorientare le forze dell’ordine, per chiedere (e ottenere) le
dimissioni del governo di Estrada; gli automobilisti britannici utilizzano le nuove
tecnologie per organizzare azioni di sciopero spontaneo contro l’innalzamento dei
prezzi del carburante e così via.