CAPITOLO 3
LE BARRIERE IN RETE
«Se tutti gli uomini, meno uno, avessero la stessa opinione, non avrebbero diritto di far tacere
quell’unico individuo più di quanto ne avrebbe lui di far tacere, avendone il potere, l’intera
umanità […] impedire l’espressione di un’opinione è un crimine particolare perché significa
derubare la razza umana, i posteri altrettanto che i vivi, coloro che dall’opinione dissentono ancor
più di chi la condivide: se l’opinione è giusta, sono privati dell’opportunità di passare dall’errore
alla verità; se è sbagliata, perdono un beneficio quasi altrettanto grande, la percezione più chiara e
viva della verità, fatta risaltare dal contrasto con l’errore» (John Stuart Mill 1981, p. 35)
Secondo Wikipedia, l’enciclopedia libera e accessibile a tutti coloro che desiderano collaborare,
la definizione di censura è «[…] il controllo della comunicazione o di altre forme di libertà
(libertà di espressione, di pensiero, di parola) da parte di una autorità. Nella maggior parte dei
casi si intende che tale controllo sia applicato nell’ambito della comunicazione pubblica, per
esempio quella a mezzo stampa o altri mezzi di comunicazione di massa; ma si può anche
riferire al controllo dell’espressione dei singoli […]»
1
L’intento della censura è quello di controllare le persone, di influenzare i loro modi di pensare e
comportarsi, di manipolare le loro opinioni. E questo può avvenire sbarrando l’accesso a una
informazione onesta e imparziale, perché è chiaro che le idee degli uomini nascono in virtù delle
informazioni che gli stessi hanno a disposizione. Se si consegnano alle persone informazioni
falsificate, cancellate, filtrate, ecco che di conseguenza le idee che si formano risultano alterate,
fino ad arrivare al rischio più devastante, cioè di portare gli uomini a non avere più alcuna idea.
Internet, lo spazio informativo per eccellenza, è un ambiente tanto dinamico quanto pieno di
contraddizioni. Anche se superficialmente potrebbe sembrare un universo libero e indipendente,
in effetti il web è costellato di ostacoli e barriere. Oggi il pericolo della rete è che si rischia di
arrivare a quello che Granelli (2013) definisce un vero e proprio “fondamentalismo digitale” che
arriva a estremizzare le potenzialità della rete, e riducendo di fatto le sue straordinarie capacità,
rischia di trasformare l’utente in un soggetto passivo e soprattutto manipolabile (Granelli 2013,
p. 18).
1
http://it.wikipedia.org/wiki/Censura
2
La censura è abituale nei paesi totalitari, ma non solo. Sicuramente i paesi cosiddetti
democratici non useranno tecniche palesi di censura che adesso comunque nessun governo al
mondo, salvo eccezioni, grazie alla visibilità di internet, tende ad attuare, ma usa sistemi più
subdoli, intrusivi, a volte a risultato secondario per mascherare lo scopo finale, ma non per
questo meno pericolosi. I governi, anche quelli dispotici, hanno capito che il miglior sistema per
marginalizzare il dissenso e mettere barriere alle idee non è bandirle con la forza perché questo
non farebbe altro che attirare ancora di più l’interesse per ciò che si vuole proibire. Un sistema
per applicare muri alla dissidenza è mettere in atto azioni per alterare le informazioni. Anche
invadere il mercato di ogni tipo di notizia è un buon sistema, la verità si mescola alla menzogna,
notizie e informazioni di ogni tipo servono a distrarre i lettori e renderli «prigionieri digitali che
sanno come consolarsi online qualunque sia la situazione politica e sociale» (Morozov 2011, p.
67).
Secondo Richard Stallman (cit. in Morozov, 2011), guru del software libero, spesso navigare in
internet è come infilarsi in una gabbia dorata, senza sbarre apparenti, ma totale. Si scopre così il
lato oscuro di questo nuovo media, quel lato pervasivo che porta con sé il potere della
sorveglianza e della censura.
3.1. – Barriere endogene
3.1.1. - L’Effetto polarizzazione in rete
Nel 1971 l’economista Thomas Schelling (cit. in Carr, 2008) ha guidato un esperimento
prendendo spunto da una sua osservazione sulla segregazione razziale negli Stati Uniti che
aveva notato essere molto accentuata.
Schelling ha iniziato tracciando un reticolo su un semplice foglio di carta, una specie di
scacchiera di grandi dimensioni. Ogni quadrato rappresentava un lotto di abitazioni. Poi ha
collocato una bandierina bianca e una nera. Il diverso colore rappresentava la razza della
famiglia. Nel posizionamento delle bandierine l’economista inizialmente aveva supposto che
ogni famiglia avesse desiderato collocarsi in luoghi dove esistevano razze diverse e infatti le
bandierine erano state sistemate, sia quelle bianche che quelle nere, in ordine sparso.
Successivamente aveva stabilito un’altra premessa: che le famiglie, nella scelta del luogo in cui
dimorare, preferivano avere come vicini anche alcune persone della stessa razza. Se la
percentuale dei vicini dello stesso colore fosse scesa sotto il 50% la famiglia avrebbe cambiato
casa. Con queste serie di paletti, Schelling cominciò a spostare le bandierine, una per una. La
3
conseguenza fu che il reticolo cominciava a prendere una configurazione di segregazione quasi
assoluta. Tutti i segnalini bianchi si erano alfine ritrovati insieme e separati da tutti quelli neri.
Il risultato a cui Schelling (cit. in Carr, 2008) è giunto è che piccole preferenze, piccoli
incoraggiamenti possono portare a polarizzazioni estreme. La realtà è che qualunque situazione
o esperienza si viva bastano poi poche circostanze e condizioni personali che l’essere umano
man mano finisce sempre col posizionarsi ai poli, agli estremi.
Nicholas Negroponte (1996) sostiene, a questo proposito, che se viene messo a confronto
l’esperimento di Schelling con il mondo della rete, questo non fa che avvalorare la tesi di chi è
scettico sul fatto che internet elimini tutte le barriere per lasciare uno spazio aperto alla libera
comunicazione, alla libera espressione del pensiero. Lo scrittore non ritiene affatto che il web
sia una distesa egualitaria e multicolore (Negroponte, 1996).
Anche Marck Buchanan (cit. in Carr, 2008), nel suo libro Nexus, Perché la natura, la società e
l’economia funzionano allo stesso modo, descrive la vita sociale che non dipende soltanto da
ciò che le persone desiderano, ma anche dall’«azione di forze cieche e più o meno meccaniche,
forze che possono amplificare piccole preferenze personali, apparentemente innocue,
determinando conseguenze radicali e problematiche» (Buchanan cit. in Carr 2008, p. 155).
Nicholas Carr (2008), nel suo Il lato oscuro della rete. Libertà, sicurezza, privacy, è convinto
che il processo di polarizzazione avviene anche nelle comunità virtuali così come accade nei
sobborghi delle città, e in questo immenso spazio il fenomeno si produce ancora più
rapidamente. La gente istintivamente ha l’abitudine di frequentare persone simili, con gli stessi
gusti, che condividono le stesse esperienze, le medesime aspettative, uguali convinzioni
politiche cosicché pian piano, ma neppure poi tanto, inevitabilmente entra a far parte di
community o a comunicare online con persone simili e omogenee, un click dopo l’altro.
Secondo Carr (2008), due fattori principali che enfatizzano la polarizzazione sono gli algoritmi
e i filtri di personalizzazione che spesso vivono di vita propria, abitano la rete, e senza permesso
alcuno,si appropriano dei dati che appartengono agli ignari frequentatori del web condizionando
le loro scelte. Ogni volta ad esempio che viene utilizzato Amazon per acquistare un libro, o
quando si visita un sito, gli algoritmi immagazzinano le informazioni relative alle diverse
preferenze, che poi utilizzeranno per proporre cose che a quel punto saranno mirate a incontrare
i gusti di ognuno, perché calzate sui gusti personali degli utenti. Ciò sicuramente agevola le
scelte e fa risparmiare tempo ma alla lunga rischia di limitare i siti e le informazioni che si
andranno a visualizzare (Carr, 2008) .
Anche Mattheu Hindman, (2006) ricercatore politico presso l’Università dell’Arizona, da uno
studio effettuato, ha evidenziato in rete una forte polarizzazione. Lo studioso ha osservato i
flussi di traffico dei link all’interno di un blog e anche lui ha messo in evidenza che quasi tutti i
4
cybernauti hanno la propensione a condividere e interagire con chi ha la stessa visione del
mondo, insomma chi la pensa allo stesso modo. Una quantità ridottissima di utenti aveva
contatti con chi la pensava in maniera diametralmente opposta e se ciò accadeva era solo per
lanciarsi offese reciproche oppure si erano rivelati troll. Le opinioni di ognuno si consolidano e
si radicalizzano e chi dissente o se ne va spontaneamente o viene in malo modo estromesso.
Riotta (2013) definisce queste situazioni che si vengono a creare sul web, dei ricettacoli di
malessere che possono condurre alla deriva democratica.
Geert Lovink (cit. in Granelli, 2013), massmediologo, è un altro critico della rete che ha rivisto
la considerazione per le sue virtù. Nel suo volume Zero Comments, Blogging and Critical
Internet Culture fa una ricerca approfondita sui blog. L’autore non focalizza la sua ricerca sulla
dicotomia blog versus media tradizionali ma centra l’attenzione sul taglio sociologico e
culturale, vuole fare emergere la componente pessimistica dei nuovi media. Lentamente si
vanno a escludere i feedback degli utenti e si accetteranno solo i commenti positivi. Per lo
scrittore olandese il movimento dei social media si sta trasformando da rivoluzione democratica
e aperta al pensiero libero, ad uno spazio ristretto di esseri monopensanti. I blogger mirano allo
«zero comment», non ricercano alcun contraddittorio con la rete e pian piano si polarizzano
(Lovink cit. in Granelli 2013, p. 60).
Anche Cass Sunstein (2007), docente di Giurisprudenza alla Chicago University, ha condotto
un’analisi accurata sui blog in rete. Prendendo a campione millequattrocento blog, ha rilevato
che sono comunità di discussione molto referenziali. Pian piano la comunità della rete si
popolerà di persone che la pensano esattamente allo stesso modo perché avrà estromesso le
opinioni divergenti. Si avranno blog popolati da gente in isolamento e chiusura culturale, fino
alla ghettizzazione, si diventerà incapaci di un libero confronto. L’autore solleva preoccupanti
timori sulle conseguenze sociali perché restringere l'orizzonte ai soli argomenti di proprio
interesse può condurre, come già trattato nel primo capitolo, a una segmentazione in tribù
omogenee che non interagiscono, imprigionate in ‘echo chamber’. Secondo Sunstein (2007) se
si riuniscono in gruppo persone che hanno idee molto convergenti, spesso non faranno altro che
aggravare e estremizzare i loro pregiudizi, molto più di quanto avevano all’inizio. Questa
situazione accade molto spesso in internet e ciò porta le idee a spostarsi verso gli estremi, a
polarizzarsi. Esiste la possibilità di una deriva allarmante perché la polarizzazione può sfociare
in casi di fanatismo e addirittura in atti di terrorismo (Sunstein, 2007).
Per polarizzazione dei gruppi Sunstein (2010) intende:
«[…] il fenomeno per cui, quando persone di idee simili si trovano insieme, spesso finiscono per
approdare a una versione delle stesse idee più estrema di quella che avevano prima di cominciare a
5
parlarsi. Immaginiamo che i membri di un certo gruppo siano propensi a considerare vero, per
esempio il "si dice" a proposito delle intenzioni ostili di una certa nazione. È molto probabile che
dopo essersi parlati si convincano ancora di più che la notizia sia vera, passando da un'adesione
scettica all'assoluta certezza, anche se in proposito conoscono soltanto le opinioni degli altri
membri del gruppo. Nell'era di internet, chiunque può ricevere molte comunicazioni da un gran
numero di persone e pensare che tutto ciò di cui viene a conoscenza debba essere vero […]»
(Sunstein 2010, p.24).
Nel suo libro Republic.com l’autore (Sunstein 2003, ed.or. 2001) dà una interpretazione
sociologica all’inevitabile polarizzazione dei gruppi. Egli sostiene infatti che in caso si debba
scegliere cosa guardare fra un mare di informazioni a disposizione, le persone preferiscono in
genere ciò che è familiare perché così facendo si vengono a consolidare le loro certezze,
secondo una tendenza denominata «omofilia». Il giurista spiega il significato con un esempio
pratico, affermando che se vengono presi in considerazione dieci programmi televisivi graditi
dalla popolazione bianca ed altri dieci che incontrano il favore delle persone di colore, ci
saranno ben pochi programmi in comune e anzi l’esperimento ha dimostrato che fra i dieci
programmi più amati dagli afroamericani, sette di questi rientravano proprio fra quelli più
detestati dalla gente di razza bianca. Per Sustein (2003, ed.or. 2001) questa polarizzazione
radicalizzata avviene per due motivi: la prima ragione è perché, stando rinchiusi nella gabbia di
discorsi uguali e perfettamente condivisibili, anche le idee e i punti di vista personali si
restringono e l’altra ragione è che si tende a fare nostra la posizione dominante del gruppo
meglio se quella del suo leader, che è il solo presupposto per essere accettati al suo interno,
anche perché diversamente c’è l’espulsione . Tutto questo è un forte pericolo a cui rischia di
andare incontro internet e la società tutta (Sunstein, 2003, ed.or. 2001).
«Classificare i gusti, incanalare le preferenze, presupporre le scelte, fa risparmiare tempo e
rende le transazioni più efficaci», ma tutto questo a quale prezzo, si chiedeva Patrizia Feletig
(2005) in un suo articolo su Repubblica.it. Lei sosteneva che non solo sorgeva una ovvia
complicazione al riguardo della privacy, ma questa lenta quanto inesorabile rinuncia al libero
arbitrio suscitava serie preoccupazioni sui contraccolpi sociali.
Secondo Tursi (2011), la “cyber balcanizzazione” così definita da Erik Brynjolfsson, professore
al Mit, e fenomeno riproposto anche da Sunstein, può risultare un pericolo per la tenuta sociale
nella vita concreta (Tursi 2011, p. 112).
Ogni qualvolta le persone trovano conferme in soggetti che la pensano come loro e che
enfatizzano ancor più le loro opinioni, si convincono maggiormente dell’esattezza dei loro
principi e di conseguenza dell’ erroneità di quelli degli altri che rifiutano e allontanano. Si
rinchiudono nella loro cerchia di amici con cui condividono pensieri rigorosamente uguali e può
6
succedere, in caso di forte estremismo, di cadere nel vero e proprio integralismo e quando va
bene, ad un impoverimento culturale e frammentazione sociale.
3.1.2. - Gli algoritmi e i ‘suggeritori’ digitali
«Come è possibile dedurre intenzioni a partire dalle azioni?». È realizzabile grazie a quelli che
vengono chiamati ‘Agenti Intelligenti’, considerati dei veri e propri manipolatori di dati e
informazioni (Marinelli, 2004).
Marinelli (2004) presenta gli algoritmi come «maggiordomi da desktop», quegli stessi
maggiordomi che Negroponte definisce “digitali” (Negroponte 1996, p. 155). Marinelli li
rappresenta come una “intelligenza di supporto” che opera discretamente, in silenzio, dietro le
quinte e che suggerisce ciò che ritiene possa incontrare le preferenze del suo padrone. (Marinelli
2004, p. 82).
Questi servitori digitali registrano meticolosamente ogni dato che incontrano all’interno
dell’apparecchio informatico. Marinelli riflette se i leader alla fine siano proprio loro, quei
servitori fedeli che, con discrezione soccorrono i proprietari dei dati per offrire loro ciò di cui
ritengono abbiano bisogno, conoscono i loro gusti e le loro preferenze e prevengono le loro
richieste, facendo tesoro dall’osservare minuziosamente i comportamenti e le azioni dell’utente
con il mezzo tecnologico (Marinelli 2004).
A parere di Marvin Minsky (cit. in Marinelli, 2004), uno dei fondatori dell’Intelligenza
Artificiale, questi Agenti Intelligenti erano considerati come un miraggio utopico soltanto fino a
qualche anno fa, anche se non è sempre vero che gli agenti artificiali sono anche intelligenti, né
che tutti i sistemi intelligenti si possono definire agenti.
Gli Agenti Intelligenti, rapportati alla rete, sono software che automaticamente cercano e
trovano sul web informazioni utili. Questi agenti lavorano in parallelo con altre macchine e
hanno la capacità di interagire fra loro per la risoluzione di determinati problemi e si adoperano
per il cliente come dei veri e propri servitori, abili nel prevedere i loro desideri dopo avere
osservato minuziosamente i loro comportamenti, trasformati in dati così da poterli comparare
agevolmente con altri. Se si esaminano ad esempio i tastierini numerici del telefonino e il
famoso T9, l’opzione così utile di cui gli appassionati di sms non possono più fare a meno, si
intuisce facilmente che questi sistemi di facilitazione non provocano timore e inquietudine
perché si occupano del benessere di chi li adopera senza altra ragione se non quella di essere
utili, senza nulla pretendere in contropartita. Sono ben altri agenti a suscitare malesseri. Questi
sono gli Agenti di Viaggio cioè i cosiddetti “Travelling Agents” e gli Agenti Sociali o “Social
Agents” (Marinelli 2004, p 142).
7
I primi, i Travelling Agents, sono stati creati soprattutto per il commercio online e vagano qua e
là per la rete in cerca di tutte le informazioni utili per attirare i probabili consumatori. Hanno il
precipuo obiettivo di indicare al consumatore la strada per arrivare al prodotto che potrebbe
incontrare i suoi gusti. Questi inconsapevoli clienti non si rendono ben conto che dietro le
proprie scelte di acquisto, ci sono aziende di marketing che hanno in mano le loro identità, e
hanno trasformato il web in quello che Marinelli (2004) definisce un «mercato virtuale a
concorrenza perfetta». L’autore li descrive evidenziandone la positività in quanto tale tipologia
di Agenti sono spiegati come sistemi grazie ai quali tutti i consumatori hanno teoricamente l’
identico accesso ai venditori che forniscono le migliori offerte (Marinelli 2004, p. 142).
Gianni Riotta (2013), nel suo Il web ci rende liberi? Politica e vita quotidiana nel mondo
digitale, cita l’esempio del campeggiatore tradizionale che al momento in cui si appresterà a
fare su internet delle ricerche per le vacanze, il motore di ricerca non gli proporrà assolutamente
un albergo a cinque stelle e al contrario, per chi è avvezzo alle vacanze di lusso, alla richiesta di
un albergo, si vedrà prospettare immediatamente una suite con vista mare. Riotta precisa che
«[…] quando usiamo un servizio web gratuito non siamo noi i clienti: siamo la merce» (Riotta
2013, p. 45).
I secondi, i Social Agents, sono stati formulati per interagire con altri agenti allo scopo di
condividere o negare determinate informazioni o dati e sviluppare essi stessi, al di là e
nonostante le intenzioni dei legittimi proprietari, comportamenti che possono essere associativi,
facilitativi o al contrario combattivi o addirittura violenti. In questo caso si può parlare
addirittura di sopravvivenza darwiniana: continua a sopravvivere e a crescere solo chi, nel
confronto e nel combattimento, risulta adatto per la sopravvivenza (Marinelli, 2004).
Gli sniffer e gli spider
2
sono software che mappano e tracciano la vita sociale del
cyberconsumatore. Questi programmi vagano liberamente tra i nodi della rete e rastrellano tutto
ciò che riescono a raccogliere: indirizzi e-mail, user id, anche password. La tendenza a elaborare
sistemi software sempre più semplici e sofisticati fa sì che gli utenti navighino sicuri per il web
completamente ignari di essere controllati e così succede che vengono controllati di più e
meglio. Anche lo spam, cioè l’uso indiscriminato di e-mail a carattere pubblicitario nella casella
di posta elettronica senza alcuna richiesta da parte dell’utente, è spesso dovuta ai continui
controlli sulle preferenze dell’utente e all’estrapolazione dei suoi dati fra cui lo stesso indirizzo
di posta, ceduto in qua e là per la rete. Lo spamming è una conseguenza diretta della
2
Software in grado di elaborare i dati. Si collegano a siti, ne estraggono i contenuti e li elabora in modo
piu' o meno originale. Lo sniffer, rispetto allo spider ha funzioni piu' evolute per l'utente. Lo spider visita
siti per indicizzarli nei motori di ricerca, lo sniffer invece per creare cataloghi o comparare offerte su piu'
siti.
8
sorveglianza. Quando va bene causa l’intasamento della casella e la perdita di tempo dell’utente
(Battaglia, 2006).
Pariser (cit. in Riotta, 2013) nel suo libro, Il filtro, quello che Internet ci nasconde, parla di
enigmatici e seducenti algoritmi di Google che setacciano e analizzano i movimenti dei
cybernauti sul web. Quando viene digitata una richiesta sul motore di ricerca si pensa che le
indicazioni che Google ci rimanda siano casuali, ma questo non è corretto. I siti che Google
consiglia derivano dalle precedenti richieste effettuate e l’internauta si ritrova scortato verso
gusti, convinzioni, idee, concetti, preferenze che qualcuno ha deciso per lui, ritrovandosi in
quelle ‘Stanze’ di Weinberger che si confanno ai suoi gusti, alle sue aspettative, alle sue
preferenze, mentre è stato scartato quello che, secondo Google non va bene per lui (Pariser cit.
in Riotta, 2013).
Pariser (2011) , in un suo intervento pubblico diffuso sul sito Ted.com, approfondisce il tema
della censura del web e delle modalità di diffusione dell’informazione on line analizzando quali
tipi di segnali e messaggi Aziende come Google e Facebook riescono a carpire dai netizen, e
l’utilizzo poi che ne verrà fatto, rivolto unicamente a mostrare cose a loro gradite o, per meglio
dire, ciò che tali aziende fanno in modo che siano gradite. È impressionante, sostiene Pariser
(2011), come la personalizzazione delle ricerche sul web e le conseguenti barriere, tanto potenti
quanto poco trasparenti, possono orientare la vita delle persone, dei governi, addirittura di interi
Continenti.
Le riflessioni che Pariser (2011) si pone sono inquietanti «La rete come la conosciamo oggi è
forse già chiusa dentro una gabbia? Il popolo del web sta abdicando al libero arbitrio? Chi
decide se uno scoiattolo nel proprio giardino sia più importante, più rilevante di quanto possano
esserlo le persone che muoiono in Africa?»
Di fronte al pubblico, Pariser (2011) racconta di come per lui, da ragazzo, internet avesse avuto
una valenza ben diversa. Era una finestra sul mondo, una fonte di comunione tra la gente, al di
là delle distanze. La rete veniva percepita come libera e democratica. L’attivista avverte il
cambiamento in rete e lo descrive come impercettibile e pericoloso e proprio perché è così
leggero il rischio è di non prestargli la dovuta attenzione. Racconta di essersi accorto di questa
anomalia in un luogo dove lui stesso rivela di trascorrere molto tempo: la sua pagina Facebook.
Fa un esempio sulla sua ideologia politica. L’attivista ammette di sostenere i progressisti ma è
comunque sempre stato aperto anche alle opposte idee politiche dei conservatori perchè gli
piace confrontarsi con chi la pensa diversamente da lui; ama misurarsi, preferisce le sfide perché
avere rapporti con chi non la pensa allo stesso modo, secondo lui, arricchisce. Un giorno è
rimasto sorpreso nell’accorgersi che i conservatori erano spariti dal suo aggregatore di notizie su
Facebook ed ha scoperto anche che il social network registrava i siti che lui visitava. Pariser
9
effettivamente frequentava maggiormente i siti liberali rispetto a quelli conservatori, cosicché,
senza alcun preavviso, Facebook aveva escluso questi ultimi dal suo mondo, erano spariti
(Pariser, 2011).
Non è solo questo social network ad avere operato tale selezione algoritmica, anche Google si è
comportato in maniera alquanto bizzarra. Pariser racconta di un altro fatto significativo: se lui e
un altro soggetto si accingessero a fare una ricerca contemporaneamente sullo stesso argomento,
si potrebbero ottenere risultati notevolmente diversi. Pariser (2011) ha spiegato che
indipendentemente che un soggetto sia connesso o meno ci sono ben cinquantasette segnali che
vengono analizzati da Google, fra i quali il tipo di computer, il posto da cui siamo connessi, il
programma di navigazione. Google usa tutte queste informazioni per adattarle alla ricerca. Il
fatto è che non ci sarà più un Google uguale per tutti ed è inquietante che il caso passi spesso
inosservato. È molto difficile accorgersi che una ricerca possa essere diversa da un’altra. Pariser
(2011) , a dimostrazione di ciò che aveva scoperto, racconta al pubblico che qualche giorno
prima si era fatto appositamente inviare da un suo amico egiziano la schermata della pagina
principale del sito. E la differenza con la sua era palese. Era curioso che nella sua pagina non
esistesse alcun riferimento ai fatti egiziani mentre ne era piena la pagina dell’amico. E proprio le
proteste in Egitto erano in quel periodo, all’ordine del giorno.
Anche un folto numero di aziende in rete sta effettuando questa selezione. Al riguardo lo
scrittore cita Yahoo News, il maggiore sito di notizie in internet che lui sostiene essere ora
personalizzato, persone diverse ottengono notizie diverse. Pariser (2011) usa una frase
significativa: «Ben presto ci ritroveremo in un mondo in cui internet ci mostrerà solo ciò che
suppone noi vogliamo vedere ma non necessariamente quello che dovremmo o vorremmo
vedere».
Pariser definisce tutti questi filtri algoritmici “Gabbia di filtri”, poiché presto l’utente digitale si
ritroverà ingabbiato in uno spazio che non ha scelto. Gli equilibri si alterano e invece che
informazioni bilanciate non rimarranno altro che ciò che l’attivista chiama “informazioni
spazzatura” (Pariser, 2011).
Viene naturale soffermare l’attenzione sul fatto che dai guardiani umani si è passati a quelli
algoritmici. Come esiste, teoricamente, un’etica giornalistica, come si pretende senza soluzione
di continuità un’informazione imparziale e giusta, così dobbiamo esigere nuovi Guardiani
cibernetici che incorporino quel tipo di responsabilità nel codice che stanno scrivendo. Pariser
(2011) conclude con l’auspicio che questi algoritmi contengano un senso di responsabilità
civile, per dare la possibilità a chi usa internet di decidere cosa fare passare e cosa no. Chiude il
suo intervento con la speranza di ritornare ad avere un internet migliore, quello sognato.
10
3.1.3. – La Cloud digitale
Questo nome descrive bene ciò che il computer vorrebbe rappresentare. Non ha più una forma
rigida, corporea, materiale.«[…] Non “è”, ma “succede” all’interno di quella “nuvola” di dati,
software e dispositivi in continuo mutamento che è diventato Internet […]» (Carr 2008, p. 110).
La parola ‘Cloud’ vuol dire ‘Nuvola’. È un nome che richiama morbidi e delicati nembi
spumosi che vagano qua e là nel cielo. Si può dire lo stesso della Cloud digitale? La libertà delle
nuvole virtuali di volare sospinte dal vento è paragonabile a quella delle nuvole reali e qual è il
vento virtuale che condiziona e limita i loro movimenti? Ci si chiede se sia affidabile quello
spazio che ci consente di spostare una miriade di dati e di servizi dai nostri computer appesantiti
per riporli in un luogo imprecisato della rete, al quale possiamo accedere in ogni momento da
qualsiasi dispositivo collegato a internet. Tanti sono i dubbi sulle effettive conseguenze
nell’affidare i nostri dati a queste nuvole. Al pari delle nuvole in cielo, quanto sarà forte la
potenza dei venti digitali che potrebbero trasportare i nostri dati chissà dove e affidati a chissà
chi. L’evidenza intanto è che, una volta affidati alle nuvole i dati non ci appartengono più in
esclusiva.
«Potrebbe la Cloud rivelarsi l’avvisaglia di una tempesta imminente in questo mare aperto?» Il
quesito è posto da David Lametti (Lametti 2012, p.141), professore della McGill University, in
occasione, il 18 maggio 2012 presso il Centro Congressi d’Ateneo dell’Università La Sapienza
di Roma, di un convegno dal titolo ‘Democrazia e controllo pubblico. Dalla prima modernità al
web (Lametti, 2012). Nel suo intervento il professore sostiene che le Cloud hanno la capacità di
togliere potere alla massa di utenti di internet e di contro passarlo a un piccolo gruppo che
controlla gli accessi. Molti autori e studiosi in materia sono sempre più convinti che le Cloud
possano rivelare lati oscuri e minacciosi. Queste preoccupazioni sono dovute a riflessioni sulle
serie problematiche in materia di privacy e di controllo di una enorme quantità di dati dei quali
non si sa esattamente dove e come siano conservati e soprattutto in mano di chi possano andare.
Un così grande quantitativo di informazioni personali tenute in un altro dove, crea dubbi
angoscianti sulla fiducia sociale, non basta solo la fiducia a dare rassicurazione che i dati restino
privati e siano utilizzati esclusivamente per gli scopi ai quali il titolare abbia dato il consenso.
La politica di Google, uno dei più assidui utilizzatori delle Cloud, di utilizzare i dati degli utenti
scambiandoseli fra i tanti servizi che offre, non lascia presagire niente di buono. D’altro canto la
privacy è sempre barattata o con la sicurezza o per qualcosa che viene fatta passare per positiva,
giustificandola in nome di una maggiore efficienza e velocità dei servizi. Da un po’ di tempo si
è squarciato un velo, dietro le nuvole invece che un bel sole splendente c’è la tinta fosca di un
11
modello di business sempre più verticale e oligarchico. E poi non è solo un problema di privacy.
Se gli utenti una volta ceduti i dati, smettono di esserne i proprietari, non sono più titolati a fare
di queste informazioni ciò che vogliono. Si riducono a essere semplici ricevitori di dati e perciò
messi nell’impossibilità di creare, immaginare, inventare, condividere, sviluppare. L’utente di
internet diventa un mero spettatore oramai spodestato da ogni possibilità di avere accesso alla
guida di internet, si trasforma in passeggero ininfluente, buono solo a essere sfruttato, abdicando
il potere che ha sui propri dati ad altri. (Lametti 2012, p. 142).
Lametti (2012) paragona le nuvole digitali a enclosures, recinzioni. Il paragone deriva dal fatto
che, come le recinzioni in Inghilterra condussero alla violenta soppressione delle coltivazioni
sociali di terreni comuni, che furono rese private in mano a soggetti interessati solo a ricavarne
profitto, riducendo quei terreni al degrado assoluto e gettando nella disperazione la popolazione
da un giorno all’altro spodestata di tutto, allo stesso modo esiste il rischio che ciò possa
accadere anche nello spazio virtuale.
Lo studioso definisce questo fenomeno “Enclosure 3.0”, per differenziarlo dal precedente 2.0.
“L’enclosure 2.0” era stato definito secondo movimento di recinzione. Internet originariamente
era contraddistinto da una personalità orizzontale con controlli quasi inesistenti e codici aperti
per la piena condivisione dei dati (Lametti 2012, p. 144-145).
Questa architettura è rimasta orizzontale per molto tempo, nonostante i primi tentativi da parte
di alcuni governi di effettuare controlli e chiudere flussi di informazioni. La struttura orizzontale
era stata pensata intenzionalmente dagli USA per evitare attacchi atomici. La sua
interoperabilità e una struttura aperta erano le caratteristiche chiamate “end to end”. A questo
proposito, come avvalorato anche da Frischmann ( cit. in Lametti 2012, p. 147), l’identità degli
utenti era molto spesso completamente celata. L’utente in questa struttura navigava
nell’anonimato poiché i dati circolavano nella rete attraverso degli indirizzi IP noti solo agli
utenti, proprietari degli stessi. Gli utenti finali così non si distinguevano dai fornitori delle
infrastrutture digitali, in quella struttura organizzativa di gestione di internet definita dall’autore
‘bene comune’. Le conseguenze di questa struttura orizzontale erano: pochi controlli e una forte
interazione fra gli utenti con la capacità di stabilire essi stessi l’uso che volevano fare della rete
(Frischmann cit. in Lametti, 2012).
Ovviamente questa situazione di relativa indipendenza, ai limiti dell’anarchia è durata poco. Il
sistema è stato invaso da regolamentazioni, proprietà private, copyright, accordi tra potenze
economiche e governative, incompatibilità tecnologiche, censure.
Il periodo è stato caratterizzato quindi da un aumento esponenziale di regolamentazioni su
copyright, con le così chiamate «agende digitali dei governi» attraverso controlli e censure a
maglia stretta con recinti e «”lucchetti” digitali» (Lametti 2012, p. 150).
12
Dalla prima recinzione blanda, definita “Great Transformation”, si è arrivati alla Recinzione
2.0, così chiamata da James Boyle (cit. in Lametti 2012, p.150), grazie alla complicità e
connubio fra i grandi portatori di interessi economici e del potere politico
Per lo studioso la tipologia di recinzione 3.0 è ancora più invasiva e pericolosa rispetto a quella
precedente, perché avrà la forza non solo di scalzare il copyrigh e il pubblico dominio,
caratteristica del 2.0, ma soprattutto l’ opportunità di depotenziare gli utenti della rete e il
conseguente rafforzamento di pochi e influenti guardiani. A quel punto privacy e libertà saranno
perse per sempre.
Eric Emerson Schmidt ( 2011), dirigente d’azienda statunitense, amministratore delegato di
Google dal 2001 al 2011 e da allora presidente del consiglio di amministrazione prevedeva che
«Il Cloud Computing ci porterà a un futuro straordinario e spaventoso».
Per fare un semplice esempio di che cosa è il Cloud Computing, basta pensare a quando ci
colleghiamo a Facebook. Secondo Gervais e Hyndman (2012) se andiamo nella nostra pagina si
presenta sullo schermo del pc il nostro diario, la nostra vita virtuale da quando siamo nati in
Facebook a tutt’oggi. Scorrono davanti ai nostri occhi le fotografie, le amicizie, i seguaci, i post,
i commenti. Sono tutti dati che abbiamo inserito noi, ma non sono affatto nel nostro pc, sono
sulla Nuvola, in questo caso nei server di Facebook. L’utente può condividere solo secondo
parametri e nei modi definiti e imposti dal sistema che lo ospita e tutti i dati conservati vengono
controllati dall’erogatore del servizio. Facebook, Twitter, You Tube, Amazon, ovviamente tutti
sostenitori della tecnologia Cloud, potranno sempre rivendicare il loro diritto di padroni di casa,
a pieno titolo potranno imporre agli utenti valori e regole e perché no, anche i loro capricci.
Secondo alcuni lo spazio virtuale della Nuvola è destinato a prendere il posto dei normali hard
disk come principale centro di archiviazione dei contenuti web. Tale sistema è considerato per
alcuni studiosi della materia, un nuovo pericoloso virus con cui i poteri economici, finanziari,
politici, intendono completare la regolamentazione e lo spegnimento della libertà in rete. Le
informazioni, i dati di proprietà dell’individuo, sono in un altro dove nella rete e perciò
ovunque. È impossibile cancellarli quindi, è più facile manipolarli (Gervais e Hyndman, 2012)
Sempre secondo i difensori della libertà in rete gli inconvenienti si prospettano inquietanti.
Corchia (2011) riferisce che questi ostacoli sono già riscontrabili in YouTube, la quale è tenuta
a bloccare, censurare ed eliminare i video degli utenti laddove sia richiesto (imposto), da parte
dei governi che non gradiscono che siano messi a disposizione del web video che mostrano
proteste, manifestazioni e altre situazioni che non incontrano il loro benestare (Corchia, 2011).
Spostare i dati tra le ‘Nuvole’, lontani dagli hard disk e su internet con la motivazione ufficiale
di rendere più difficile la confisca dei dati e quindi un mezzo per favorire la privacy e la
sicurezza in rete, porta all’esatto contrario. Gli utenti diventeranno sempre più dipendenti dai
13
servizi offerti dalla Cloud, in balia dei controlli, ancora più impotenti all’insorgere di monopoli,
sempre più fragili e disarmati nei confronti dei colossi della Nuvola.
La Cloud perciò, che è stata propagandata come un strumento perfetto per la cosiddetta cyber-
security, nonostante la comodità di accedere ai propri file da qualsiasi parte del mondo, e con
qualsiasi apparecchio, avrà conseguenze che si prospettano allarmanti. Acconsentire che tutti i
nostri dati siano memorizzati in un server remoto, vuol dire consegnarli nelle mani e a completa
disponibilità delle grandi aziende, le quali, grazie a norme scritte in caratteri microscopici e
incomprensibili a cui noi inconsapevolmente abbiamo dato l’assenso, avranno il potere di
accedere ad essi e di usarli senza il nostro permesso, anche di rimuoverli, se lo ritenessero
opportuno. Per esempio le clausole di Amazon prevedono che la società possa esercitare il
diritto di accedere, conservare, utilizzare, divulgare i dati dell’account. Quindi affidare i nostri
dati personali ad una Cloud permette, senza alcuna fatica e a costo zero, alle aziende di
mercificare i nostri dati e per il governo, di accedere a informazioni riservate. Infatti se
un’autorità governativa avesse intenzione di volere ispezionare l’hard disk di un cittadino
avrebbe bisogno di un’autorizzazione scritta da parte di un’Autorità Giudiziaria, invece
ispezionare i dati all’interno di una Cloud non prevede alcuna limitazione (Morozov, 2011).
Anche la sicurezza è molto limitata. Ad esempio sulla Cloud di Amazon (2011) viene scritto che
«[…]we do not guarante that your files will not be subject to misappropriation, loss or damage
and we will not be liable if they are. You're responsible for maintaining appropriate security,
protection and backup of Your Files». Quindi se qualcuno prelevasse i dati e li usasse a suo
piacimento o se Amazon distruggesse i dati la società non ne sarebbe in alcun modo
responsabile.
La Cloud impone una gerarchia all’interno della rete mediante la centralizzazione delle
elaborazioni informatiche, grazie a pochi grandi punti di snodo che servono allo smistamento e
passaggio di informazioni e dati. Nel momento in cui l’utente è sottoposto alla Cloud e dipende
dalla nuvola per la gestione dei propri dati, perde la sua libertà. Non farà altro che potenziare
sempre più i gestori dei nodi che avranno così libero e indiscriminato accesso a tutti i suoi dati.
Il passaggio da una struttura orizzontale impossibile da controllare a una verticale adatta a
manipolazioni e censure è così avvenuto senza troppi sforzi (Carr, 2008).
Anche la politica di internet è cambiata radicalmente al passaggio della Cloud. Internet nella sua
funzione di strumento base di servizio all’utente non è certamente scomparso e continuerà
ancora ad esistere. Ma proprio il progressivo successo e popolarità delle Cloud che sta attirando
a sé sempre più internauti, indebolirà gli utilizzatori dei servizi elementari di internet che si
troveranno assolutamente fuori dai giochi, estromessi ai margini. Internet diventerebbe un
sussidiario della Cloud, un paggio al suo servizio e non è difficile immaginare un prossimo
14
futuro in cui nessuno potrà accedere a internet senza prima dovere condividere gli spazi murati
della Nuvola. Del resto i gestori stanno allettando e agevolando questo ingresso offrendo agli
utenti servizi completamente gratuiti e effettivamente di notevole utilità. Qualche studioso in
materia azzarda il rischio a cui il mondo del web potrebbe andare incontro, di passare cioè da un
pianeta della condivisione a uno della costrizione (Lametti, 2012).