Il passaggio tra questi due paradigmi è condizionato dai processi di
assorbimento delle nuove tecnologie nel ciclo di vita della notizia; prima
che una tecnologia si affermi al pieno delle sue potenzialità è infatti
necessario che le procedure organizzative e professionali che essa implica
siano completamente accettate e introiettate dagli attori di riferimento.
L’oggetto della nostra trattazione si può circoscrivere nell’ambito del
secondo fattore di innovazione, ovvero quello qualitativo, anche se risulta
essere comunque di determinante importanza il primo fattore, quello
quantitativo. Quando si parla di aumento del bacino d’utenza di Internet
non ci si riferisce solo all’utenza “passiva”, ovvero quella che fruisce del
contenuto, ma anche a quella “attiva”, responsabile della pubblicazione dei
contenuti, sia di tipo professionale che amatoriale. Uno degli effetti meglio
riscontrabili che questo fenomeno ha generato è rappresentato da ciò che è
stato definito come eccesso informativo (Information Overload). È utile
precisare che, anche se questo fenomeno nasce prima dello sviluppo della
Rete, quest’ultima ne esaspera i numeri poiché, dal momento che sono
drasticamente ridotte le limitazioni fisiche ed economiche della fase di
pubblicazione e di distribuzione, le risorse accessibili agli utenti si sono
moltiplicate in modo iperbolico. I detrattori della Rete, gli apocalittici,
utilizzano spesso questo argomento per sottolinearne i limiti. Una
conoscenza più approfondita di Internet ci dimostra, però, come ciò non
debba essere considerato un elemento patologico: la presenza di una
vastissima quantità di risorse eterogenee, determinata, tra le altre cose, dalla
facilità d’accesso per i soggetti pubblicanti, costituisce un elemento
fisiologico della Rete che va gestito in modo appropriato per valorizzarne i
benefici e attenuarne i difetti. In primo luogo è fondamentale comprendere
una differenza sostanziale tra i nuovi e i vecchi media. A causa dei costi che
caratterizzano l’industria dei media tradizionali, la selezione dei contenuti
precede la loro pubblicazione; dunque il criterio della rilevanza accomuna,
a diversi gradi, i contenuti presenti, ad esempio, su un quotidiano. Internet
7
rovescia questo modello, poiché le barriere all’entrata sono basse per
quanto riguarda i costi e nulle in rilevanza. In questo contesto la fase di
selezione, e quindi di gerarchizzazione, sono successive a quella di
pubblicazione.
Poiché l’aumento incessante dei contenuti non è un processo
ostacolabile dall’alto, l’unico modo per gestire i contenuti del web risulta
essere quello di implementare strumenti sempre migliori per effettuare la
selezione e la gerarchizzazione delle risorse. Se da una parte le professioni
tradizionali dell’informazione adattano il loro ruolo al nuovo ambiente
mediale, assistiamo ad un aumento di soggetti, spesso estranei al mondo
della news industry, che si inseriscono nel settore della selezione e della
gerarchizzazione dei contenuti online. I nuovi strumenti non producono
contenuti propri, ma, attraverso modalità differenti, filtrano quelli già
presenti nella Rete e liberamente accessibili, operando una
disintermediazione formale rispetto all’interfaccia dei fornitori dei contenuti
e degli assemblatori tradizionali.
Le implicazioni sono osservabili sia dal punto di vista delle modalità di
accesso e fruizione dei contenuti da parte dell’utente finale, che nelle
dinamiche di produzione e distribuzione dei contenuti da parte dei creatori e
fornitori. Inserendosi tra il lettore e il fornitore di contenuti, questi soggetti
alterano in modo sostanziale le dinamiche di interazione tra la domanda e
l’offerta di informazioni di attualità online. In un contesto in cui le notizie
sono diventate abbondanti e le fonti innumerevoli e accessibili, le
competenze di gestione del contenuto (Knowledge Management) si
rivelano importanti quanto quelle relative alla sua produzione. In un sistema
mediale caratterizzato da penuria e inaccessibilità di fonti, canali e
informazioni, le media company creavano la loro egemonia esercitando il
controllo sia sulla creazione dei contenuti che sulla loro distribuzione. Ma
dal momento che i costi di produzione sono diminuiti drasticamente, i
canali si sono moltiplicati e i contenuti sono diventati infiniti e direttamente
8
accessibili, gli equilibri riguardanti la catena di valore ne vengono
drasticamente influenzati. I nuovi centri di creazione di valore sono
costituiti da quei soggetti che fanno della selezione, del filtro delle
informazioni e della loro elaborazione gli assets principali.
«In Media 2.0, the new center of value creation is the FILTER
[…]. In a world of infinite content, it’s the filter that creates a
coherent media experience
2
. »
Nell’ambito dell’aggregazione dei contenuti online, la selezione e la
gerarchizzazione eterodiretta non rappresentano, però, gli unici elementi
che caratterizzano questi servizi e il loro valore aggiunto. In altre tipologie
di strumenti i criteri di salienza e rilevanza vengono determinati dall’utente
stesso in modo autonomo.
Sebbene questi strumenti si differenzino sia rispetto al modello di
aggregazione che alle loro stesse finalità, sono accomunati dai profondi
mutamenti sia dal lato della distribuzione che della fruizione.
La nostra tesi si pone l’obiettivo di compiere una trattazione esplorativa
dell’ampio panorama dell’aggregazione dei contenuti su Internet; nella
prima parte verranno descritte caratteristiche, funzioni e tecnologie di tre
modalità di aggregazione dei contenuti – aggregazione automatica,
selezione collaborativa e personalizzata – attraverso l’analisi di alcune
casistiche rappresentative. Per quanto riguarda la prima possibilità di
aggregazione verranno messe in rilevo le implicazioni giuridiche che questi
sistemi comportano nell’ambito della gestione dei contenuti online e si
esamineranno i limiti di illecito in merito alla ripubblicazione parziale delle
notizie. Del terzo tipo di aggregatori si accenneranno, invece, le
implicazioni socio-culturali. Nella seconda parte della tesi si affronteranno
sia questioni relative ai modelli editoriali e di consumo che questi nuovi
strumenti comportano, sia i loro risvolti per la Sociologia della
2
Karp S., “It’s All About the Filter”, Publishing 2.0, 13 marzo 2006.
9
comunicazione. Oltre all’analisi delle implicazioni sulla professione
giornalistica e sull’interazione del cittadino con le informazioni, il capitolo
4 utilizzerà, con i dovuti distinguo, alcuni concetti tradizionalmente
appartenenti agli studi sulla comunicazioni di massa – il gatekeeping e
l’agenda-setting –, come modelli interpretativi delle dinamiche di gestione
dei contenuti da parte dei nuovi intermediari dell’informazione online.
10
0.1 Oggetto della tesi
Prima di affrontare le tematiche inerenti all’oggetto della tesi, è
opportuno specificare quali tipologie di servizi e strumenti permettano agli
utenti di accedere alle risorse informative online con modalità differenti
rispetto alle interfacce tradizionali. In particolare si specificheranno le
motivazioni che ci hanno portato a limitare la nostra analisi ai casi esposti
in dettaglio nei capitoli 1 e 2.
I fenomeni che affronteremo non sono stati ancora oggetto di un’analisi
sistematica. L’ecosistema dei media che si sviluppa in Internet è
estremamente dinamico e polimorfico, perciò non definibile ed analizzabile
in modo unitario. L’estrema varietà di progetti realizzati nel Web ad un
ritmo sostenuto ci pone il problema di quali elementi selezionare per
l’analisi e ci espone, inoltre, alla possibilità di non considerare con la
dovuta attenzione alcune casistiche rappresentative.
L’obiettivo di questa tesi non è però quello di realizzare un censimento
di tutti quei servizi che rientrano nell’area analizzata. Pretendere di essere
esaustivi in questo campo si rivelerebbe una battaglia persa in partenza. Ciò
che ci interessa è, invece, identificare degli esempi che possano
rappresentare delle tipologie paradigmatiche nel campo dell’aggregazione
di contenuti informativi online.
I casi che sono stati analizzati in questa tesi corrispondono a tre
possibilità, molto diverse tra loro, di realizzare un’aggregazione di risorse
informative selezionate da fonti eterogenee. Essi sono degli intermediari tra
il creatore di contenuti e l’utente, dal momento che mettono in contatto la
domanda informativa con l’offerta.
11
La loro esistenza è resa possibile dalla massiccia presenza di contenuto
gratuito disponibile online a cui l’utente è indirizzato. È chiaro, quindi,
come le loro due funzioni principali siano quella di segnalazione della
risorsa e di canalizzazione del traffico alla fonte di origine della risorsa.
Sono quindi definibili come delle particolari tipologie di strumenti che
forniscono la localizzazione della risorsa (location tools) e ne permettono il
raggiungimento attraverso un link esterno
3
.
Al fine di raggruppare le casistiche analizzate in tre macrogruppi è stato
scelto un criterio di classificazione che superasse in importanza altri
possibili aspetti e caratteristiche peculiari.
Dal momento che questi servizi non permettono la fruizione completa di
un articolo poiché ne segnalano la presenza rinviando alla sede di origine,
un fattore di differenziazione è rappresentato dagli elementi che consentono
all’utente di identificare il topic di una risorsa in modo che egli possa
decidere se proseguire o meno la sua lettura completa.
La presenza o l’assenza di certi elementi è un fattore importante poiché
determina la corretta usabilità del sito – o del software di aggregazione – e
allo stesso tempo ne influenza il grado di liceità in relazione alle norme che
regolano i limiti di riproducibilità della notizia. Questo argomento è
abbastanza ambiguo, poiché non è infatti ancora chiaro quali siano i limiti
di utilizzo
4
nel campo della riproduzione parziale di articoli giornalistici.
Ciononostante non si è ritenuto che questo fattore fosse sufficientemente
rilevante per qualificare una macrocategoria.
3
Nel prossimo capitolo (1.1) si spiegherà come, sebbene in questa categoria rientrino anche i
motori di ricerca, questi sistemi si differenzino per importanti aspetti dagli aggregatori di
notizie.
4
La discussione riguardo i limiti di utilizzo e riproduzione ruota intorno al concetto di fair use:
una clausola dell’ordinamento americano che permette un utilizzo limitato di un’opera, o più
spesso di parte di essa, soggetta a copyright per motivi che vanno dalla critica all’insegnamento.
Una trattazione più dettagliata del concetto di sarà sviluppata nel capitolo 1.4.1.
12
Un servizio di aggregazione si caratterizza notevolmente anche per la
tipologia di fonti che vengono utilizzate. Alcuni siti infatti indicizzano,
ovvero inseriscono tra i loro siti di riferimento, esclusivamente contenuti
provenienti da fonti ufficialmente registrate
5
. Vista la crescente importanza
dimostrata dai contenuti che non soddisfano standard professionali, un
numero sempre crescente di aggregatori li inserisce nel proprio indice
affiancandoli alle versioni online delle testate tradizionali. All’interno di
questa categoria non consideriamo solo i weblog ma tutti quei siti che
pubblicano con una certa frequenza articoli e commenti su eventi e
problematiche di attualità, ma che non sono registrati ufficialmente e non
hanno una redazione di tipo professionale.
Anche questo criterio non poteva essere preso in considerazione come
fattore discriminante per la creazione di una tipologia poiché sempre più
aggregatori integrano i contenuti tradizionali con quelli non professionali.
Il fattore più importante per un sistema di aggregazione dei contenuti, e
che rappresenta spesso un motivo di forte caratterizzazione, è costituito
dalle modalità di editing
6
. Ai fini della nostra tesi, abbiamo ritenuto che
questo fattore potesse rappresentare la discriminante fondamentale per una
classificazione dei news aggregator
7
.
5
Si tratta di siti appartenenti a giornali a stampa (es. Repubblica.it), siti di agenzie stampa (es.
Ansa.it), siti derivanti da canali broadcast (es. RaiNews24), o testate che pubblicano
esclusivamente su Internet (es. Punto Informatico).
6
Per editing intendiamo tutte quelle procedure che determinano il ciclo della notizia dal momento
della creazione del prodotto grezzo alla sua fruizione presso l’utente finale; in questo quadro la
selezione della notizia costituisce solo una passaggio del processo a cui seguono altre fasi tra le
quali la sua classificazione, e il suo posizionamento. Si noti che non tutti i sistemi analizzati
interpretano in pieno questo concetto ampio di editing (tra questi Google News). Gli strumenti di
aggregazione personalizzata non permettono una gestione della singola notizia ma una semplice
selezione di fonti.
13
Si osservano tre tipologie di news editing alternative a quella
tradizionale:
Selezione Automatica
In questo caso dei particolari algoritmi setacciano automaticamente il
web in cerca di nuove notizie ogni pochi minuti, e ne consentono una
previsualizzazione in una pagina web; la selezione e la disposizione
spaziale delle notizie determina la loro gerarchizzazione. L'aggregatore di
notizie automatico seleziona i testi e le foto pubblicate sul web da giornali
online ed altre fonti in base a vari criteri tra i quali la pertinenza della
categoria, la frequenza, la data e l’ora di pubblicazione e l’ autorevolezza
della testata. Successivamente le visualizza tipicamente secondo criteri di
rilevanza e di aggiornamento dopo averle raggruppate per categoria, per
localizzazione o per gradimento da parte dei lettori.
Selezione ‘diffusa’ - Social Editing
Lo sviluppo di questa tipologia di aggregatori è ancora nella sua fase
pionieristica e il target di questi servizi è, per ora, limitato agli esperti di
Internet ed Informatica.
L’inclusione di questa categoria di aggregatori – in particolare con il
progetto Digg.com – all’interno della casistica della tesi trova una sua
ragione poiché fornisce un’alternativa possibile al tradizionale gatekeeping
gerarchico. L’analisi di questo tipo di aggregazione ci pone inevitabilmente
di fronte al più ampio fenomeno del social networking, entro il quale si
sviluppano innumerevoli progetti che si ripropongono di generare in modo
strutturato l’intelligenza diffusa che emerge dall’interazione di una
moltitudine di utenti.
14
Selezione individuale – Aggregazione personale
In questo caso le funzioni di edizione dei contenuti non sono
eterodirette, poiché spetta all’utente stesso la selezione delle fonti i cui
contenuti verranno poi visualizzati in un'unica interfaccia. Mentre i
precedenti modelli di aggregazione utilizzavano l’uno l’automatismo degli
algoritmi e l’altro la “saggezza della moltitudine”, questi ultimi non
forniscono all’utente una delega esterna per combattere l’information
overload, ma gli permettono di costruirsi dei canali di informazioni
personalizzati.
15
PRIMA PARTE
Capitolo 1
MODELLI DI AGGREGAZIONE AUTOMATICHE DELLE
NOTIZIE ONLINE
1.1 Una tipologia di Intermediari
Tra i termini più ricorrenti che sono stati usati nell’ambito dell’analisi
delle dinamiche osservate in Internet spicca fra tutti la disintermediazione.
La sua origine si può far risalire tra la fine degli anni ‘60 e l’inizio dei
‘70 quando veniva utilizzata nell’ambito dell’analisi di alcuni mutamenti
nel settore dei servizi finanziari che riguardavano la possibilità da parte del
consumatore di investire le proprie risorse bypassando le banche e gli
istituti finanziari.
Nel contesto del giornalismo online il termine è stato usato per indicare
l’accesso diretto alle fonti da parte degli utenti finali per bypassare le
mediazioni delle organizzazioni media tradizionali.
Il significato del termine si è esteso fino ad includere ogni processo in
cui il cosiddetto middleman, ovvero l’entità preposta all’intermediazione,
viene tagliata fuori dal rapporto tra l’utente finale e il fornitore di beni o
servizi. In special modo nel periodo in cui l’analisi del nuovo medium era
nella sua fase pionieristica, molti autori osservarono come la possibilità di
mettere in diretto contatto i fornitori e gli utenti finali che Internet favoriva,
16
avrebbe determinato una graduale scomparsa degli intermediari poiché i
loro servizi non sarebbero stati più richiesti. La concezione secondo la
quale la disintermediazione costituisce una proprietà intrinseca del nuovo
mezzo, è il corollario di un’idea più ampia che possiamo sintetizzare sotto il
nome di società senza frizioni (frictionless society), ovvero una società in
cui «non ci sono gerarchie cognitive e relazionali (perché non ci sono più
costi di transizione) perché chiunque può accedere a tutto e a tutti»
8
.
Secondo Andreina Mandelli, questo modello di società si è rilevato di
fatto illusorio poiché non veniva considerato che
«l’economia cognitiva e tangibile delle reti (le economie di
scala, di scopo e di esternalità) può portare a gerarchie
informative e relazionali ancora più potenti di quelle dell’era
moderna»
9
.
Come illustra un rapporto presentato al Quarto Convegno Europeo della
Fondazione Debenedetti “The Information Economy: Productivity Gains
and the Digital Divide”, Internet non annulla le frizioni di un’economia di
mercato, poiché ai costi di transizione tipici dell’economia tradizionale ne
sostituisce di nuovi
10
. Fra questi copre un ruolo di rilievo la problematica
del digital divide, inteso non solo come accesso alle tecnologie dell’ITC ma
anche in relazione alle capacità richieste per il loro utilizzo; oltre al costo
rilevante generato dall’overdose informativa, un’altra barriera all’entrata
che era presente già nell’economia tradizionale, ma che in Internet viene
accentuata, è costituita dall’importanza del fattore fiducia, che può essere
guadagnata o con il riconoscimento di un brand o con il ricorso a sistemi di
reputazione. Questi aspetti, insieme alle dinamiche strutturali peculiari della
8
Mandelli A., “Gatekeeping a rete e democrazia complessa”, Problemi dell’informazione, a.
XXIX, n. 1, marzo 2004.
9
Ivi p. 43.
10
Amable B. - Askenazy P. - Goldstein A. - O’Connor D., Internet: The Elusive Quest of a
Frictionless Economy, relazione presentata al Quarto Convegno Europeo della Fondazione
Debenedetti “The information Economy: Productivity Gains and the Digital Divide”.
17
Rete, favoriscono la presenza di un numero ristretto di siti in cui tendono a
concentrarsi la maggior parte delle transazioni commerciali per quanto
riguarda i beni fisici e la maggior parte dell’attenzione degli utenti per
quanto riguarda beni immateriali, quali le notizie.
Per confermare l’importanza che l’infomediazione ricopre su Internet è
opportuno chiarire meglio le varie forme che questa funzione assume.
Nell’ampia letteratura sulla materia, la classificazione degli intermediari
online è stata affrontata da varie prospettive. L’analisi di questi servizi è
mutevole a seconda che sia realizzata considerando il web come un nuovo
‘spazio mercantile’, come un mezzo di comunicazione o come una
piattaforma per la pubblicazione e ricerca di informazioni. Una definizione
generale che comprende molte sottocategorie potrebbe essere la seguente:
«A Web services intermediary is an entity positioned
anywhere within a Web services message path that performs a
value-added function on behalf of the initial message sender,
the ultimate message receiver, or both.
11
»
In generale, comunque, un vasto numero di tipologie di servizi sul web è
stato descritto come intermediari. Tra questi vengono inclusi i siti che
forniscono guide o link ad altri siti, come anche siti che aggregano prodotti
e servizi da una varietà di fornitori. Di seguito una lista che comprende le
tipologie basilari che rientrano nella definizione:
- motori di ricerca e directories
- portali
- aggregatori di contenuti
- price aggregator (comparatori di prezzi; es. Kelkoo.it)
- Auctions Brokers
12
(Aste online; es. E-bay)
11
Primordial inc. “Intermediaries will thrive in the Web services world”, Perfectc XML.
12
Marketplace indipendenti che gestiscono transazioni con il metodo dell’asta.
18