8
impresa. L’analisi suddetta viene effettuata da due angolazioni differenti: in primo
luogo, si ripercorre il progresso delle scienze informatiche in relazione all’attività
aziendale, partendo dalle prime architetture centralizzate, passando per il
modello Client/Server per arrivare al paradigma dell’informatica distribuita.
Secondariamente, si riferisce di come l’evoluzione tecnologica esaminata abbia
portato a vari cambiamenti di contesto competitivo, nella cornice di tendenze
economiche già in atto: si tratta di mutamenti importanti, che riguardano il modo di
competere delle imprese nei confronti della concorrenza, la creazione di mercati e di
attività completamente nuove grazie all’informatizzazione, la riorganizzazione
aziendale secondo il nuovo paradigma tecnologico.
Paradossalmente, la complessità insita nelle tecnologie informatiche ha portato ad
organizzazioni più snelle e meno strutturate delle precedenti, capaci di reagire a
minacce ed opportunità sempre diverse, tipiche di un ambiente turbolento quale
quello attuale. La competizione in mercati sempre più difficili, caratterizzati da
enorme complessità, alto contenuto concorrenziale e consumatori capaci di scelte
consapevoli, poiché in grado di accedere alle informazioni di interesse in modo
molto più facile e meno “mediato”, spinge le imprese che vogliano presidiare
posizioni di vantaggio competitivo a riconsiderare il proprio rapporto con il cliente.
Prodotti di qualità ed efficienza interna, benché rappresentino dei fondamentali
prerequisiti, non sono più sufficienti a garantire all’impresa il successo a lungo
termine: è necessaria una diversa prospettiva di gestione.
Il secondo capitolo descrive tale prospettiva, che consiste nella massimizzazione
del valore della relazione con il cliente fornito: è questo il fondamentale obiettivo di
una strategia di Customer Relationship Management. Il CRM viene analizzato
studiando le sue origini, individuate da una parte nelle teorie economiche che parlano
di valore del cliente e di fidelizzazione, di marketing di relazione e di marketing
One to One; dall’altra nelle tecniche informatiche di trattamento dei dati, che
costituiscono il patrimonio informativo aziendale sul quale si sostanzia un’attività di
gestione della relazione cliente-impresa. Nella parte conclusiva del capitolo si
definisce teoricamente il CRM, e si esamina in quale misura tale definizione
concorda con le applicazioni aziendali; si individuano gli attori coinvolti nel processo
di gestione della relazione, gli strumenti utilizzati e le finalità perseguite, e se tali
9
finalità ne giustificano l’adozione. Si riflette inoltre sull’opportunità di inserire in
tutte le organizzazioni una funzione CRM, o soltanto in taluni casi o settori
economici.
Il terzo capitolo introduce alla parte seconda di questa trattazione. Questa parte ha
come oggetto l’elemento più evidente, e forse più importante, di una strategia CRM:
il “Servizio Clienti”. Il taglio che si è voluto dare all’esposizione, in questo contesto,
è sicuramente più tecnico e meno economico, in accordo con gli argomenti trattati. Si
intende, infatti, fornire una panoramica sulle principali tecnologie utilizzate ed
utilizzabili nel reparto aziendale di customer care, secondo un approccio progressivo:
vengono esaminate dapprima le funzioni di un centro di risposta telefonica
tradizionale, o Call Center, per poi presentare nuove applicazioni e strumenti che ne
modificano la mission originaria, trasformandolo in un moderno centro di contatto
multimediale.
Si definisce inizialmente il ruolo del Call Center nelle organizzazioni
economiche, e come tale ruolo si modifica in un’ottica di gestione della relazione con
il cliente. Successivamente si analizza il primo tipo di struttura nata per l’assistenza
al cliente, mediante la descrizione delle caratteristiche e delle funzionalità dei sistemi
che incorpora. Le tecnologie descritte nel corso di questo lavoro vengono analizzate
da un punto di vista tecnico-funzionale, ma anche valutate in base agli effettivi
benefici che forniscono ai due fondamentali attori della relazione: cliente e impresa.
Le tecnologie Internet e i contenuti multimediali dell’interazione con il cliente
vengono trattati nel quarto capitolo. Si analizzano in dettaglio i temi relativi
all’apertura della struttura di customer care al mondo della Rete, con tutte le
problematiche che un canale di questa natura comporta. Dapprima si descrive la
gestione del cliente in modalità self-service, attraverso il sito web dell’impresa che
presenta una sezione dedicata al supporto al cliente. In un secondo momento
vengono introdotte le tecnologie che fanno dell’assistenza on-line una esperienza
interattiva: si descrivono gli strumenti di contatto tramite Internet, comprese le varie
forme di controllo a distanza del computer del cliente e le sessioni di chat, con
particolare attenzione al tema della sicurezza delle comunicazioni in Rete.
La posta elettronica, per la sua rilevanza in ambito aziendale e come nuovo
mezzo di comunicazione universale, occupa uno spazio a se stante. In questa sede si
10
descrive il problema dei contatti e-mail in entrata, da cliente a impresa: si studiano le
soluzioni tecnologiche ed organizzative per gestire al meglio questo nuovo canale, e
le problematiche che ne hanno limitato l’adozione su larga scala.
L’ultima parte del capitolo è invece riservata alla tecnologia di trasmissione della
voce attraverso Internet, che promette di condurre alla sostituzione delle reti
telefoniche tradizionali per un modello di telefonia basato sul protocollo IP (Internet
Protocol). L’argomento viene trattato a livello tecnico, mediante l’analisi delle
metodologie di trasmissione del segnale vocale attraverso reti progettate per il
trasporto di stringhe di dati, e a livello funzionale e applicativo, identificando gli
ambiti di maggior interesse nei quali la tecnologia in esame è stata implementata. A
questo proposito, si prendono in esame due importanti applicazioni: la prima consiste
nella sostituzione dei collegamenti telefonici tra uffici e reparti della medesima
impresa mediante integrazione del traffico voce nella LAN aziendale,
opportunamente adattata; nella seconda, vengono esaminati i possibili vantaggi
derivanti dalla sua adozione nelle interazioni tra cliente e impresa.
Il quinto capitolo costituisce la sintesi di quanto esposto in precedenza. Si
giustifica infatti, alla luce dell’analisi condotta, la necessità di adottare una visione
diversa della relazione con il cliente finale, non più obiettivo di campagne
pubblicitarie a tappeto, ma oggetto di iniziative mirate, dove le interazioni
cliente-impresa occupano un ruolo centrale; si perviene, quindi, alla definizione della
nuova struttura organizzativa responsabile di tali interazioni, originata
dall’applicazione delle teorie economiche e dall’apporto delle nuove tecnologie: il
Customer Interaction Center (o Multimedia Contact Center, a seconda del
particolare aspetto che si desidera sottolineare). Essa rappresenta il cuore di una
strategia di CRM, occupando una posizione privilegiata: è il principale punto di
contatto con la clientela in numerose organizzazioni economiche.
In primo luogo si descrive la piattaforma informatica necessaria per integrare i
diversi canali di comunicazione, le funzioni e gli obiettivi di un contact center.
Secondariamente, si analizzano i vantaggi realizzabili attraverso una struttura CIC e i
contemporanei rischi che il processo di migrazione comporta; vengono inoltre
presentati i risultati di uno studio sull’impatto delle nuove tecnologie nella gestione
11
del cliente, in termini di produttività ed efficienza aziendale, e una quantificazione
dei ritorni economici possibili.
Dopo aver accennato a modelli avanzati di gestione della relazione con il cliente,
riconducibili alla definizione di electronic-CRM, si passa all’esame della “materia
prima” su cui si fonda l’attività del Customer Interaction Center: l’informazione.
Quasi quotidianamente ci viene ricordato che viviamo nell’era dell’informazione,
divenuta fattore produttivo fondamentale al pari del capitale e del lavoro, così come
bene di consumo. L’importanza strategica dell’informazione per le imprese, nella
realtà attuale, è riscontrabile esaminando al minimo tre flussi direzionali, che
rappresentano altrettante tipologie di contenuti informativi: si tratta del flusso che
muove dall’impresa verso il cliente, da quello al contrario che vede il cliente fornire
informazioni all’impresa con cui intrattiene una relazione economica, e in ultimo dal
flusso informativo interno all’impresa stessa, che costituisce linfa vitale per processi,
strategie ed obiettivi aziendali.
In seguito viene presa in esame proprio quest’ultima categoria di flusso
informativo. In particolare, si analizza il tema della condivisione dell’informazione;
si intende affrontare questo tema poiché si ritiene che il successo o il fallimento di un
ambiente quale il contact center dipenda, in misura rilevante, dalla presenza di
strumenti che favoriscano la reale diffusione della conoscenza e lo scambio di
nozioni ed esperienze tra i principali attori del rapporto con il cliente: i dipendenti del
contact center, definiti differentemente in base alle preferenze terminologiche REP
(Customer Care Representative) o TAC (Tecnico Assistenza Clienti).
Uno degli strumenti che realizzano la condivisione delle informazioni nel CIC è
la posta elettronica, già esaminata come mezzo per interagire con il cliente.
Attualmente la maggior parte delle organizzazioni possiede un sistema di gestione
delle e-mail aziendali: se ne analizzano le caratteristiche funzionali e soprattutto i
vantaggi che ne hanno decretato l’enorme diffusione, rispetto ad altri sistemi di
comunicazione aziendale; si descrivono, inoltre, in modo particolare i benefici che
tale strumento produce nell’ambiente di contact center. In seguito si prendono in
esame gli altri servizi di messaggistica istantanea, tipicamente la casella vocale e le
comunicazioni via fax, e viene presentata la tecnologia in grado di consentire
l’accesso agli strumenti di fax, casella vocale e posta elettronica tramite un’unica
12
interfaccia, con notevoli vantaggi in termini di incrementi di produttività, flessibilità
ed efficienza.
In ultimo si esaminano due aspetti tecnologici degni di rilievo, che modificano
profondamente l’organizzazione del lavoro e le modalità di trasmissione del
patrimonio informativo nel moderno Call Center. La prima è costituita dalla rete
Intranet, che identifica l’insieme di una rete informatica aziendale, funzionante in
base al protocollo TCP/IP tipico della tecnologia Internet, e delle applicazioni che in
base a questa vengono distribuite a tutta l’organizzazione. La seconda, in una
naturale evoluzione, rappresenta la possibilità di creare una piattaforma web che
integri tutti i servizi messi a disposizione in Intranet, e in più consenta un accesso
unitario ai sistemi legacy aziendali, attraverso una comoda e accattivante interfaccia
grafica: parliamo della tecnologia denominata Corporate Portal.
L’ultima parte della tesi riguarda il caso aziendale Omnitel-Vodafone. Dopo una
breve introduzione di carattere generale, sono presentati tre aspetti particolari della
realtà di Omnitel, concernenti con le tematiche analizzate in tutto il lavoro svolto in
precedenza. L’individuazione degli argomenti oggetto della trattazione, e il
reperimento dei dati di interesse, sono stati facilitati dalla mia posizione di
dipendente della società, che mi ha tra l’altro permesso di vivere dall’interno
l’impatto delle iniziative proposte. Sono state realizzate interviste personali con i
principali responsabili delle strategie di CRM, che mi hanno fornito tutta la
documentazione necessaria a stenderne i contenuti.
La prima tecnologia proposta riguarda la gestione del cliente attraverso Internet, e
si sono studiate le caratteristiche del relativo portale, che costituisce uno dei primi
esempi in tal senso nella realtà italiana. Secondariamente si parla di un aspetto tenuto
in particolare considerazione dal reparto CRM di Omnitel: l’integrazione, o blending
secondo la terminologia anglosassone, dei diversi canali di comunicazione con il
cliente in una soluzione unitaria, che si sostanzia nell’introduzione di un nuovo
applicativo di gestione dei contatti cliente-impresa. In ultimo viene preso in
considerazione un esperimento, iniziato pochi mesi fa e non ancora completamente
“legalizzato” all’interno della struttura aziendale, che riguarda il tentativo di
soluzione ad un problema tipico di Knowledge Management.
13
Capitolo 1
Nuove tecnologie e cambiamento degli scenari competitivi
1.1. Dalla meccanizzazione all’informatizzazione
Dalla seconda metà del secolo ormai trascorso abbiamo assistito ad uno
sconvolgimento radicale dell’organizzazione del lavoro e alla nascita, dal nulla, di
settori, mercati e professionalità completamente nuove. Un elemento trainante è stato
lo sviluppo tecnico-tecnologico, che ha segnato un momento di discontinuità
nell’evoluzione umana, paragonabile alla rivoluzione industriale del 1870. Tale
sviluppo prende le mosse dall’invenzione del primo calcolatore aritmetico
universale, datato 1944, per opera di Howard H. Aiken dell’università di Harvard,
che rappresenta il punto di partenza di una “rivoluzione informatica” capace di
iniziare l'inarrestabile migrazione dei sistemi economici, verso i settori dei servizi e
dell’informazione. Attualmente rilevazioni statistiche accreditano quasi la metà del
mondo del lavoro come occupato in settori inerenti alla produzione o il trattamento
dell’informazione, e alcune stime avvalorano l’ipotesi secondo cui, entro alcuni anni,
circa i 2/3 del PIL dei paesi maggiormente sviluppati dipenderanno dall’economia
dell’informazione (Cioffi P. A., 2000).
Con il termine Information Technology (IT) si definisce l’insieme delle
tecnologie hardware, software e telecomunicazioni che si utilizzano per realizzare i
sistemi per il trattamento delle informazioni all’interno delle imprese o, più in
generale, all’interno di un contesto socio-economico allargato (Cioffi P. A., 2000).
Si intende in questo contesto ripercorrere l’evoluzione della scienza Informatica,
e dell’Information Technology, attraverso le tappe principali di progresso
tecnico-tecnologico che hanno segnato un mutamento rilevante nell’organizzazione
del lavoro e, più in generale, nel modo stesso di concepire le attività economiche
imprenditoriali, nell’ottica di una relazione, ed è proprio questo il punto focale di
questa trattazione, sempre più stretta tra l’impresa e il suo cliente attuale e potenziale.
Capitolo 1
14
1.1.1. L’era del mainframe
Il primo stadio nell’evoluzione dell’Information Technology risale al decennio
1950-60, quando negli Stati Uniti iniziano le installazioni dei calcolatori elettronici
di primissima generazione. Il vero capostipite dei calcolatori elettronici nasce nel
1945, presso l’Università di Princeton, dove J. Von Neumann fabbrica la prima
macchina che possiede al suo interno le istruzioni da eseguire per elaborare i dati. Il
calcolatore si chiama EDVAC (Electronic Discrete Variable Automatic Computer);
prima di allora la scienza dell’Informatica non esisteva. Il SSEC (Selective Sequence
Electronic Calculator), evoluzione dell’EDVAC e targato IBM, è il primo
calcolatore elettronico in grado di impiegare il concetto di “programma
memorizzato” enunciato da Von Neumann; esso dispone di 21.400 relè e di 12.500
tubi elettronici a vuoto, occupa circa 90 mq. di superficie ed è in grado di risolvere in
150 ore i nove milioni di operazioni richieste da uno dei più complessi problemi
della storia matematica, presentato dalla Commissione per l’Energia Atomica: è stato
calcolato che un matematico avrebbe impiegato 1.500 anni per fornire lo stesso
risultato.
In Italia il primo calcolatore viene installato presso il Politecnico di Milano nel
1954; nello stesso periodo negli USA i calcolatori elettronici installati sono più di
cento, una quantità ancora molto piccola e limitata a centri di ricerca, università e
poche grandissime imprese. Le caratteristiche dei calcolatori basati su valvole,
infatti, in termini di costi elevatissimi, grandi dimensioni e difficoltà di utilizzo, sono
tali da limitare notevolmente la loro diffusione.
Il 1958 rappresenta un anno cruciale per l’evoluzione degli elaboratori
elettronici: con la produzione del primo mainframe a transistor da parte dell’azienda
americana IBM, l’IBM 7000, si chiude di fatto l’era dei computer di prima
generazione. Il transistor, infatti, sconvolge gli standard di performance degli
elaboratori precedenti, e fornisce uno stimolo fondamentale allo sviluppo degli studi
sul software; non va dimenticato, infatti, che rispettivamente nel 1957 e nel 1960
Capitolo 1
15
nascono i linguaggi FORTRAN,
1
che ha permesso all’uomo di scrivere istruzioni per
il computer in modalità meno “macchina” e più “umana”, e COBOL
2
, sviluppato
soprattutto per implementare applicazioni di tipo commerciale tuttora in uso. Ma è
forse con il 1964, anno della commercializzazione della famiglia di elaboratori a
circuiti micro-miniaturizzati, caratterizzati dal drastico aumento della velocità di
elaborazione, da un ingombro sempre più ridotto, da un bisogno sempre inferiore di
energia connesso ad una sicurezza di funzionamento sempre maggiore e, soprattutto,
da una notevole riduzione dei costi di produzione, che l’automazione dei processi
aziendali diviene una realtà diffusa almeno nelle organizzazioni di dimensioni
rilevanti.
Si può definire un mainframe come “una unità elaborativa da cui dipendono le
applicazioni aziendali, situato in un’area aziendale il cui accesso sia controllato e
presso il quale risiedano gli archivi delle applicazioni dell’azienda stessa” (Saccardi
G., 1991). Proponiamo tale definizione in quanto pone l’accento su un aspetto
economico-organizzativo, classificando i mainframe non tanto in base alle variabili
dimensionali o di velocità di calcolo, ma di contro valutando la funzione che
l’elaboratore è chiamato a svolgere nell’ambito della dotazione informatica
dell’organizzazione; questo tipo di approccio si giustifica considerando l’importanza
che il mainframe ha mantenuto durante l’evoluzione dei Sistemi Informativi
aziendali. Anche dopo il passaggio ad architetture di “informatica distribuita” proprie
degli anni ’80, infatti, grazie ad un ripensamento del proprio ruolo all’interno di tali
1
Acronimo di Formula Translation, è nato per fini matematici e computistici. E’ il primo linguaggio
di programmazione universale “di alto livello”, e il lavoro di sviluppo è stato condotto nei laboratori
IBM intorno al 1950. Per linguaggio di alto livello si intende, nella terminologia informatica, un
linguaggio di programmazione meno simile ai codici comprensibili dall’elaboratore e più vicino alle
modalità di espressione umana.
2
Acronimo di Common Business Oriented Language, è il secondo linguaggio di programmazione di
alto livello dopo FORTRAN. Sviluppato tra il 1950 e il 1960, è particolarmente usato per applicazioni
gestionali che vengono eseguite in grandi mainframe.
Capitolo 1
16
ambienti, il mainframe mantiene spesso la funzione ultima di “depositario” delle basi
di dati dell’impresa e delle applicazioni c.d. mission-critical.
3
Negli anni dal 1950 al 1960 l’economia è generalmente basata su imprese ad alta
intensità di energia e di materiali, monolitiche e con uno spiccato orientamento alla
produzione. Le tecnologie informatiche, come abbiamo visto, muovono i loro primi
passi e la potenza di calcolo sembra essere l’unico vero problema. In un simile
scenario è inevitabile che le uniche applicazioni dell’Information Technology siano
orientate all’automazione di processi manuali e ripetitivi, che portano all’impresa
benefici in termini di riduzione dei costi e di efficienza operativa. Ciò nonostante, il
dibattito accademico già coglie le enormi potenzialità della informatizzazione: nel
1955 il prof. Drucker dell’Università di Harvard, in un articolo apparso nel Journal of
Business, parlava di automazione di fabbrica così: “(…) non c’è una fabbrica
automatizzata, c’è solamente un’attività aziendale automatizzata”, e ancora: “(…)
quando si parla di automazione la cosa più importante da esaminare è che essa crea
nuovi rischi e quindi richiede nuovi metodi di direzione”.
Durante questa prima fase, i sistemi informativi utilizzati all’interno dell’impresa
sono di tipo “batch”
4
o “off-line”
5
, ossia prevedono uno scarto temporale tra il
momento di manifestazione o di raccolta dei dati utili alle procedure di gestione
automatizzate, e il momento in cui tali dati vengono immessi come input
nell’elaboratore (di solito la sera), situato nell’area del Centro Elaborazione Dati
(CED). Una elaborazione off-line, prendendo ad esempio il caso della
3
Nella letteratura anglosassone, le applicazioni che gestiscono i processi, di solito di tipo
transazionale, di importanza fondamentale per l’attività dell’organizzazione cui appartengono. Esempi
possono essere l’applicazione che gestisce le movimentazioni dei conti correnti per una banca,
piuttosto che il sistema di transazioni on-line per una società di e-commerce.
4
Il termine identifica l’esecuzione di una serie di operazioni non interattive, tutte nel medesimo
momento. Questa modalità di elaborazione origina dal sistema di immissione dei dati nei mainframe
tradizionali, mediante schede perforate: solitamente, la registrazione dei dati di interesse sulle schede
avveniva durante il giorno, mentre le operazioni di elaborazione venivano effettuate di notte dai
tecnici, che inserivano le schede nel calcolatore.
5
Letteralmente, “non in linea”.
Capitolo 1
17
contabilizzazione di paghe e contributi, si compone dei seguenti cicli di base (ISEO,
1963):
- allestimento e manutenzione di uno schedario, eventualmente registrato su
nastri, con le informazioni sistemate in una sequenza preordinata. Nel caso
delle paghe, lo schedario conterrà i dati riguardanti il nome del dipendente, il
numero di matricola, il codice del reparto cui appartiene, e così via;
- ricevimento dei dati variabili al centro di elaborazione. I dati di input devono
poi essere convertiti dalla loro forma originale in un linguaggio
comprensibile alla macchina; questi dati devono essere inoltre raggruppati
prima della elaborazione e sistemati nello stesso ordine dello schedario
matrice. Il nuovo schedario che ne deriva è lo schedario di elaborazione;
- utilizzazione dei due schedari come input per l’elaboratore, nel cui interno ha
luogo una serie di operazioni ripetitive di lettura e di ripresa dei dati. Tali
operazioni, che si svolgono sotto il controllo delle istruzioni fornite dal
programma, si ripetono su ogni elemento dello schedario e hanno termine
solo quando l’intero schedario matrice è stato completamente aggiornato e di
esso è stato riprodotto un nuovo esemplare (su schede o su nastri); nel corso
dell’elaborazione, la sequenza dello schedario rimane inalterata.
Questa breve descrizione del ciclo di elaborazione off-line mette
immediatamente in evidenza le principali implicazioni del sistema ed i particolari
problemi che esso pone in certe situazioni. I sistemi off-line sono certamente sicuri in
fase di controllo dei risultati, ma richiedono un particolare sforzo per la riduzione
degli interventi manuali che si verificano in sede di predisposizione dei dati per
l’input; essi richiedono cioè un continuo perfezionamento dei metodi di acquisizione
e di conversione dei dati. Inoltre questo tipo di elaborazione richiede una assoluta
precisione in fatto di distribuzione dei lavori nel tempo. Non esistono invece
particolari limitazioni in fatto di memorizzazione dei dati, poiché tale
memorizzazione è sempre temporanea. La capacità di memorizzazione è determinata
dal numero di istruzioni di cui si compone il programma e dalla lunghezza massima
degli elementi da elaborare (ISEO, 1963).
Capitolo 1
18
Riassumendo, nel valutare l’opportunità di impiegare opportunamente un sistema
off-line, la direzione aziendale dovrebbe prendere in considerazione, oltre alle
caratteristiche base della macchina, quali velocità e capacità delle memorie, anche i
seguenti fattori:
- l’importanza che occorre attribuire alla precisione delle procedure di
controllo dei dati ed alla necessità di fissare un calendario di lavoro che tenga
conto anche delle fasi preliminari alla entrata in funzione del mezzo: raccolta,
trasmissione, conversione, accumulazione ed ordinamento dei dati;
- l’importanza da attribuirsi alla tempestività nell’ottenimento dei risultati per
le azioni che ne possano derivare: in questo caso il valore dell’output può
risultare sensibilmente ridotto se il ciclo di elaborazione diventa troppo lungo
a causa della dilazione nel tempo prevista per l’inserimento in macchina dei
dati di partenza;
- le difficoltà di interrogazione. Il problema di una rapida produzione delle
informazioni richieste presenta aspetti critici a causa della organizzazione
degli schedari, del loro aggiornamento e delle esigenze poste dalla
distribuzione nel tempo dei diversi impegni e delle relative priorità, senza
trascurare i costi e le difficoltà inerenti alla ricerca delle informazioni quando
i tempi di accesso sono relativamente lenti.
Una variante del processo di elaborazione appena descritto è rappresentata dal
funzionamento dei sistemi in-line, caratterizzati dalla temporanea memorizzazione
dei dati di input. I dati vengono cioè registrati su schedari matrici costituiti da
appositi supporti, di solito materializzati in pile di dischi magnetici. Le transazioni
che interessano le situazioni registrate sullo schedario possono essere trasmesse al
sistema nel momento stesso in cui vengono ricevute, oppure accumulate ed inserite
nel ciclo alle scadenze proposte dal calendario di lavoro del centro. I dati non devono
essere preventivamente ordinati e possono essere immessi nel sistema nella stessa
sequenza casuale nella quale sono stati ricevuti.
Un simile ciclo di elaborazione presenta il vantaggio di minimizzare la
manipolazione dei dati di input, mentre semplifica i problemi di conversione dei dati;
inoltre, il problema della distribuzione nel tempo dell’input si presenta meno critico
Capitolo 1
19
di quanto non fosse nei sistemi off-line: le esigenze di elaborazione possono essere
meglio livellate e i nuovi dati che arrivassero in periodi di punta potrebbero essere
temporaneamente memorizzati, nella attesa che si renda disponibile del tempo per
l’elaborazione. Queste caratteristiche rendono i sistemi in-line particolarmente adatti
per automatizzare procedure contrassegnate da dati che affluiscono frequentemente
ed a piccoli gruppi, mentre ne sconsigliano l’utilizzo per elaborazioni saltuarie e
generali, in quanto le sue memorie sono impegnate dai programmi e dai dati relativi
alle procedure già inserite (ISEO, 1963).
I due tipi di soluzioni sopradescritte appartengono alla categoria delle
architetture informatiche centralizzate.
6
Esse hanno quale caratteristica
fondamentale, come si è già ricordato, la separazione delle fasi di input, elaborazione
ed output in momenti distinti. L’ottenimento dei risultati del processo di
elaborazione, da parte degli utenti interessati, avviene quindi tramite il recapito degli
stessi su supporti di natura cartacea o magnetica, oppure attraverso interrogazioni di
terminali periferici, definiti emulazioni dell’elaboratore centrale proprio perché
configurati come appendici dello stesso, in grado di essere riconosciute dal
mainframe e di avere accesso ai dati custoditi nelle sue memorie. Tali terminali, detti
anche “dumb terminals”,
7
non sono dotati di potenza di calcolo ne tantomeno di
memorie di massa; al contrario si compongono di postazioni telescriventi, con
schermi capaci di contenere soltanto sedici stringhe di testo per volta, in grado di
richiamare a video i dati presenti nel CED.
Pur essendo ancora lontani dalle logiche di funzionamento dei moderni sistemi
informativi, gli apparati elettronici di allora trovano applicazione in molte importanti
strutture, favorendo un rapido incremento della produttività dei processi
automatizzati e introducendo la necessità di un ripensamento, sulle logiche di
6
Così definite poiché costituite da un centro di elaborazione, il mainframe, attorno al quale sono
situate postazioni satellite con funzione di interrogazione dell’unità centrale.
7
Letteralmente “terminali stupidi”, in quanto non dotati di autonomia dall’elaboratore centrale ma
mere interfacce esecutrici.
Capitolo 1
20
organizzazione del lavoro, che ancora oggi costituisce un elemento inscindibile
dall’evoluzione dell’Information Technology.
Costituisce un esempio di implementazione di una architettura centralizzata di
elaborazione dati la Camera di Commercio, Industria, Artigianato ed Agricoltura di
Milano. Il Centro Meccanografico di tale istituto, che datava 1955, era un decennio
più tardi saturato dalla sempre crescente mole di servizi ad esso assegnati, quali ad
esempio la tenuta del Registro Ditte, dell’elenco protesti cambiari, dell’Albo
Artigiani ed altri: l’espletamento di questi lavori aveva comportato la costituzione di
ingenti schedari meccanografici, la cui gestione ed elaborazione risultava sempre più
gravosa. Si rendeva quindi necessaria la sostituzione del Centro tradizionale con un
sistema elettronico, che doveva avere le seguenti caratteristiche (Roncaglioni L.,
1966):
- possedere memorie operative ad altissime velocità di accesso e memorie di
massa capienti;
- disporre di una grande velocità per la consultazione pratica dei dati contenuti
nella memoria;
- essere interrogabile a distanza;
- permettere la multiprogrammazione, ossia poter essere adibito solo in parte
all’attività di smistamento e controllo delle informazioni di archivio, per
essere in grado di eseguire i lavori di ordinaria amministrazione.
Gli obiettivi assegnati al nuovo Centro erano molteplici e ambiziosi, in quanto
avrebbe dovuto sostituire totalmente i tradizionali schedari, soddisfare tutte le
esigenze di interrogabilità sia nella stessa sede camerale, sia presso uffici periferici,
consentire la multiprogrammazione al fine di evitare la totale saturazione del sistema
nei momenti di apertura degli sportelli. Tali esigenze elaborative vengono soddisfatte
tramite un mainframe tipo IBM 360 dotato di una memoria centrale a nucleo
magnetico di sessantaquattromila posizioni; inoltre, erano presenti cinque unità
televisive corredate da tastiera alfanumerica, sedici terminali per immissione dati,
costituiti da macchine per scrivere, tre unità di alimentazione di dischi magnetici, una
unità di lettura e perforazione delle schede e una stampatrice (Roncaglioni L., 1966).
Capitolo 1
21
Altro esempio significativo dell’impatto organizzativo dell’automazione ci viene
fornito dal settore bancario. Sino all’introduzione degli elaboratori elettronici, infatti,
le esigenze di trattamento dei dati erano soddisfatte tramite Centri Meccanografici
tradizionali; tale soluzione richiedeva l’impiego di molte ore di lavoro degli addetti
al funzionamento delle macchine e alla tenuta degli schedari, risultando quindi
enormemente dispendioso, soprattutto in termini di tempi di ottenimento dei dati
voluti. Ciò ha portato al trasferimento in filiale di tutte quelle operazioni, quali la
tenuta delle posizioni di conto corrente, che necessitavano di dati sempre aggiornati e
disponibili al personale di front-office che quotidianamente aveva contatti con il
cliente finale: gli impiegati durante il giorno acquisivano, trattando con il cliente, i
dati relativi alle disposizioni date dal cliente stesso sul proprio conto corrente; a
sportello chiuso, il lavoro del back-office consisteva nell’inserire tali dati nel Centro
ed elaborare la posizione aggiornata (Realizzazioni (…), Atti del convegno, 1967).
Con l’introduzione del mainframe e delle architetture centralizzate si assiste ad
un progressivo ritorno in sede centrale della competenza riguardante servizi
essenziali quale la tenuta dei conti correnti, grazie alle nuove possibilità offerte dalle
tecnologie informatiche. L’elaboratore elettronico, infatti, situato in appositi locali
della sede centrale, presenta notevoli vantaggi nell’automatizzazione di procedure
ripetitive dove la potenza di calcolo e la capacità di memorizzazione sono essenziali,
primi fra tutti in termini di risparmio sui costi e drammatico miglioramento delle
prestazioni. Al Centro vengono demandate le operazioni quali il controllo dei saldi,
la stesura degli estratti conto, il calcolo delle competenze e le elaborazioni statistiche
per l’interno e per la Banca d’Italia, mentre alle periferie rimane la tenuta della
posizione aggiornata del conto, seguendone con la clientela le variazioni e gli
sviluppi.
Attraverso entrambi gli esempi trattati è possibile sottolineare un importante
aspetto della prima fase dell’automazione, ossia la sua stretta interrelazione con i
cambiamenti nell’organizzazione del lavoro; appare persino ovvio come tecnologie
talmente innovative, rispetto a quelle immediatamente precedenti, non possano che
condurre a cambiamenti di tipo gestionale ed organizzativo. Nell’ottica della
relazione con il cliente, si può notare come l’introduzione degli elaboratori elettronici
abbia portato, a livello impiegatizio, ad una separazione dei compiti di sportello,
Capitolo 1
22
ossia quelli dedicati prevalentemente alla gestione del contatto con il cliente,
dall’aggiornamento e modifica dei dati inseriti nel Centro di Elaborazione; tale
cambiamento corrisponde alla ristrutturazione del lavoro di ufficio in due ruoli
distinti ma complementari, ossia il front e il back-office, entrambi fondamentali per
una efficace gestione del rapporto con il cliente.
1.1.2. I sistemi real-time
Nel decennio successivo, ovvero negli anni Settanta, le imprese fronteggiano una
complessità del sistema competitivo senza precedenti e, per la prima volta dall’inizio
dell’era industriale, sentono il bisogno di rivedere le modalità di funzionamento dei
propri processi produttivi. Nascono così i primi prototipi di una fabbrica totalmente
automatizzata, che esprime un forte bisogno di contenuti informativi lungo il
processo produttivo nonché la necessità di gestire secondo una logica unitaria le fasi
a monte (per esempio la progettazione) e a valle (il marketing, le vendite) delle
attività di produzione. Se, da un lato, si è ormai diffusa la consapevolezza che, se ben
impiegate, le tecnologie possono automatizzare i processi manuali e ripetitivi
riducendo o addirittura eliminando alcuni costi organizzativi, e che questo tipo di
automazione ha reso disponibile un patrimonio di dati significativo, dall’altro il
management si accorge che i dati non sono in grado, se non elaborati, di supportare il
processo decisionale né di fornire quadri di sintesi adeguati: si comincia ad avvertire
la necessità di trasformare i dati in informazioni. La tecnologia, intanto, evolve in
termini di performance, i costi continuano a ridursi, sono disponibili strumenti per le
imprese di medie dimensioni e soprattutto il software sta incrementando le effettive
possibilità di sfruttare al meglio i progressi tecnici a livello hardware (Cioffi P. A.,
2000).
In questo quadro evolutivo si inserisce l’implementazione delle architetture di
elaborazione on-line, altrimenti dette in tempo reale (real-time), che dapprima
affiancano e poi sostituiscono i sistemi off-line del periodo precedente.