V
Le aziende in questi ultimi anni, superata la fase di ricerca di efficienza interna,
stanno per intraprendere iniziative volte alla cura delle relazioni interaziendali.
L’ERP tradizionale è uno strumento di supporto alle imprese non più sufficiente.
Nel terzo capitolo sono spiegate le caratteristiche di un nuovo tipo di ERP, l’E-
ERP (Extended ERP, o anche ERP II), che inserisce i sistemi informativi in un
contesto più allargato di “azienda estesa”.
Fanno parte di questo nuovo tipo di ERP gli strumenti di Customer Relationship
Managment per la gestione dei rapporti con i clienti e di Supply Chain
Managment per la gestione dei rapporti con i fornitori. La crescente mole di dati
forniti dai nuovi ERP hanno reso indispensabile la presenza di tecnologie di
business intelligence, per dare luogo a un processo decisionale efficace e in grado
di generare scelte migliori e in tempi più rapidi. La crescente complessità
nell’implementazione di sistemi informativi integrati, ha generato una nuova
modalità di utilizzo dello stesso: la modalità ASP (Application Service Provider).
Si tratta di una modalità di utilizzo on line di un sistema informativo, molto utile
in particolare per le piccole e medie imprese.
Il leader del mercato degli ERP è un’azienda tedesca: SAP. Il profilo aziendale e
l’offerta dell’azienda sono delineate nel quarto capitolo. Sono inoltre riportate due
testimonianze di implementazione di un sistema informativo integrato SAP, in
particolare di un modulo CRM (Heineken Italia) e di un sistema in modalità ASP
(Zuffinetti).
1
1 DAI SISTEMI SEPARATI AI SISTEMI INTEGRATI
1.1 Dai sistemi separati ai sistemi integrati
I sistemi informativi integrati ERP (enterprise resource planning) sono il risultato
dell’attuale momento di evoluzione delle tecnologie informatiche. Al fine di
evidenziare gli stretti legami esistenti tra la tecnologia informatica e il sistema di
governo delle aziende, può essere utile esporre le tappe fondamentali dello
sviluppo dei sistemi informativi integrati
1
.
Il primo stadio dell’evoluzione delle tecnologie informatiche è identificabile con
l’introduzione di sistemi EDP (Electronic Data Processing), necessari per
l’automazione dei processi in ottica operativa. In questo tipo di sistemi, tramite
l’uso di procedure standard, l’enfasi era posta sulla validità, la precisione e
l’accuratezza dei risultati di attività di routine, con specifico orientamento
all’efficienza operativa.
Si cercava, in questo modo, di alleggerire il carico di lavoro per i livelli aziendali
esecutivi; le prime applicazioni riguardano in particolare l’elaborazione di paghe e
stipendi e l’emissione delle fatture. Successivamente si aggiunsero altre
applicazioni, più complesse, come la gestione della produzione e dei relativi
magazzini e la contabilità clienti. In quest’ottica, l’obiettivo dei sistemi
1
Ampollini C., Tecnologie informatiche e governo dell’azienda: la “qualità” nell’integrazione, in
AA. VV., I sistemi informativi integrati “erp“, op cit.
2
informativi aziendali faceva riferimento all’ottimizzazione di ogni singolo reparto
per renderlo il più efficiente possibile.
Occorre considerare che il governo dell’impresa, in quel periodo (anni ’60), era
basato su uno schema organizzativo di tipo gerarchico, organizzato su settori tra
loro indipendenti e focalizzati sul raggiungimento di obiettivi individuali. Ogni
settore e funzione dell’azienda aveva quindi proprie regole di funzionamento e di
comportamento ed era autosufficiente in termini di risorse e soprattutto di
informazioni. Il sistema informativo aziendale era, di conseguenza, costituito da
una serie di pacchetti specifici (acquistati sul mercato o sviluppati internamente
dal settore EDP dell’azienda) definiti congiuntamente dai responsabili dei diversi
settori aziendali e dai responsabili EDP.
In questo periodo, questi pacchetti specifici erano basati su di un solo e
relativamente semplice riferimento: il mainframe. Il mainframe (detto anche host
“colui che ospita”) “ospitava” i programmi dei diversi settori e li elaborava in
momenti stabiliti, mettendo a loro disposizione una quota della sua memoria
secondo il concetto di “partizione”. La memoria del mainframe era cioè suddivisa
tra i diversi utenti aziendali e veniva utilizzata da figure professionali (analisti e
programmatori) specializzati sulle singole necessità.
Il modello di elaborazione in ambiente host poneva, in una fase successiva, il
grande elaboratore al centro di un sistema che collegava a questo tutti i terminali e
le altre apparecchiature in una posizione slaves (in italiano traducibile
letteralmente come “schiavi”). Molti di questi terminali, infatti, erano
limitatamente “intelligenti” o non lo erano affatto (dumb terminals), e perciò
totalmente dipendenti dalla disponibilità dell’elaboratore host di sviluppare e
fornire le funzionalità richieste. Se la capacità di memoria dell’elaboratore, in un
determinato momento, si rivelava insufficiente a gestire tutti i processi in coda, si
provvedeva ad aumentarla ampliandola (non senza costi), in modo da poter
soddisfare le necessità aggiuntive.
In questa prima fase siamo in presenza di sistemi informativi “separati”, aventi
sostanzialmente l’obiettivo di agevolare l’azienda nel contenimento dei costi di
gestione operativa.
Il secondo passo evolutivo è caratterizzato dai sistemi informativi collegati. Le
aziende percepiscono, a questo punto, che l’obiettivo principale per il loro
3
vantaggio competitivo non consiste più nel produrre nel modo più efficiente
possibile, ma produrre subito e nelle quantità richieste quello che il cliente vuole.
Al concetto di efficienza (gestita finora in ottica settoriale) viene sempre più
spesso collegato il concetto di efficacia complessiva della gestione. L’obiettivo
principale della gestione aziendale diventa quello di creare, gestire ed offrire
prodotti e servizi che possano soddisfare le aspettative di un mercato sempre più
innovativo e competitivo.
Il concetto di flessibilità emerge in questo momento all’attenzione del managment
delle aziende e si accompagna alla nascita di tecniche gestionali innovative come
il just in time
2
.
Occorreva un supporto informatico in grado di produrre informazioni
sull’andamento delle attività operative aziendali per supportare i meccanismi di
controllo. Nascono in questo periodo le applicazioni di controllo di gestione e di
reporting, che tengono a fornire in modo routinario alla direzione aziendale le
informazioni necessarie per prendere decisioni efficaci.
Viene formalizzato il concetto di Managment Information System, ossia di un
insieme di procedure automatizzate progettato in modo coerente con il contesto
degli obiettivi di ogni specifica azienda, tenendo quindi in considerazione la sua
struttura organizzativa, la natura del business, le strategie, i mercati, i prodotti ed i
servizi dell’azienda.
In termini organizzativi nascono le prime strutture “piatte”, più flessibili delle
precedenti di tipo gerarchico, con poteri decisionali distribuiti. Ma un tale tipo di
organizzazione richiede uno scambio continuo di informazioni tra i diversi settori
dell’azienda. Il volume di dati e di informazioni che devono circolare si rivela
molto superiore a quello necessario per governare la precedente struttura
gerarchica.
Negli anni ’80, con l’ingresso nel campo dell’informatica dei personal computer,
si assistette ad un potenziamento delle capacità del sistema informativo aziendale;
queste nuove apparecchiature vennero utilizzate sia per elaborazioni “personali”
2
Il just in time – sviluppato in Giappone – è un approccio sistemico al processo produttivo; è una
vera e propria filosofia di gestione che investe l’azienda nella sua complessità. L’obiettivo del just
in time è l’eliminazione delle attività logistiche che non generano valore aggiunto lungo tutto il
processo che va dalla progettazione del prodotto e, attraverso l’attività di trasformazione, perviene
alla distribuzione fisica dei prodotti (Luceri B., 1995). Tale obiettivo viene realizzato orientando la
produzione al mercato e perseguendo la flessibilità produttiva: il just in time, infatti, si sostanzia in
programmi di produzione di brevissimo periodo, suscettibili di un immediato adattamento in virtù
del fatto che ogni fase della supply chain si rifornisce o produce in base alle esigenze della fase
successiva (Marchini I., 1995).
4
ed indipendenti, sia come strumenti di accesso al mainframe, potendo anche
emulare i vecchi dumb terminals.
Gli ambienti di elaborazione tramite mainframe ebbero come risultato quello di
creare settori separati di tecnologie, applicazioni ed informazioni; furono
sviluppate e gestite molte elaborazioni di diversa origine e struttura, focalizzate
alla soluzione di differenti necessità secondo la logica dell’informatica distribuita.
Inoltre, le case costruttrici di questi sistemi impostavano la concorrenza tra di loro
basandosi sulla fornitura di hardware e software cosiddetti “proprietari”, ossia
progettati solamente per ogni classe di sistemi di elaborazione, del tutto non
compatibili tra loro. Ne derivava per il cliente un vincolo molto stretto alla
tecnologia del fornitore a cui si era legato e di conseguenza una quasi
impossibilità di conversione ad altre tecnologie e ad altri fornitori.
Queste non compatibilità portarono ad un ulteriore isolamento dei singoli
elaboratori, rendendo così difficile l’interconnessione dei diversi sistemi di
elaborazione. All’interno dei centri di elaborazione, la necessità di disporre di una
visione unitaria della gestione aziendale veniva risolta attraverso la
predisposizione delle cosiddette “interfacce” ossia di apposite applicazioni
informatiche sviluppate allo scopo di “collegare” i diversi sistemi informativi tra
di loro, traducendo la struttura e la logica interne ad un sistema in quelle di un
altro sistema.
Gestire una interfaccia significava dover tenere costantemente allineati i diversi
sistemi tra di loro in modo da mantenere efficace nel tempo le loro comunicazioni,
e questo rappresentava un problema di non poco conto.
La terza fase del processo evolutivo è caratterizzata dai sistemi informativi
integrati, riconoscibili per le nuove architetture di elaboratori impostate per
sfidare le tecnologie basate sul mainframe. La nuova tecnologia informatica allora
sviluppata (all’inizio degli anni ’80), nel campo dell’architettura hardware si
basava su reti distribuite di computer, anziché su mainframe (host) e su terminali
(slaves), in cui i dati e le applicazioni software sono distribuite.
In questa tecnologia, chiamata client/server, le modalità di elaborazione sono
basate su ruoli delle apparecchiature praticamente invertite rispetto all’architettura
basata sul mainframe, perché le apparecchiature periferiche sono “clienti” di una
apparecchiatura centrale che fornisce quanto “serve”. Siamo in presenza di una
5
piattaforma di elaborazione più potente, dinamica e meno costosa di quella basata
sul mainframe. Questa evoluzione è stata anche agevolata dal costo decrescente
delle telecomunicazioni, elemento fondamentale in questo periodo nel
cambiamento tecnologico ed organizzativo.
Nel campo del software, alla fine degli anni ’80, in correlazione alla disponibilità
della nuova tecnologia ed architettura hardware nascono i primi esempi di sistemi
informativi integrati di tipo Enterprise Resource Planning (ERP). Le nuove
tecnologie favoriscono il ripensamento della configurazione dell’impresa in
termini di riduzione nel numero dei livelli gerarchici e degli staff, nonché in
termini di maggiore standardizzazione e formalizzazione delle procedure.
I tentativi di alcune aziende di implementare queste nuove strutture in periodi
precedenti, in cui erano disponibili sistemi informativi semplicemente “collegati”
tra di loro, non avevano raggiunto i risultati sperati anche a causa della mancanza
di un supporto informatico ed informativo adeguato.
Il successo dei sistemi ERP è stato subito notevole, segno che erano la risposta ad
una esigenza realmente sentita dalle aziende. Inizialmente, l’adesione all’offerta è
avvenuta soprattutto da parte dei grandi gruppi e delle grandi aziende, sia a causa
dei costi elevati non solo dei pacchetti ma anche dell’hardware necessario, sia per
le difficoltà di implementare efficacemente pacchetti applicativi che, per loro
intrinseca natura, richiedono notevoli modifiche organizzative e cambiamenti
culturali nel personale interessato (il cosiddetto change managment).
I sistemi ERP essendo sviluppati nell’ottica della standardizzazione introducono
per la prima volta in un software applicativo il concetto di business practices
basate sulle best practices. Si tratta dei modelli organizzativi e delle pratiche
operative che caratterizzano e supportano l’operatività dell’azienda, poste in
essere dalle aziende che sono state capaci di implementarli con i migliori risultati.
Per questo possono essere proposti come “standard” alle aziende che acquisiscono
un sistema informativo di tipo ERP. Ma proprio la loro offerta alle aziende come
modello standard si può scontrare con la “specificità” dell’azienda e dei suoi
processi produttivi e gestionali. Il change managment ha quindi lo scopo di
agevolare il passaggio dalla “specificità” dei processi ad una logica di gestione
“standard” degli stessi. Tra l’altro, con il passare degli anni e il progressivo
incremento delle aziende utenti, siamo oggi in presenza di una offerta sempre
maggiore, all’interno dei sistemi ERP, di business practices diversificate.
6
L’azienda che oggi acquisisce un sistema ERP ha quindi una possibilità di scelta
molto più ampia di quella disponibile ai primi utenti. Non è necessario ricorrere
ad integrazioni e “personalizzazioni”, pratica molto difficile e costosa con questo
tipo di sistemi data la loro struttura integrata.
L’adozione di modelli “standard” e l’esperienza maturata in questi anni nei
progetti di installazione di sistemi ERP ha consentito di creare metodologie di
implementazione rapida. Il tempo necessario affinché un sistema ERP venga
implementato è passato dalla dimensione “anni” alla dimensione “mesi” e si
comincia a parlare di “settimane”.
Inoltre, la riduzione sempre più spinta dell’hardware necessario e gli sviluppi
della tecnologia client/server rendono possibile oggi anche alle aziende di medie
dimensioni di acquisire ed implementare sistemi ERP.
La scelta di un sistema ERP ha accomunato negli ultimi anni molte realtà, ed ha
avuto, ha e avrà per ciascuna di esse un impatto sulla gestione operativa
estremamente rilevante. Occorre sottolineare come questa scelta possa
determinare una reale opportunità di rimodellare la gestione dell’azienda secondo
ottiche di processo, con i conseguenti vantaggi in termini di efficienza ed efficacia
dei processi stessi e di qualità dei prodotti/servizi erogati (De Padova, 2000).
L’implementazione di un prodotto ERP integrato non può infatti essere limitata
alla semplice sostituzione di una serie di funzionalità applicative del sistema
informativo attuale con quelle presenti nel nuovo sistema. I veri benefici ottenibili
da una implementazione di questo tipo consistono in un complessivo
miglioramento dei processi operativi aziendali, ottenibile sfruttando la capacità
degli ERP di gestire in modo integrato ed innovativo i processi dell’intera
azienda. A tal fine è necessaria una forte attività di revisione e
reingegnerizzazione dei processi operativi in essere, basata sui processi supportati
dal sistema ERP prescelto, in modo da ottenere un effettivo allineamento tra
processi di gestione, organizzazione operativa, sistema informativo e procedure
automatizzate di supporto.
Vi è una crescente disponibilità di applicazioni tecniche e gestionali che vengono
realizzate utilizzando potenti software standard “pacchettizzati”. Le soluzioni
“make” (cioè costruite ad hoc dall’azienda) e delle soluzioni “buy” di tipo
“multivendor” (dette anche best of breed, ovvero “prendere il meglio per
7
l’azienda” dall’offerta di produttori di sistemi informativi) non hanno avuto
grande successo.
La tendenza a scegliere applicativi prodotti all’esterno necessita un
approfondimento; sin dai primi sistemi informativi, e fino agli anni ottanta, vi era
la tendenza a sviluppare autonomamente le applicazioni necessarie a soddisfare le
esigenze informative (make) (Candiotto, 2004).
A partire dagli anni novanta, con la comparsa sul mercato di applicazioni
competitive in fatto di prestazioni e costi, si è progressivamente affermata la
tendenza ad acquisire soluzioni esterne (buy). In molte realtà, tuttavia, si
combinavano le applicazioni interne, relative alle specificità del prodotto o del
servizio offerto, con quelle acquisite esternamente e uniformate al sistema
esistente, con notevoli costi di mantenimento dei collegamenti e spesso con scarsa
integrazione. Ancora oggi, la necessità di sviluppare soluzioni per attività riferite
a comparti molto specializzati, per le quali non esistono software specifici,
conducono ad optare per le soluzioni sviluppate internamente.
La possibilità di disporre della soluzione in tempi relativamente brevi, la presenza
di procedure standard, l’opportunità di usufruire delle best practices del package
(e altri motivi riassunti nella tabella 3) spiegano il successo delle soluzioni di tipo
buy.
A scoraggiare lo sviluppo interno possono presentarsi la scarsità di risorse umane
destinabili al progetto, la mancanza di competenze professionali specifiche e la
difficoltà di stimare i costi complessivi. Inoltre, lo sforzo per reperire la
documentazione nei sistemi informativi creati internamente e ampliati nel tempo
attraverso acquisti dai vari fornitori, induce ad abbandonare il vecchio sistema a
favore di uno nuovo integrato fin dal primo momento (a causa di alti costi di
manutenzione e aggiornamento, difficilmente valutabili nel tempo).
L’utilizzo di architetture più flessibili porta all’adozione di nuove soluzioni,
implementate attraverso la tecnologia ad oggetti, con la quale si riesce a
svincolare, in modo sempre più agevole, i moduli che compongono i diversi
package. Vantaggi e svantaggi di questa tecnica sono riassunti nella tabella 2.
8
Tabella 1 – Soluzioni Make
MAKE
Pro e contro
Fonte: http://eco.uninsubria.it con adattamenti
Tabella 2 – Soluzioni Best of Breed
BEST OF BREED (MULTIVENDOR)
Pro e contro
PRO CONTRO
ξ eccellenza funzionale/settoriale
ξ limitate esigenze di
personalizzazione
ξ elevata differenziazione competitiva
ξ molteplici ambienti applicativi
ξ presenza di interfacce
ξ integrazione del sistema più
complessa
ξ eterogeneità della piattaforma
tecnologica
ξ evoluzione asincrona dei pacchetti
ξ alti costi di manutenzione
Fonte: http://eco.uninsubria.it con adattamenti
PRO CONTRO
ξ “illimitati” livelli di
personalizzazione
ξ adattabilità alle esigenze specifiche
ξ distribuzione temporale
dell’investimento
ξ scarso supporto degli utenti
ξ scarsità di risorse umane
ξ elevati costi sommersi
ξ scarsa adattabilità delle soluzioni
implementate
ξ lunghi tempi di implementazione