3
Il lavoro svolto ha evidenziato che la metodologia più indicata per la previsione
delle insolvenze, relativamente alle imprese del settore assicurativo italiano, risulta
essere l’analisi discriminante. Questo risultato è dovuto essenzialmente alla peculiare
struttura del mercato stesso in cui vi è la carenza di un numero sufficientemente
elevato di aziende-esempio da sottoporre ai modelli neurali per l’apprendimento.
Un altro aspetto interessante riguarda le variabili adottate per l’analisi: dai
risultati conseguiti si trae la conferma che gli indicatori utilizzati, che sono
sostanzialmente quelli considerati anche in altri studi, posseggono un efficace potere
discriminante. A questo riguardo va però precisato che il limite principale riscontrato
in questo genere di indagine è rappresentato dalla persistente soggettività
dell’analista nel decidere quali debbano essere le variabili da utilizzare per l’esame,
anche se entrambi i modelli proposti permettono mediante alcune procedure di
eliminare successivamente quelle che non sono da considerarsi particolarmente
significative.
Considerando il modello neurale in senso assoluto, il risultato della ricerca
permette comunque di promuoverlo come strumento di indagine previsiva, purché
venga rispettata la fondamentale ipotesi della significativa numerosità dei casi da
sottoporre per il suo apprendimento.
7
PREMESSA
Questo lavoro si pone l’obiettivo di valutare le potenzialità previsionali di uno
degli strumenti dell’intelligenza artificiale che in questi anni hanno avuto il maggiore
sviluppo: le reti neurali.
Per mettere alla prova le suddette capacità, si è pensato di paragonare i risultati
ottenibili mediante tale strumento con quelli ricavabili con una tecnica statistica
“tradizionale” come l’analisi discriminante lineare.
L’ambito nel quale si è deciso di confrontare i due modelli riguarda la previsione
di insolvenza delle imprese di assicurazione. Uno dei motivi per cui è stata effettuata
questa scelta è che tale campo di ricerca è in pieno fermento, soprattutto in Italia
dove, grazie alla presenza e all’impulso dato dall’Organo di vigilanza, si stanno
studiando degli strumenti che possano coadiuvare o sostituire parzialmente l’Autorità
nello svolgimento delle sue funzioni istituzionali.
L’altra motivazione che ha spinto l’Autore del presente lavoro a svolgere
l’indagine proprio in questo particolare settore economico, discende principalmente
dalla volontà di applicare concretamente quanto appreso nel corso degli studi svolti
in questi anni.
L’elaborazione affronta inizialmente, mediante un’approfondita analisi teorica, le
metodologie adottate: nel primo capitolo si illustrano i meccanismi di funzionamento
e le principali architetture delle reti neurali, ponendo l’accento in modo particolare
sulla tipologia MLP (Multi-Layer Perceptron) che sarà oggetto di applicazione
concreta; nel medesimo capitolo vengono proposte alcune realizzazioni di sistemi
neurali, riscontrate nella letteratura scientifica, particolarmente significative.
Nel secondo capitolo viene trattata la metodologia di analisi discriminante, con
particolare attenzione relativamente alla funzione di tipo lineare.
Il terzo capitolo illustra la tematica della solvibilità nel campo assicurativo,
ponendo in risalto i principali strumenti adottati finora per la previsione delle
insolvenze e gli studi svolti al riguardo in Italia.
8
Infine, nel quarto e ultimo capitolo si svolge la parte applicativa: dopo aver
trattato gli aspetti economici degli indicatori utilizzati e le modalità con le quali si
sono raccolti i dati di mercato e costruiti i campioni per l’analisi, si giunge alla
elaborazione ed al successivo confronto dei risultati per determinare quale dei due
modelli sia il più efficiente nella previsione delle insolvenze.
9
Introduzione
Da sempre l’uomo ha cercato di studiare l’ambiente che lo circonda sia per
soddisfare la propria curiosità, sia per il desiderio di conoscere i meccanismi di
funzionamento della Natura. Grazie a questo stimolo è giunto ad ottenere conoscenze
sempre più approfondite e precise; basti ricordare l’avvento dei computers che negli
ultimi cinquanta anni ha permesso di realizzare idee fino a quel momento ritenute
fantascientifiche. Ultima frontiera di questa continua ricerca è l’essere in grado di
ricreare artificialmente se stesso, o quanto meno la propria intelligenza. Infatti
“…Con il susseguirsi dei secoli, l’uomo ha sempre identificato la sua mente con
alcune sue invenzioni che, di volta in volta, erano una novità assoluta nel campo
scientifico di quel preciso momento storico “(Carrella, 1995).
Attualmente l’attenzione è rivolta in modo particolare ai computers che grazie
alle loro prestazioni rappresentano la migliore approssimazione della mente umana.
Da qui l’esigenza di riuscire a far ragionare il computer in modo autonomo. A questo
proposito è famoso il test di Turing, con il quale si tenta di capire se una macchina
sia realmente intelligente o semplicemente ben istruita dall’uomo. Lo svolgimento è
il seguente: in due stanze separate vi sono un uomo ed una “macchina pensante“ che
dialogano
1
; se l’uomo, che non sa di comunicare con un congegno artificiale, dopo
aver sottoposto ad esso una serie di prove è convinto che nell’altra stanza vi sia un
altro essere umano, allora tale macchina può essere considerata dotata di intelligenza
propria. Finora questo test non è mai stato superato.
Fino a qualche anno fa la tendenza era quella di sviluppare dei sistemi artificiali
detti “sistemi esperti”, cioè dei sistemi in grado di fornire da soli delle risposte
sensate a domande precise sulla base di una conoscenza specifica di un particolare
argomento: si pensava infatti che sviluppando tali sistemi, col passare del tempo si
sarebbe potuta ricreare una vera intelligenza artificiale.
Però, dopo qualche decennio ci si è resi conto che queste strutture hanno un grave
difetto, ossia dipendono troppo dalla loro “base di conoscenza” e quindi, se viene
1
Il dialogo può avvenire su temi ristretti e specifici oppure su tutto lo scibile: dipende dalle ambizioni
del test.
10
loro sottoposto un quesito che esula dalla specificità del campo per cui sono state
predisposte, si hanno risposte incongruenti. Il loro limite è costituito quindi
dall’incapacità di generalizzare una conoscenza specifica, cioè di non essere in grado
di fornire delle risposte sensate in qualunque circostanza, anche in presenza di
“noise” cioè di dati parzialmente inesatti o addirittura carenti.
Per questo motivo si è allora cercata una nuova strada di studio e si sono
riscoperte le peculiarità del connessionismo, abbandonato per qualche decennio
perché considerato inefficiente.
Questa “scienza” è la risultante di una integrazione di diverse discipline
scientifiche che vanno dalla fisica alla psicologia, dalla neurologia alla matematica,
dall’informatica alla robotica e si propone di riprodurre su un calcolatore, con un
approccio computazionale e simulativo, le capacità analitiche del cervello (Parisi,
1989, pag. 13 e ss.). Queste capacità possono essere studiate solo mediante la
costruzione di sistemi artificiali, che devono comportarsi come i fenomeni analizzati,
e con l’utilizzo delle immense potenzialità simulative dei moderni calcolatori.
I sostenitori del connessionismo ritengono che le caratteristiche fisiche della
macchina intelligente siano molto importanti: l’intelligenza deve essere costruita
proprio in base ai principi strutturali e di funzionamento del cervello (non è così per i
propugnatori dei sistemi esperti, secondo i quali le proprietà dell’intelligenza sono
puramente funzionali e quindi tali da poter essere realizzate su qualunque tipo di
macchina). Da qui l’esigenza di ricreare dei modelli molto simili ad esso: le reti
neurali, cioè dei sistemi in cui un gran numero di unità, dal meccanismo di
funzionamento molto semplice, sono interconnesse tra di loro in modo tale che
insieme “ragionino” come un tutt’uno.
La caratteristica fondamentale delle reti neurali
2
è la loro capacità di apprendere
da casi concreti: esse quindi non devono essere programmate con un linguaggio
costituito da istruzioni sequenziali (come nel caso dei sistemi esperti) o da simboli,
ma imparano proprio come fa il cervello umano, sulla base delle esperienze che vive.
Esse cioè nascono prive di conoscenza e devono essere addestrate per poter garantire
una risposta efficace ai problemi loro sottoposti. Inoltre sono in grado di estrapolare
2
Chiamate anche sistemi dinamici non lineari, sistemi dinamici complessi, PDP (Parallel Distributed
Processing) (Parisi, 1989).
11
la conoscenza acquisita e generalizzarla per casi concreti mai visionati prima
(quest’ultima è la loro caratteristica più interessante).
Una delle maggiori critiche mosse contro questi sistemi è che non sono in grado
di spiegare come funzionano e perché funzionano in quel particolare modo i
fenomeni da loro analizzati: non rivelano cioè un loro meccanismo interno di
ragionamento che permetta di capire la struttura intrinseca dei fenomeni che riescono
comunque a simulare. Non possono essere quindi considerati dei comodi strumenti di
spiegazione e di comprensione di un fenomeno fintantoché non siano stati sviluppati
idonei dispositivi atti a permettere di capire che cosa succeda realmente all’interno
della rete durante l’apprendimento
3
(Parisi, 1989, pag 64).
Le reti riescono però ad essere dei validi strumenti nel supporto alle decisioni in
quanto hanno la capacità di fornire risposte adeguate anche per fenomeni descrivibili
con modelli non lineari, senza il bisogno di assunzioni a priori. Possono essere quindi
pensate come degli strumenti statistici per l’inferenza induttiva (Refenes, 1995), utili
soprattutto nell’analisi di fenomeni non riconducibili a relazioni facilmente
riconoscibili.
Sebbene il futuro delle reti neurali come stimatori non lineari nelle problematiche
finanziarie sembra essere promettente, lo sviluppo con successo di questi strumenti
non è una facile procedura: occorre infatti avere una buona competenza sia nel
campo di applicazione, sia nella tecnica di realizzazione di questi strumenti, poiché
la scelta delle variabili da considerare, la loro correlazione e normalizzazione, il loro
significato e il modo in cui ottimizzare i dati sono di importanza fondamentale.
Anche la consapevolezza delle complesse relazioni tra i dati, dell’esatta regolazione
dei parametri di apprendimento (learning rate, momentum, …) e della distinzione
esistente tra il concetto di memorizzazione e quello di generalizzazione sono
elementi alla base di uno sviluppo applicativo di successo (Refenes, 1995).
3
Alcuni tentativi in questa direzione sono stati fatti mediante l’uso della tecnica statistica della cluster
analysis: con essa si può tentare di creare una serie di raggruppamenti organizzati in una struttura
gerarchica. In detti raggruppamenti vanno poi classificati i patterns di attivazione, cioè quei vettori
che indicano il livello di attivazione di una particolare unità nascosta in modo tale da raccoglierli in
gruppi di vettori simili. Oppure può essere utilizzata la tecnica del lesionamento della rete: in questo
modo è possibile valutare il ruolo di determinate unità nella produzione di una certa prestazione
(Parisi, 1989, pag. 66 e ss.). Si tenga però presente che il risultato delle reti neurali non dipende dagli
input considerati singolarmente, ma dall’interazione che esiste tra di essi.