4
I IN NT TR RO OD DU UZ ZI IO ON NE E
Il presente lavoro affronta il tema dello sviluppo dei modelli di score. In particolare
vengono richiamati velocemente, i principi generali che riguardano le tecniche
statistiche normalmente utilizzate in letteratura e ampliamente condivise,
soffermandosi su particolari criticità che possono sorgere in fase di applicazione del
modello.
Le problematiche a cui si fa riferimento riguardano le difficoltà nel poter introdurre
nella scorecard determinate variabili – comunemente note come policy rules o
vincoli di credito – di tipo dicotomico, che hanno lo svantaggio di essere fortemente
correlate tra di loro e anche per questo motivo non idonee ad essere delle valide
variabili indipendenti di input.
Viene quindi proposto l’utilizzo dell’Analisi delle Componenti Principali (ACP) per
non perdere il capitale informativo presente nelle policy rules. Questa tecnica, che
sfrutta l’algebra delle matrici (quindi parliamo di una tecnica matematica) ha la
peculiarità di sintetizzare e semplificare il set di variabili mantenendo inalterata (o
quasi) la varianza spiegata, sfruttare le correlazioni esistenti (tramutando lo
svantaggio in vantaggio) per creare delle variabili latenti indipendenti e quindi
idonee ad essere introdotte in una regressione logistica.
L’idea dell’analisi in componenti principali nella sua funzione di sintesi nasce sul
finire dell’800 quando, su indicazione del Ministero degli Interni britannico il quale
era alla ricerca di una soluzione per individuare i potenziali criminali partendo da
caratteristiche antropometriche, Galton
1
si pose il problema di ridurre il numero delle
misure rilevate ai criminali, giudicate ridondanti
2
.
1
Sir Francis Galton (Sparkbrook - Birmingham, 16 febbraio 1822 – Haslemere, 17 gennaio 1911) è
stato un esploratore, antropologo e climatologo britannico e patrocinatore dell'eugenetica, termine da
lui creato. Oltre a tale parola, ha lasciato alla scienza anche termini come anticiclone – in quanto si
interessava anche di meteorologia – e regressione e correlazione. Contribuì all'affermazione di diverse
discipline sperimentali, tra cui la psicometria (fonte Wikipedia).
2
Nel porsi questo problema, Galton non fa che applicare un suo orientamento generale: “L’oggetto
della scienza statistica è la scoperta di metodi per condensare vasti gruppi di fatti omogenei in brevi e
concise espressioni atte alla discussione”.
5
Il suo collega Edgeworth
1
(1893) risolve il problema calcolando tre “funzioni lineari
ortogonali” delle variabili antropometriche (oggi diremmo “componenti” appunto);
quindi sviluppa l’originaria idea di Galton in direzione della sintesi come funzione
della (futura) acp.
Tuttavia l’idea si sarebbe potuta sviluppare in un’altra direzione, cioè verso una
scelta di alcune delle misure antropometriche come indicatori piø validi della
propensione a delinquere. Il fatto è che alla fine dell’800 il concetto di indicatore era
assai poco usato e il concetto di validità era ancora di là da venire.
Ciononostante Spearman
2
agli inizi del ‘900 ha in mente qualcosa di simile a un
complesso di indicatori quando si propone di mostrare che i risultati che i soggetti
ottengono in alcuni tests di discriminazione sensoriale, così come i loro punteggi in
piø tradizionali prove scolastiche, sono tutte manifestazioni di un unico fattore “g”
(general intelligence).
La differenza tra Galton-Edgeworth da una parte e Spearman dall’altra è evidente: i
primi lavorano una serie di variabili già raccolte dal Ministero degli Interni e ne
propongono una sintesi; il secondo ha in mente un concetto generale e intende
mostrare che una serie di variabili specifiche possono essere ricondotte ad esso. Non
a caso Spearman intitolò General Intelligence Objectively Determined and Measured
il suo celebre articolo del 1904, unanimemente riconosciuto come l’atto di nascita
dell’analisi fattoriale. L’accento non era sulla sintesi, e nemmeno sulla nuova tecnica
che vedeva la luce, ma sul concetto.
Quello che mi sono proposto di fare è stato cogliere tali metodi, perlopiø utilizzati da
statistici filo-sociologi, antropologi, politologi e “sintetizzare la varianza” delle
informazioni creditizie al fine di valutare il merito di credito dei soggetti richiedenti.
1
Francis Ysidro Edgeworth (Edgeworthstown, 8 febbraio 1845 – Oxford, 13 febbraio 1926) è stato un
matematico ed economista britannico, che appartenne alla corrente di pensiero chiamata
marginalismo.
2
Charles Edward Spearman (Londra, 10 settembre 1863 – Londra, 7 settembre 1945) è stato uno
psicologo e statistico britannico.
6
C CA AP PI IT TO OL LO O I I
I I M MO OD DE EL LL LI I D DI I S SC CO OR RE E
1.1 Descrizione di un modello di score
Nel mondo del rischio di credito sono oramai di ampia diffusione i modelli di score,
in quanto permettono di rendere oggettiva una misurazione di rischiosità che
altrimenti sarebbe confinata alla soggettività dell’impiegato di Banca.
¨ proprio da quest’ultimo punto che può nascere un dibattito che mette in
contrapposizione l’esigenza di “efficienza oggettiva” da una parte e la
deprofessionalizzazione della figura dell’impiegato dall’altra.
Dedico ancora qualche riga su questo aspetto poichØ lavorando nel mondo del credito
da oltre 15 anni ho vissuto all’inizio della mia carriera lavorativa, iniziata come
operatore di delibera, la sensazione di inutilità o addirittura di “catena di montaggio”
nei confronti del lavoro di istruttoria finanziamenti.
Ecco, ora mi ritrovo dall’altro lato, lavoro sempre nel mondo del Credito ma mi
occupo di Data Analysis – lavoro che considero altamente professionalizzante – e tra
le altre cose sviluppo modelli di score per i miei colleghi che lavorano in delibera.
Chiariamo sin da subito una cosa fondamentale, i modelli di score non sono
infallibili, ma commettono errori.
Il vantaggio consiste nel fatto che l’errore è in qualche misura quantificabile, mi
riferisco in realtà agli errori di secondo tipo (falso negativo) e di primo tipo (falso
positivo) quest’ultimo noto a priori (con un certo livello di confidenza) e
riconducibile nella forma della Probabilità.
7
Esiste tuttavia il “Modelling Risk” e cioè l’eventualità che il modello sia errato;
in merito a questa questione è stata prodotta molta letteratura, un’indagine di
McKinsey & Company per esempio ha tentato di affrontare la questione partendo
dalla ricerca delle motivazioni per cui gli strumenti sofisticati di gestione del rischio
non siano riusciti a prevedere la crisi del 2008 o almeno a salvaguardare le istituzioni
finanziarie precipitate invece in un vero e proprio baratro. Dirigenti, azionisti ed
esperti di rischio in generale hanno a lungo dibattuto sul tema arrivando ad una
importante quanto inquietante conclusione: i manager hanno fatto troppo affidamento
sui modelli che in realtà sono risultati miopi e l’atteggiamento generale è stato di
leggerezza in un contesto peraltro caratterizzato da bassa conoscenza degli strumenti
stessi. La leggerezza piø grande è stata senza dubbio quella di spostare l’attenzione
sul ritorno dei rendimenti piuttosto che sulla gestione del rischio. L’indagine
prosegue sostenendo che la crisi dovrebbe aver insegnato agli operatori del settore
che nulla può sostituire il giudizio umano nella valutazione del rischio nei momenti
buoni quanto in quelli meno favorevoli. I dirigenti devono recepire in maniera
approfondita i rischi legati alla loro attività per questo motivo, McKinsey &
Company ha implementato, come best practice, già dal 2011 un nuovo paradigma di
rischio con i clienti piø importanti, per supportare il loro posizionamento di medio
termine e le decisioni strategiche in circostanze straordinarie. Questo approccio
olistico al rischio è costruito attorno a cinque principali elementi:
Maggiore trasparenza e comprensione nella modellazione del rischio;
Una chiara decisione su quali tipi di rischio assumersi e quali trasferire o
mitigare;
La creazione di un’apposita organizzazione e processi che aiutino l’azienda a
superare le eventuali resistenze alla proattività nei confronti della mitigazione
del rischio;
Lo sviluppo di una vera cultura del rischio;
Un nuovo approccio alla regolamentazione.
8
Questo lavoro farà riferimento sostanzialmente ai modelli di score di accettazione,
fruibili quindi per decidere se accettare o rifiutare una richiesta di finanziamento,
tuttavia i modelli di score sono utilizzati anche in ambito andamentale lavorando
quindi sulla clientela già acquisita per valutare il deterioramento progressivo del
merito creditizio e poter stabilire, per esempio, una determinata quota di
accantonamento al fondo rischio crediti in bilancio (rettifiche ai crediti).
I modelli di score di accettazione sono molto piø diffusi sui finanziamenti small
ticket, quindi nella branca del credito al consumo, questo perchØ permettono velocità
di risposta e lavorano in un terreno a loro congeniale cioè sulla quantità.
Nei finanziamenti di piccolo taglio i modelli lavorano nella quasi totalità in
autonomia, senza quindi che nessun operatore visioni la singola richiesta
1
. Un
modello di score chiamato a decidere su una richiesta di mutuo immobiliare assume
invece un’importanza decisamente inferiore.
1
In alcuni particolari prodotti, come il prestito alla grande distribuzione o il finanziamento per
l’abbonamento in palestra, si raggiungono livelli di delibera automatica sino all’80-90%.