________________________________________________________________Introduzione
3
Introduzione
Negli ultimi anni il controllo statistico di processo ha acquistato, soprattutto nel
settore manifatturiero meccanico e della deformazione plastica, una notevole importanza
dimostrata anche dall’intensivo utilizzo da parte di grandi costruttori nell’industria automotive
di tali tecniche nella verifica dell’adeguatezza dei sistemi di misura, nelle pratiche di
accettazione e certificazione di macchine e mezzi di produzione, e nel controllo della qualità
in generale.
L’analisi statistica, fornita per esempio dalla maggior parte dei software, si basava
unicamente sul modello di distribuzione di probabilità gaussiana, inadeguato però a
rappresentare produzioni reali soggette a fonti di variabilità particolari legate tipicamente
all’usura utensile, ai riattrezzaggi frequenti delle macchine tipici nelle lavorazioni su piccoli
lotti, ecc.
In generale, è ben noto che solo una parte molto limitata dei processi produttivi reali è
descrivibile con modelli statistici elementari; ciò rende evidente quanto sia importante
l’utilizzo di una corretta analisi statistica in grado di descrivere con una migliore
approssimazione i processi di produzione reali.
In relazione alle difettologie maggiormente riscontrate oggi nella produzione
industriale, per descrivere correttamente le caratteristiche di forma e superficie (che hanno un
limite naturale a zero , ovvero non possono avere valori negativi) si deve disporre di software
che siano in grado di gestire modelli statistici piø elaborati e che contengano metodi di calcolo
degli indici di capacità utilizzabili anche quando la distribuzione non è gaussiana. In questo
modo si evita di:
• avere risultati inammissibili dall’analisi di caratteristiche , come ad esempio la
previsione che una consistente percentuale di lavorazioni avrà valori negativi;
• descrivere piø realisticamente il livello di qualità della lavorazione e le relative
quote percentuali, o in parti per milione (ppm), di scarto attese.
Il nuovo concetto di “controllo automatico di processo”, possibile grazie ad una
raccolta automatica dei dati, offre due vantaggi:
• la possibilità di monitorare on-line le caratteristiche chiave del processo,
evidenziandone le eventuali deviazioni dal suo stato “naturale” di funzionamento
in modo da consentire agli operatori addetti al controllo qualità di intraprendere
subito le necessarie azioni correttive;
________________________________________________________________Introduzione
4
• possibilità di registrare non soltanto la misura, ma anche altre informazioni
ausiliarie che completano la descrizione del particolare controllato, come ad
esempio la data e l’ora di produzione/controllo, l’operatore che ha eseguito il
controllo, la macchina/linea di produzione, il materiale utilizzato per la
lavorazione, ecc.
Hanno importanza due caratteristiche-chiave, quali
• aumento della frequenza di campionamento, causata da una riduzione del tempo di
misura e, conseguentemente, del tempo fra due osservazioni consecutive;
• aumento del numero di caratteristiche di qualità contemporaneamente
monitorabili.
Grazie all’elevata capacità di calcolo ormai disponibile a costi ridotti a bordo
macchina, la maggiore complessità computazionale degli approcci descritti non è da ritenersi
un ostacolo alla loro diffusione in realtà produttive che hanno adottato sistemi automatici di
ispezione e controllo della qualità.
Il presente lavoro di tesi è stato sviluppato per dimostrare la validità delle tecniche del
controllo statistico di processo (SPC) nel momento in cui vengono applicate al controllo
“automatico” della qualità di un qualsivoglia processo di fabbricazione per parti ( e anche
continuo).
Si è inserito questo lavoro nell’ambito del progetto HEOL (sviluppato in
collaborazione con Amet Italy S.r.l.), grazie al quale è stato possibile sfruttare delle
rilevazioni ottiche fatte su particolari meccanici che hanno dato in output delle deviazioni
rispetto a quote nominali di diverse caratteristiche misurate (ogni caratteristica rappresenta
l’elemento di qualità cui si è interessati); al fine di testare le tecniche sopra citate si è
monitorata la qualità di tali pezzi, generando un applicativo in ambiente Microsoft Office
Excel che si adattasse alle esigenze del controllo della qualità al 100%.
Il lavoro di tesi è strutturato nella maniera seguente:
Capitolo 1. Viene offerta una breve panoramica del concetto di qualità e della sua
evoluzione nel tempo.
Capitolo 2. Vengono descritti gli strumenti necessari e di ampio utilizzo per il
controllo della qualità nel settore della produzione industriale, in relazione alle
problematiche relative al controllo “automatico”.
________________________________________________________________Introduzione
5
Capitolo 3. Vengono descritti i caratteri generali del progetto HEOL, le motivazioni
alla base del suo sviluppo e le innovazioni di cui si fa portatore.
Capitolo 4. Vengono presentati la metodologia e gli strumenti utilizzati per la fase di
post-processing statistico dei dati del progetto HEOL.
Capitolo 5. Viene dimostrata la validità dei risultati ottenuti tramite l’applicativo
generato, grazie al software statistico Minitab 15.
Capitolo 6. Vengono presentati possibili sviluppi futuri per la fase di post-processing
in esame.
Nella parte finale del lavoro, oltre ai riferimenti bibliografici e sitografici, è presente in
appendice , a titolo di esempio, parte del codice scritto per generare l’applicativo.
Capitolo 1
Approccio alla qualità
_________________________________________________________Approccio alla qualità
7
1.1 IL CONCETTO DI QUALITA’
Due delle tante definizioni associate al termine qualità potrebbero essere le seguenti:
1. rispondenza di un prodotto alle specifiche di progetto;
2. capacità di un prodotto di soddisfare il bisogno per il quale è stato costruito.
Piø frequentemente il termine “qualità” nella moderna economia viene associato ad
una serie di caratteristiche che il prodotto o il servizio deve possedere; essa è uno degli
obiettivi fondamentali della moderna produzione industriale, si costruisce durante l’intero
processo produttivo e, oltre che progettata e prodotta, deve anche essere controllata. In tale
ottica, gli strumenti e le soluzioni per i controlli di qualità diventano fondamentali per
garantire la conformità dei processi e dei prodotti, consentendo l’individuazione delle cause di
difetti e malfunzionamenti e, quindi, l’approntamento degli interventi per la loro rimozione.
I metodi statistici sono strumenti efficaci per migliorare il processo di produzione e
aumentare la qualità dei prodotti attraverso l’eliminazione di quelli difettosi; tuttavia sono
soltanto strumenti:non funzionano se non sono usati in modo adeguato. La ricerca diretta delle
cause del difetto a prima vista può sembrare un approccio efficace, ma se si intraprendono
azioni correttive basate su cause false tutti gli sforzi possono risultare vani.
I ruoli cardine svolti dall’applicazione dei metodi di controllo statistico (SPC –
Statistical Process Control) sono:
1. dare piø importanza ai fatti che ai concetti astratti;
2. usare dati ricavati da specifiche osservazioni;
3. accettare una tendenza regolare, che compaia in un gran numero di risultati
sperimentali, come un’informazione affidabile.
1.2 NORMATIVA “UNI EN ISO” E MIGLIORAMENTO DELLA QUALITA’
L’obiettivo primario dell’ISO (International Standardization Organization) è di
diffondere sempre piø l’uso di norme internazionali nei confronti delle norme nazionali che di
fatto hanno costruito, in passato, barriere tecniche protettive dei mercati. Questo concetto non
ha palesemente senso in un mercato che estende a tutto il globo la diffusione del business.
1
Garvin (1987) stila un elenco di 8 componenti della qualità:
1. Prestazione : il prodotto compie la funzione richiesta?
2. Affidabilità : qual è la frequenza di guasto del prodotto?
3. Durata : quanto dura un prodotto?
1
Filippo C. Barbarino, UNI EN ISO 9001:2000, pag 25
_________________________________________________________Approccio alla qualità
8
4. Manutenibilità : qual è la facilità di riparazione di un prodotto?
5. Aspetti formali : come si presenta un prodotto?
6. Funzionalità : cosa “fa” un prodotto?
7. Livello di qualità percepito : qual è la reputazione del prodotto (in relazione
all'azienda produttrice) ?
8. Conformità alle normative : il prodotto è stato creato esattamente com'era previsto
in fase di progettazione?
Norme che rivestono particolare importanza sono le ISO 9000, con le quali si è
passati dal controllo alla fine di fasi produttive a un’organizzazione aziendale in grado di
garantire la qualità in ogni attività svolta dalla stessa; quindi non un semplice controllo “a
posteriori” ma un’organizzazione che previene le possibili cause di “non qualità”.
La stesura di una normativa di riferimento , che si interessi non solo della qualità di
prodotto e processo (ISO 9000), ma anche dell'impatto ambientale (EN 14000) culmina con la
stesura delle VISION 2000, con le quali i principali cambiamenti apportati all'interno delle
aziende sono stati:
1. riduzione dei modelli prescrittivi da 3 (9001-9002-9003) alla sola 9001;
2. maggiore enfasi sulla gestione dei processi e minore enfasi sulle procedure
documentali;
3. introduzione di specifici punti relativi alla misura della soddisfazione del cliente;
4. considerazioni su requisiti legislativi e regolamentari, accentuazione sulla
necessità di integrazione con altri sistemi di gestione (ambiente, sicurezza...).
1.3 I METODI STATISTICI NELLA GESTIONE DEI PROCESSI DI
PRODUZIONE
La produzione di qualsivoglia prodotto è influenzata da numerosi fattori che
presentano variabilità nel tempo, come qualità delle materie prime, funzionamento dei
macchinari, metodi di lavoro e metodi di ispezione. In sede di valutazione bisogna quindi
pensare a un processo produttivo come a un insieme di cause di variazione, responsabili dei
cambiamenti delle caratteristiche qualitative dei prodotti, che possono renderli difettosi o non
difettosi.
_________________________________________________________Approccio alla qualità
9
I difetti, in quanto causati da variazioni, diminuiscono al ridursi delle suddette
variazioni, principio questo che vale per qualsiasi tipo di prodotto e per qualsiasi tipo di
processo adottato.
Le possibili cause di variazioni possono essere divise in due gruppi: il primo prende in
esame un piccolo numero di cause che però producono un grande effetto, vital few, il secondo,
invece, raggruppa tutte le cause che producono un effetto minore, trivial many. Secondo il
principio di Pareto, essendo numerosi i fattori che costituiscono la vera causa dei difetti, è
importante individuare principalmente le vital few. La procedura di individuazione è detta
diagnosi del processo ed è basata su diversi metodi quale l’intuizione (fondata
sull’esperienza), la ricerca sperimentale e l’analisi statistica dei dati. Su quest’ultima
metodologia è fondato il seguente lavoro.
Capitolo 2
Strumenti per il controllo
della qualità
___________________________________________ Strumenti per il controllo della qualità
11
2.1 GENERALITA’
Realizzare un prodotto di qualità significa produrre rispettando certe specifiche e
livelli di tolleranza prestabiliti, sulla base delle aspettative dei clienti. Produrre con alti livelli
di qualità significa quindi migliorare tutti i processi aziendali, attraverso l’idea del “cliente
interno”: l’insieme delle attività che si svolgono nell’azienda viene considerato come un
insieme di scambi fra clienti e fornitori interni.
Nel concetto di “miglioramento continuo” trova una sua giustificazione l'applicazione
di metodologie dirette al Controllo Statistico del Processo in quanto sono esse a rappresentare
un primo valido strumento a sostegno del raggiungimento della qualità.
Il Controllo Statistico di Processo può essere definito come una metodologia che, in
riferimento ad una determinata attività, operazione, fase o processo caratterizzato da
ripetitività, fa ricorso a tecniche statistiche al fine di definire, analizzare e verificare le
condizioni che determinano la variabilità dell'oggetto di analisi. In modo piø sintetico,
rifacendoci alla definizione fornita da Juran, potremmo definire i metodi SPC come
"l'applicazione di tecniche statistiche per comprendere ed analizzare le variabilità di un
processo".
Gli studi sull'SPC non sono certo temi nuovi alla Qualità. Già nel 1924, infatti, il dott.
W.A. Shewart iniziò a sviluppare un approccio statistico al controllo di qualità, rilevando che
il concetto di variabilità riferito ai fenomeni naturali era ugualmente adeguato all'analisi e alla
descrizione dei processi produttivi. Con il contributo della statistica inferenziale e della
statistica descrittiva nacquero così le sue carte di controllo, uno degli strumenti statistici piø
impiegati nell'analisi dei processi produttivi e la cui validità è stata riconosciuta nel tempo.
Il controllo Statistico della Qualità ha cessato di essere semplicemente un supporto al
cosiddetto "Scientific Management" per divenire strumento diffuso da collocare all'interno di
un vero e proprio approccio di gestione/organizzazione. In quest' ambito le metodologie SPC
sono divenute patrimonio aziendale comune e condiviso a tutti i livelli, specie fra coloro che,
in quanto operatori, possono incidere direttamente sul proprio processo attraverso un'analisi
che si configura come un vero e proprio Learning by doing.
Il processo produttivo opera nel tempo realizzando una serie di prodotti che possono
essere considerati elementi della popolazione di pezzi che il processo può produrre. E’
tuttavia presente una variabilità delle prestazioni del processo in quanto nessun pezzo
prodotto è uguale ad un altro. Ovvero, misurando una medesima caratteristica W su ogni
___________________________________________ Strumenti per il controllo della qualità
12
prodotto, si osserverà una certa variabilità della stessa. Il valore della caratteristica W, rilevata
sul singolo prodotto, viene vista come la determinazione di una variabile casuale con una data
distribuzione di probabilità.
In particolare, si deve tenere conto che:
• in ogni istante la grandezza W può essere descritta da un particolare modello
distributivo parametrico: conoscendo i valori dei parametri si è in grado di
identificare perfettamente la distribuzione (ad esempio, nel modello normale,
conoscendo i parametri media e varianza si identifica completamento la
distribuzione);
• lo specifico valore osservato su un prodotto può essere considerato come un valore
generato dal quel particolare modello e cioè può essere visto come un campione
casuale semplice di 1 unità, estratto dalla popolazione caratterizzata da quel
modello distributivo;
• la distribuzione di W può cambiare nel tempo ovvero possono cambiare nel tempo
i valori dei parametri distributivi.
Quando intervengono tali modifiche significa che ci sono state variazioni sistematiche
ovvero la popolazione è cambiata. Obiettivo ultimo, quindi, nell'utilizzo di queste tecniche
statistiche è quello di dotare l'impresa di strumenti adeguati per migliorare il livello dei
prodotti/servizi offerti/erogati attraverso l'eliminazione di errori, difformità che causano
ripetizioni di lavoro, controlli inutili e quindi rallentamenti nei cicli di lavorazione. Sarà
fondamentale avere una conoscenza chiara e approfondita dei processi, identificare le
caratteristiche critiche del processo attraverso l'impiego di dati statisticamente significativi
(quindi analizzabili), che consentano di determinare le cause che determinano "cambiamenti
indesiderati" rispetto al normale funzionamento del processo in analisi.
Fra le diverse tecniche statistiche impiegabili nella metodologia SPC, utili ad
analizzare nel modo piø obiettivo il comportamento del processo,sia di tipo qualitativo che
quantitativo, verranno approfondite, ai fini di questo lavoro, le due seguenti tipologie:
• carte di controllo;
• analisi della Capability.
Possibili impieghi di questi strumenti sono:
• previsione della possibilità di raggiungere le tolleranze di progetto;
• pianificazione di verifiche dei controlli di processo;
___________________________________________ Strumenti per il controllo della qualità
13
• analisi delle possibili interdipendenze fra i processi;
• interventi correttivi durante la lavorazione;
• valutazione di nuove attrezzature;
• elaborazione di specifiche.
2.2 LE CARTE DI CONTROLLO
Una carta di controllo consiste in una linea centrale , una coppia di limiti di controllo,
disposti uno superiormente e l’altro inferiormente rispetto alla linea centrale, e valori
caratteristici disegnati sul diagramma che rappresenta lo stato del processo. Se tutti i valori
sono compresi fra i limiti di controllo e non assumono tendenze particolari, il processo è
considerato in stato di controllo; al contrario, se si posizionano al di fuori dei limiti o
assumono forme particolari, il processo viene detto fuori controllo e il passo successivo sarà
quello di individuare le cause che hanno portato a questa condizione.
Per costruire una carta di controllo è necessario stimare dunque la variazione dovuta a
cause vital few, dividendo i dati relativi al un processo in sottogruppi, in funzione del lotto di
materie prime, delle macchine, degli operatori e di altri fattori, in modo che la variazione
all’interno del sottogruppo possa essere considerata approssimativamente uguale alla
variazione dovuta alle cause comuni.
Per ogni carta di controllo, indicando con W una generica statistica campionaria , le
espressioni che definiscono la linea centrale (CL) e i limiti di controllo (superiore, UCL, e
inferiore, LCL) sono
] [W E CL = (1.1)
2 / 1
]) [ ( 3 ] [ W V W E UCL + = (1.2)
2 / 1
]) [ ( 3 ] [ W V W E LCL - = (1.3)
dove E[W] e V[W] indicano rispettivamente il valore atteso e la varianza della distribuzione
di dati della statistica campionaria W . L’adozione di queste espressioni è alla base
dell’approccio di Shewart.
Nelle figura successiva è riportata una carta di controllo per misure individuali;
rispettivamente si trovano in ascisse i numeri rappresentativi della singola misura, mentre in
ordinate i valori effettivi delle misure eseguite. Il processo in questo caso risulta in controllo.
___________________________________________ Strumenti per il controllo della qualità
14
25 23 21 19 17 15 13 11 9 7 5 3 1
20.040
20.025
20.010
19.995
19.980
Observation
Individual Value
_
X=20.00112
UCL=20.03215
LCL=19.97009
I-MR Chart of Pezzo tornito
Figura 2.1 Esempio di stato di controllo di un processo, valutato con una carta di controllo per
misure individuali.
Data una distribuzione di frequenza teorica di riferimento, ad esempio la gaussiana
(figura 2.2), l’interpretazione dei valori esterni alle linee di controllo inferiore e superiore è
simile a quella di un generico test statistico di ipotesi; i valori che sono fuori dai limiti sono
testimonianza di un processo non omogeneo o che produce un output sensibilmente diverso
da quello di riferimento. Indipendentemente dal tipo di carta di controllo utilizzata, la lettura
può quindi considerarsi sempre la stessa.
3 2 1 0 -1 -2 -3
0.4
0.3
0.2
0.1
0.0
X
Density
Distribution Plot
Normal; Mean=0; StDev=1
Figura 2.2 Distribuzione normale, con parametri di media e deviazione standard
rispettivamente pari a 0 e 1
Si usa distinguere fra due tipi di carte di controllo: per variabili e per attributi ; le
seconde sono utilizzate solo quando si dispone di dati discreti e non vengono trattate in questa
sede.
Le seguenti carte di controllo per variabili si distinguono in :
1. carta x - R (valore medio e campo di variazione)
___________________________________________ Strumenti per il controllo della qualità
15
2. carta x (valore osservato)
3. carte I-MR ( carte per misure individuali)
4. carte EWMA (carte per dati auto correlati)
Questa tipologia di carta viene utilizzata quando il campione X è una variabile
continua come deviazione, tempo, pressione, temperatura ecc…Con riferimento alla carta x -
R , se la numerosità del campione n è pari a 1 il valore di R si riferisce alle 2 o piø
osservazioni precedenti (Moving Range) e la carta si definisce I-MR. Inoltre se si utilizza lo
scarto quadratico medio per la valutazione della dispersione si ottiene una carta X-S.
2.3 PRINCIPI DI INFERENZA STATISTICA
La costruzione di una carta di controllo prevede l’applicazione di particolari concetti
di tipo statistico, che si ritiene opportuno descrivere per una migliore comprensione del lavoro
svolto.
Un parametro statistico (come ad esempio la media di una popolazione) è una
funzione delle osservazioni campionarie. ¨ necessario però distinguere una stima campionaria
da un parametro della popolazione: un parametro della popolazione ha un valore costante, che
può anche non essere noto, mentre una stima campionaria è la stima dello stesso parametro,
ottenuta estrapolando dalla popolazione dei campioni.
2
La fase di progettazione della carta riveste particolare importanza in quanto verifica
una condizione fondamentale NID, ovvero che i dati siano distribuiti in maniera Normale
(secondo una distribuzione normale), Indipendente (non vi è correlazione fra i dati) e Identica.
A questo proposito viene riportato il teorema che sta alla base di questa condizione,
direttamente connesso con il calcolo della media (parametro, questo, che rientra nella totalità
di tipologie di carte di controllo):
Teorema del limite centrale.
3
La distribuzione della variabile casuale media di un
campione estratto da una popolazione che ha una varianza finita tende ad una distribuzione
normale quando la numerosità del campione tende all’infinito.
Come specificato,al fine della costruzione di CL, UCL e LCL, si dispone molto
spesso di valori stimati di media e varianza che , infatti, riferiti al singolo campione e non
all’intera popolazione, vengono denominati media e varianza “campionarie”.
2
Hitoshi Kume, Metodi statistici per il miglioramento della qualità, pag 163
3
Hitoshi Kume, Metodi statistici per il miglioramento della qualità, pag 168
___________________________________________ Strumenti per il controllo della qualità
16
Figura 2.3 Posizionamento dell’inferenza statistica nell’ambito del controllo di qualità
La media campionaria è dunque uno stimatore della tendenza centrale della
distribuzione e viene definita come la somma delle variabili casuali che definiscono il
campione diviso la numerosità campionaria
4
,
∑
=
=
n
i
i
x
n
1
1
ˆ m (2)
mentre la varianza campionaria , che esprime la variabilità dei dati all’interno del campione, è
data dalla somma delle variabili casuali scarto dalla media campionaria al quadrato diviso per
n
5
,
n
x
n
i
i ∑
=
- =
1
2
2
) (
ˆ
m s (3)
La varianza in realtà è una grandezza derivata, in quanto è legata alla deviazione
standard dalla relazione
n
x
n
i
i ∑
=
- = =
1
2
2
) (
ˆ ˆ
m s s (4)
Le carte di controllo che, con le dovute verifiche, adottano l’approccio di Shewart,
vengono chiamate anche carte “3-sigma” per il fatto che i limiti vengono costruiti sommando
o sottraendo al valore di CL tre volte il valore della deviazione standard.
4
D.Piccolo, Statistica per le decisioni, Par 12.5
5
D.Piccolo, Statistica per le decisioni, Par 12.5
Popolazione
Ipotesi di
distribuzione
normale
Campione
Dati
Parametro
statistico
Inferenza statistica Calcolo
Campionamento
Misura
___________________________________________ Strumenti per il controllo della qualità
17
Il coefficiente utilizzato per sommare o sottrarre la quantità σ definisce con quale
probabilità i valori dovrebbero comparire nella carta internamente alla zona delimitata da
UCL e LCL.
L’associazione fra i coefficienti di σ e tale probabilità è :
- null ± σ , 68.2%
- null ± 2σ , 95.46 %
- null ± 3σ , 99.73 %
Due pratiche molto importanti attinenti alla progettazione e gestione della carta di
conrollo sono rispettivamente l’analisi dei dati e il test delle ipotesi.
Analisi dei dati. In molti casi il campione di valori della caratteristica monitorata non
risulta essere distribuito secondo una gaussiana ed inoltre potrebbe non essere verificata
l’assenza di autocorrelazione fra i dati; ciò avviene specie quando aumenta la frequenza delle
osservazioni.
Per riportare nelle condizioni necessarie all’approccio di Shewart la distribuzione dei
dati si utilizzano degli strumenti quali:
• test di Anderson-Darling per la verifica della normalità;
• metodo grafico per la verifica della normalità;
• test di Bartlett per la verifica dell’assenza di autocorrelazione.
Per verificarne la normalità, il test di Anderson-Darling applica la seguente procedura
ad un campione di n dati { n x x x ..... 2 , 1 }, indipendenti e identicamente distribuiti.
1. si calcolano la media
n
x
x
i
i
∑
= e la varianza S
2
=
1
) (
2
- - ∑
n
x x
i
i
2. si ordinano i dati in senso crescente ( 1 + < i i x x )
3. si standardizzano i dati ottenendo i valori
S
x x
w
i
i
- =
4. si determinano i valori associati di cumulata ) ( ) ( Pr i i i w w z ob F f = < =
5. si calcolano i valori
A
2
= n
n
F F i
n i
i n i
- - + - - ∑
=
- +
, 1
1 )] 1 ln( )[ln 1 2 (
e A
*2
= A
2
)
25 . 2 75 . 0
1 (
2
n
n
+ +
L’ipotesi di normalità può essere rifiutata se A
*2
> A
*2
α
, dove per ogni valore di α
viene associato un valore di A
*2
α
come sotto,