4
CAPITOLO PRIMO
Errore e metodi di indagine
1.1 Origine del concetto di errore: le fallacie
L’errore è un atto o una condizione di ignorante o imprudente deviazione da
un codice di comportamento, un atto che non intenzionalmente devia dalla
verità e dalla accuratezza. L’errore può generare conseguenze critiche od
originare incidenti gravi (Hofmann, Frese, 2011).
L’errore inquieta e accompagna la dinamica della conoscenza e della
volontà. Si può capire il motivo dell’errore e continuare a farlo.
Nell’opinabile e nell’incertezza, ma anche nell’oggettività, la comprensione
dipende dal modo in cui si osserva e quanto si vuole vedere. L’errore può
rappresentare un momento negativo, ma anche un suggerimento per
cambiare, continuare il cammino e raggiungere l’obiettivo. È una
défaillance da superare o prevenire, ma può diventare una nuova possibilità
di giudizio e di azione. Può essere un semplice sbaglio, un modo di essere
deficitario, un incidente di percorso nella capacità di giudizio, un approccio
sbagliato a livello conoscitivo e affettivo con la verità (Esposito,
Maddalena, Ponzio, Savini, 2007).
Una breve storia delle teorie della fallacia delinea l’evoluzione nel tempo
del concetto di errore (Mucciarelli, Celani, 2002). Lo studio delle fallacie
nasce come pratica di insegnamento, ma si evolve subito in una teoria vera e
propria, compresa nella logica aristotelica. La teoria si cristallizza in un
sistema, che sarà alla base degli sviluppi originali della logica medievale.
Con l’età moderna si orienterà di più verso la retorica e la psicologia.
L’indagine sul ragionamento scorretto interessa all’inizio la riflessione
filosofica, per la ricerca degli errori più comuni. Infatti, Eraclito ritrova
nella presunzione di sapere spesso sbagli e inganni. Parmenide sostiene che
per ovviare all’errore è importante il ragionamento coerente della logica.
Nella Grecia classica dal V secolo a. C., la ricerca della verità viene
attraverso la confutazione di tesi contrarie e l’avversario nel dialogo è un
5
compagno con cui ricercare la verità. Nella fase iniziale, Socrate considera
l’indagine un’attività terapeutica, per liberare la mente da false credenze. La
costruzione può cominciare solo quando non rimane nulla di saldo. Per
questo rimprovera ai sofisti di non possedere la vera arte di insegnare, in
quanto supportata non da un sapere definito e ordinato, ma dall’assunto che
la sola verità è affermare che la verità non esiste. Viene negato il principio
del dialogo. E da qui nasce l’esigenza di distinguere il ragionamento
corretto da quello scorretto attraverso la teoria delle fallacie.
Sarà Aristotele a proporre una teoria generale delle confutazioni, in
particolare quelle apparenti, classificate in due grandi gruppi. Il primo
comprende le fallacie dell’espressione linguistica, in relazione
all’ambiguità, ai significati delle parole e alla formazione delle proposizioni,
che vanno ad interferire nella comunicazione linguistica. Nel secondo
gruppo le fallacie vanno a viziare la speculazione solitaria e possono essere
formali o di dimostrazione. In seguito saranno raggruppate come
incomprensioni della confutazione.
Anche gli stoici sostengono che ogni parola è per natura ambigua e può
assumere significati diversi. L’ambiguità, in un’espressione comune a più
contenuti, può dipendere dalla diversità tra espressione e contenuto
semantico.
Nel Medioevo le innovazioni riguardano la definizione di alcuni termini
tecnici e, a livello più generale, i settori della logica, in riferimento alla
significato dei termini, alla verificazione e all’inferenza. Rispetto alla
suddivisione aristotelica vengono identificati altri modi per dare
sistematicità e coerenza alla teoria delle fallacie.
In Età moderna viene abbandonato l’interesse per gli aspetti formali e logici,
a favore dell’efficacia retorica e dell’influenza psicologica sugli errori di
ragionamento. Bacone, uno dei padri dell’empirismo e della metodologia
scientifica, sostiene che influssi esterni possono inficiare la ragione, sono gli
idoli, inclinazioni erronee dovute alle impressioni dei sensi, alle condizioni
di vita, all’uso comune del linguaggio e alle tradizioni culturali. Una serie di
fattori psicologici, sociali e culturali vanno ad incidere sulla capacità di
giudizio e di ragionamento.
6
Nel periodo umanistico-rinascimentale le cause degli errori non sono
ricercate nella ragione, ma nei fattori esterni: influsso delle passioni e delle
opinioni. Nella prospettiva cartesiana lo studio del ragionamento scorretto
non viene tenuto in considerazione e riservato solo alle cause di errore.
Vengono distinte le cause soggettive, dovute all’interferenza nella volontà e
quelle oggettive, in relazione agli argomenti trattati. Infatti, nella prima
categoria sono compresi gli errori associati all’interesse e all’amor proprio
personale e nella seconda quelli dovuti a scarsa considerazione dei dettagli e
a conclusioni affrettate. Sono motivazioni e stati psicologici che favoriscono
l’errore logico del ragionamento, ma non lo spiegano del tutto.
Nel XVIII secolo non ci sono novità fino al 1800 con Whately, che ritiene la
conoscenza e la familiarità delle fallacie un valido aiuto alle discussioni.
Riprende la classificazione di Aristotele e le categorizzazioni più recenti,
con l’introduzione di alcune innovazioni, ma è necessario aspettare la
seconda metà del Novecento per ritrovare un certo interesse per lo studio
dell’errore (Tabarroni, 2002).
La possibilità di errore viene posta al centro della teoria e dei metodi
scientifici, in quanto rappresenta il punto per stabilire la scientificità
(Esposito et al., 2007). Il criterio per distinguere la scienza è la
falsificazione, che garantisce razionalità e oggettività. L’errore diventa
garanzia della validità del metodo scientifico e la scienza si pone la finalità
di formulare teorie per rendere minimo l’errore. Il razionalismo popperiano
sostiene che: “Nessuno può evitare di fare errori: la cosa grande è imparare
da essi”
(Esposito et al., 2007, p.72).
Quindi sbagliare, come inadeguatezza della comprensione e insufficienza
dell’azione, è un’esperienza che continua a stimolare interesse. L’errore è un
momento fondamentale nella ragione e nella volontà, perché costringe a
riconoscere la preferenza per il vero, rispetto alla fallibilità.
Una massima comune sostiene: “Sbagliando s’impara”. Non significa
imparare una migliore strategia di auto-difesa o giustificare la propria
incapacità, ma avere il contatto con la realtà. Non vuol dire giustificare
l’errore, ma scoprire che attraverso lo sbaglio si può arrivare alla verità. E
rappresenta un’attrazione che vale molto di più dell’errore (Esposito et al.
2007).
7
1.2 Definizione e significato di errore
La letteratura attuale non da’ risposte univoche su come definire le fallacie,
riconoscerle e classificarle né su quale disciplina debba occuparsene:
sull’argomento si sono espressi, di volta in volta, studiosi di logica, di
retorica, di psicologia, di metodologia delle scienze, e altri ancora. Un
accordo pressochè unanime si ha sul fatto che le fallacie esistono e
dovrebbero essere evitate dagli agenti impegnati nelle attività razionali più
svariate come ad esempio: nel dialogo, nella presa di decisione,
nell’indagine scientifica (Benzi, 2002). Secondo la concezione tradizionale
nel manuale di logica di Copi (1961) la fallacia viene definita come un’idea
erronea. I logici preferiscono considerarla un errore di ragionamento, in
particolare, negli argomenti scorretti e a livello psicologico-persuasivi. La
fallacia dunque è caratterizzata dal sembrare qualcosa che non è e
dall’avere delle forme erronee. Le fallacie non sono semplici errori, ci
ingannano perché il loro status non è facilmente riconoscibile.
L’esperienza dell’errore da sempre interessa la psicologia, Freud (1901) e
altri cercano di capire l’origine dell’errore e la sua manifestazione. Sono
errori comuni, quotidiani nelle azioni e nei ricordi e rappresentano la forma
manifesta di impulsi repressi nell’inconscio. Possono essere individuati
attraverso l’osservazione diretta, le tecniche di analisi e di autoanalisi.
Oggi la prospettiva d'indagine si sposta verso l’analisi dei processi
cognitivi alla base dell’azione errata. Però la definizione non è semplice, e
anche se molto comune, l’errore si manifesta in modalità e contesti
differenti con conseguenze altrettanto diverse.
Nella definizione di Reason (1990), l’errore è un termine generico per
identificare le situazioni, dove una sequenza di attività mentale o fisica non
raggiunge lo scopo atteso, senza altri interventi causali non intenzionali.
Alla base ci sono due principali distinzioni. La prima riguarda l’errore o la
prestazione corretta, in relazione al raggiungimento dell’obiettivo fissato.
La seconda tiene conto del rapporto tra individuo e contesto.
8
L’errore è un’eccezione, qualcosa di imprevisto rispetto alle aspettative. Il
fallimento si può avere nella percezione, nel ricordo, nella decisione o
nell’azione e ne sono coinvolti diversi processi. Solo di recente lo studio
dell’errore ha acquisito lo status di linea di ricerca autonoma anche se
questo è dipeso da esigenze di natura applicativa connesse alla necessità di
prevenire il verificarsi di eventi catastrofici, come ad esempio Chernobyl,
piuttosto che essere una funzione di un interesse teorico legato alla natura
di questo fenomeno. Oggi lo studio sulla fallibilità umana ha assunto un
aspetto centrale nell’indagine psicologica ma gli studi sistematici
sull’errore umano sono ancora limitati.
Il mancato raggiungimento di un obiettivo, non significa necessariamente
effetto spiacevole, qualche volta il risultato si tramuta in effetti positivi ad
esempio scoperte accidentali (MacPhail, Edmondson, 2011). L’errore può
avere un ruolo nei processi creativi e di innovazione poiché può stimolare
ad una riconfigurazione e riconcettualizzazione degli elementi in gioco
portando in direzioni nuove (Foster, Ford, 2003). Spesso l’errore viene
confuso con le sue conseguenze, perché il riconoscimento avviene solo
dopo la sua manifestazione, mettendo insieme azione sbagliata e
conseguenza non voluta.
Secondo Hollnagel (1992), è preferibile utilizzare l’espressione “azione
errata”, in riferimento agli eventi senza risultati attesi e alle conseguenze
indesiderate. L’ambiguità è contenuta nel termine “errore umano”,
utilizzato per indicare la causa della dinamica errata e la descrizione
dell’attività cognitiva impiegata. Esempi di confusione nell’errore e nelle
conseguenze, di valore negativo dato dal contesto, si possono ritrovare
nelle esperienze della normale vita quotidiana. Sono le circostanze
dell’evento a produrre gli effetti negativi, non i processi mentali alla base
dell’errore.
Per Reason (1990) sono gli stessi meccanismi cognitivi ad intervenire nella
prestazione corretta e in quella errata. Nella pianificazione ed esecuzione di
un’azione possono presentarsi, infatti, risposte involontarie e, anche in
presenza di maggiore controllo, attivarsi meccanismi cognitivi automatici
che causano errori. L’errore rappresenta per Hollnagel (2007) anche un
modo per imparare e migliorare le capacità in un processo di
9
apprendimento. Consente di avere un riscontro sul proprio comportamento
dall’ambiente, avere informazioni sugli errori e sui cambiamenti per
arrivare alla correttezza. Sono segnali di controllo che consentono la
prestazione corretta e l’esperienza di altri comportamenti. L’azione
sbagliata diventa adattiva e consente il cambiamento e la crescita. Diventa
necessaria all’apprendimento, all’adattamento e alla sopravvivenza. Anche
se l’autore pensa che un’eccessiva concentrazione sull’utilità dell’errore
possa deviare dallo studio dell’errore come fenomeno in sé. Comunque
l’errore fa parte del comportamento dell’uomo e la distinzione tra
correttezza o errore in una prestazione dipende da un processo valutativo
che passa dal mero riconoscimento dell’errore durante l’azione al campo
del dominio del giudizio sulle conseguenze derivate dall’errore. Il percorso
mentale che porta all’esecuzione di un errore potrebbe di per sè non essere
riconosciuto immediatamente come sbagliato, ma diventarlo in una
valutazione fatta a posteriori, per stabilire se l’obiettivo è stato raggiunto
oppure no. Nel confronto tra la prestazione eseguita e un modello
prototipico di azione, la divergenza costituisce l’errore, ma dipende dalla
tolleranza ambientale sulla deviazione dalla condotta normale. Possono
essere eccezioni cognitive e ambientali per indicare limiti dei processi
cognitivi e del contesto di appartenenza. Il dominio dell’errore viene a
trovarsi nella zona grigia, nel punto d’incontro degli stati eccezionali del
sistema cognitivo e ambientale. Conoscere quali sono i limiti individuali e i
vincoli ambientali consente la previsione della direzione. L’errore va
osservato nella zona di confine tra individuo e ambiente, nel punto
d’interazione (Di Nocera, 2011).
Quindi lo studio dell’errore deve tenere conto degli aspetti interni
dell’individuo, ma anche dei fattori esterni. Infatti l’aumento della
complessità ambientale di vita e di lavoro costringe gli individui ad agire in
situazioni e circostanze oltre i limiti naturali, con maggiori probabilità di
errore e di conseguenze gravi.