confluirono in un nuovo settore di ricerca assai eterogeneo: l'Intelligenza Artificiale
(IA).
I logici fanno parte di coloro che hanno partecipato e continuano a partecipare a
vario titolo a questo insieme di ricerche, apportando contributi essenziali e ricevendo
stimoli. Il dialogo con l'IA ha dato effettivamente un grande impulso alla logica, che si è
trovata così ad approfondire lo studio di alcune caratteristiche dei sistemi formali e a
elaborarne di nuovi. Tra questi nuovi sistemi, sorti in gran parte per la formalizzazione
del ragionamento del senso comune, vi sono diverse logiche non monotone, e, tra
queste, le due che presenteremo in questa tesi di laurea: la logica di default di Reiter e la
logica autoepistemica.
Ora, poiché nei prossimi capitoli l'esposizione si occuperà più che altro delle
caratteristiche logiche e concettuali specifiche dei due sistemi, mi sembra utile, qui,
contestualizzarli e dare loro, almeno per sommi capi, una collocazione nell'ambito
dell'area di ricerca da cui hanno avuto origine. Tendere un filo tra l'IA e le due logiche
esposte significa infatti comprendere che tipo di problemi esse si pongano e che tipo di
risposte diano; permetterà inoltre di inquadrare i due formalismi in un orizzonte teorico
più ampio, orizzonte che costituisce, peraltro, il filo conduttore implicito dei capitoli
successivi.
Sarà bene dunque iniziare a chiarire un po' meglio cosa si intenda per IA.
1.1. L'Intelligenza Artificiale e i suoi obiettivi
Per Intelligenza Artificiale (IA) intendiamo, in un'accezione molto ampia del
termine, un insieme di ricerche estremamente eterogenee che da un lato riguardano la
possibilità di far svolgere a macchine compiti propri della mente umana e dall'altro
hanno come oggetto di studio l'intelligenza in generale. Hanno a che fare con
l'intelligenza artificiale la psicologia, la scienza cognitiva, la filosofia (in particolare la
filosofia della mente e del linguaggio), la logica e l'informatica. La definizione che
abbiamo dato per IA è, per non entrare in dibattiti fondativi che non hanno alcuna
pertinenza qui, alquanto liberale e ci consente semplicemente di osservare come gli
studi di intelligenza artificiale abbiano una doppia anima, una di impostazione più
teorica rivolta allo studio dei processi cognitivi, e una più pratica rivolta alla
programmazione e all'implementazione in software di sistemi che riproducano il
comportamento intelligente almeno in alcuni suoi aspetti.
Tra queste due "anime" vi sono ovvi rapporti di feedback, nella misura in cui il
tentativo di implementare un sistema che svolga un certo compito necessita di una
preliminare indagine teorica sulla natura di quel compito, ma i tentativi e le
implementazioni permettono a loro volta una sorta di controllo sulle ipotesi fatte in sede
teorica e, soprattutto, fanno emergere nuovi problemi su cui focalizzare l'attenzione. Di
base, lo sforzo rimane quello di affrontare problemi legati all'intelligenza, intesa in
senso molto ampio, da un punto di vista computazionale; i principali settori di indagine
possono essere identificati con il problem solving
2
, l'apprendimento automatico, la
rappresentazione delle conoscenze, la competenza e la comprensione linguistica e la
messa a punto di dimostratori automatici.
1.2. Logica e IA
La logica ha sempre avuto una posizione eminente nell'ambito dell'IA, se non altro
per una ragione storica. La figura più caratteristica di questa relazione storica può essere
individuata nella figura del logico e matematico Alan Turing, il quale, oltre ad aver
collaborato alla realizzazione di uno dei primi elaboratori elettronici, ha lavorato alla
formalizzazione del concetto intuitivo di algoritmo.
Turing ha, infatti, da un lato portato un contributo fondamentale alla teoria della
ricorsività (il campo della logica che si occupa di quella nozione di computabilità così
fondamentale per l'implementazione) e, dall'altro posto, con l'enunciazione del celebre
test di Turing, un criterio secondo molti accettabile per poter definire una macchina
pensante.
Il ruolo della logica nell'IA non si riduce, però, solo a un debito di carattere storico,
poiché, fin dall'inizio, furono in molti a vedere nella logica uno strumento in grado di
esprimere in modo rigoroso alcune capacità mentali ed in particolare quell'aspetto
dell'intelligenza che consiste nell'inferire conseguenze a partire da determinate
premesse.
2
Conserviamo il termine inglese perché come tale ha assunto un significato tecnico anche in italiano, in
particolare nella scienza cognitiva.
1.3. Logicisti e anti-logici in IA.
Fin dai primi anni, ci furono, tuttavia, accesi dibattiti sull'uso della logica in IA, tanto
da dare vita a due diverse correnti di studiosi che chiameremo, seguendo (M. Frixione
'94) quella dei logicisti
3
e quella degli anti-logici. Sostanzialmente questi ultimi non
ritengono che la logica sia uno strumento adeguato ad affrontare i problemi posti
dall'IA, mentre i logicisti lo credono.
La contrapposizione tra logicisti e anti-logici ha interessato praticamente tutti i settori
di ricerca dell'IA. Si pensi alla dimostrazione automatica, uno dei primi campi
affrontati: qui gli informatici e gli studiosi di IA in genere hanno avuto a che fare con un
terreno già ampiamente esplorato dai logici e sul quale erano disponibili un gran
numero di risultati formali. Eppure, i limiti posti dai teoremi di indecidibilità Turing,
Church e Godel e i problemi computazionali connessi alla lunghezza delle
dimostrazioni e all'esplosione combinatoria hanno fatto optare qualcuno, come ad
esempio Minsky, per soluzioni ispirate a considerazioni di ordine psicologico, e questo,
lo ripetiamo, su un terreno che era forse il più appartenente alla tradizione della logica
matematica.
Nel settore dell'apprendimento automatico, malgrado gli apprezzabili risultati
ottenuti dall'approccio logico, ad esempio con l'ID3 di Quinlan sulla classificazione
degli attributi e con il GOLEM nella diagnosi medica, un ruolo sempre più egemonico
lo stanno assumendo gli approcci basati su due nuove teorie nate dalla scienza
cognitiva, vale a dire il connessionismo e la teoria delle reti neurali.
Il campo sul quale ci soffermeremo maggiormente qui, tuttavia, è quello della
rappresentazione delle conoscenze dove la contrapposizione tra logicisti e anti-logici fa
3
Qui il termine non ha niente a che fare con il significato che esso assume in storia della logica in
riferimento al programma di G. Frege.
emergere questioni che interessano più direttamente i temi che verranno trattati in
seguito.
1.4. Logicisti, anti-logici e rappresentazione delle conoscenze.
H. Levesque e R. Brachman
4
scrivono a proposito di un sistema che intenda
rappresentare la conoscenza:
"[…]il fine di un sistema di rappresentazione della conoscenza è di individuare strutture
simboliche e meccanismi di inferenza appropriati sia per rispondere a domande che per
acquisire nuove informazioni, in accordo con la teoria della verità del linguaggio di
rappresentazione sottostante."
Poiché la logica formale del '900 si occupa esplicitamente di strutture simboliche e
meccanismi di inferenza, essa si propose immediatamente come uno dei primi candidati
ad affrontare in maniera aduguata il compito di rappresentazione delle conoscenze. In
effetti, la logica -si pensi alla logica proposizionale o alla logica del primo ordine- mette
a disposizione un linguaggio simbolico all'interno del quale rappresentare un insieme di
conoscenze, una sintassi che permette la manipolazione dei simboli sulla base del loro
esclusivo aspetto formale e una semantica in grado di giustificare tale manipolazione dal
punto di vista del riferimento ad un sistema reale.
La logica del primo ordine, in particolare, sembrò particolarmente adatta allo scopo
perché, mediante la quantificazione su domini arbitrari e potenzialmente infiniti di
oggetti e la rappresentazione di proprietà e relazioni tra tali oggetti, sembrava poter
rendere conto adeguatamente di ciò che Patrick Hayes chiama la fisica e la psicologia
4
La citazione è tratta da (Frixione '94), pag. 67. L'originale del testo è in H.J. Levesque e R.Brachman "A
fundamental tradeoff in knowledge representation and reasoning" pag. 47, in H.J. Levesque e
R.Brachman (a cura di) "Readings in knowledge representation", Morgan Kaufman 1985, Los Altos,
CA.
naive, la fisica cioè e la psicologia "del senso comune", che, secondo Hayes, consentono
agli individui di muoversi e avere rapporti nel mondo. Una rappresentazione adeguata
del mondo costituirebbe un primo passo nella descrizione di un mondo all'interno del
quale organizzare un comportamento intelligente.
Un primo merito merito dell'approccio logico nella rappresentazione delle
conoscenze, sarebbe quello di fornire norme (regole di inferenza) di carattere molto
generale da applicare a una base di conoscenze di varietà potenzialmente infinita,
permettendo così di analizzare i processi cognitivi dal punto di vista più generale
possibile.
Vi sono tuttavia due ordini di fattori che minano qui la validità dell'approccio logico,
uno legato a limiti interni della logica, trasversale alle diverse aree di ricerca in IA e
riguardante più che altro problemi di implementazione, e un secondo di carattere
teorico, legato in particolare al problema della rappresentazione delle conoscenze.
Un primo insieme di problemi, a cui abbiamo già accennato, è quello costituito dai
limiti della logica (del primo ordine) sanciti dai celebri teoremi di indecidibilità di
Turing, Church e Godel e dalla bassa efficienza garantita dall'approccio logico.
L'indecidibilità della logica del primo ordine e il peso di questo risultato sulle
ambizioni dell'IA ha dato vita a una letteratura sterminata, che ha, oserei dire,
monopolizzato (a mio parere a torto) il dibattito filosofico sul rapporto intelligenza
umana-intelligenza artificiale e sulla possibilità di costruire una macchina dotata di
"intelligenza". Qualcuno, come Roger Penrose ha sostenuto che i teoremi di Godel
dimostrano che i computer sono intrinsecamente impossibilitati a pensare come gli
esseri umani; molti hanno tuttavia reputato inadatto l'uso fatto da Penrose dei teoremi e
mi pare che (Gillies '98) mostri bene l'inefficacia di tale argomentazione.
Per quanto riguarda invece l'inefficienza, essa deriva in parte dalla controintuitiva
lunghezza delle dimostrazioni e in parte dall'esplosione combinatoria, e cioè dal fatto
che l'aumentare delle premesse produce un aumento esponenziale della complessità dei
sistemi, fino a renderla decisamente eccessiva per alcune applicazioni.
I logicisti hanno accolto la sfida posta da questa prima classe di problemi cercando di
studiare algoritmi più efficienti, sfruttando sottoinsiemi decidibili o comunque più
manipolabili della logica e integrando la logica classica con procedure euristiche. In tale
direzione, vale la pena osservare che l'attività dei ricercatori si connette, da un lato, alla
dimensione applicativa e alla programmazione logica, e, dall'altro, a quella parte della
logica che si occupa degli aspetti computazionali in senso più astratto, ovvero la teoria
della ricorsività.
Vi è però un secondo insieme di questioni che hanno valso critiche più forti
all'approccio logicista. Questo insieme è composto in realtà da una serie di critiche
molto eterogenee, ma che sono a mio parere riconducibili a un'unica obiezione di
fondo: gli uomini non ragionano secondo i principi della logica.
Approfondire questo tipo di obiezione è per noi molto importante perché la risposta
ad essa permette non solo di dare una precisa collocazione all'approccio logico in
generale e di legittimarlo, ma soprattutto di cogliere il senso delle formalizzazioni
logiche che esporremo nei capitoli successivi.
Si consideri dunque che il punto di riferimento per la logica formale del '900 è
sempre stato il modello del ragionamento matematico; nella rappresentazione delle
conoscenze di un soggetto umano, invece, si ha a che fare con il ragionamento di senso
comune, e cioè il ragionamento comunemente usato dagli esseri umani nel loro
muoversi nel mondo e organizzarlo: questa forma di ragionamento non sembra poter
essere adeguatamente rappresentata da un modello di ragionamento matematico.
Vi sono alcune caratteristiche della logica (classica, intuizionista e modale) che sono
manifestamente estranee al ragionamento di senso comune.
Innanzitutto, il concetto psicologico di inferenza è notevolmente differente dal
concetto logico di inferenza perché quest'ultimo, per essere tale, si suppone che in
qualche misura postuli almeno un criterio di validità dell'inferenza. Il criterio di validità
di un'inferenza imposto tradizionalmente dalla logica è bene espresso da (Moore '85) il
quale sostiene che, perché un'inferenza sia valida, occorre richiedere almeno che da
premesse vere si inferiscano conclusioni necessariamente vere.
Il punto è che nel ragionamento comune si è soliti trarre conclusioni in presenza di
informazione limitata o insufficiente, e tali conclusioni possono rivelarsi poi false alla
luce di ulteriore evidenze, sebbene le premesse fossero vere. Si noti che questo tipo di
inferenze non sono semplicemente diffuse nell'ambito del ragionamento umano, ma
sono altresì ragionevoli per molteplici fattori (questa precisazione si rivelerà molto
importante per quanto intendo sostenere in seguito). Se ad esempio incontro un arabo, è
ragionevole concludere che egli sia musulmano, sebbene vi siano arabi atei o di altre
fedi religiose; se poi mi capitasse di conoscere meglio l'individuo in questione la mia
conclusione potrebbe rivelarsi vera, anzi probabilmente lo sarà, ma è anche possibile
che io scopra invece che quell'arabo sia cristiano, che costituisca cioè in qualche modo
un'eccezione alla classe degli arabi.
In prima istanza, il ragionamento del senso comune ha dunque costantemente a che
fare con inferenze connesse ai concetti di probabilità e di eccezione non contemplati
dalla nozione di deduzione logica; infatti, se in un sistema logico, poniamo al primo
ordine, deduco la verità di una proposizione, tale proposizione sarà vera tout court e
senza possibilità di eccezione. Se ad esempio la mia inferenza è determinata dalle
premesse ()ARABO a e (() ()x ARABO x MUSULMANO x∀→ (dove "a" è la costante
denotante l'individuo in questione) dedurrò ()MUSULMANO a senza possibilità di
eccezione.
Ma l'esempio riportato introduce una seconda questione connessa alla prima: non
solo la logica classica, ma anche quella modale e intuizionista sono monotone;
formalmente, la monotonia, in relazione alla nozione di inferenza logica, è una proprietà
per cui pΓ a implica ApΓ∪
5
. In termini informali essa stabilisce che una
conclusione non può essere ritratta in virtù dell'ampliamento della base di premesse, e
cioè, alla luce di ulteriori evidenze. Il ragionamento del senso comune è invece
evidentemente non monotono
6
, poiché conclusioni probabili e provvisorie tratte in base
a un determinato insieme di premesse possono essere ritrattate alla luce di ulteriori
evidenze. Si consideri l'esempio precedente; siccome nell'ambito classico la deduzione
di ()MUSULMANO a implica la sua verità (definitiva), non è possibile ritrattare tale
conclusione ad esempio ampliando l'insieme di premesse (vedi sopra) con le
proposizioni ()CRISTIANO a e (() ()x CRISTIANO x MUSULMANO x∀→¬ , anzi, in tal
caso renderemmo la teoria contraddittoria. Per formalizzare l'inferenza, occorrerebbe
invece rendere conto del fatto che di fronte a un arabo, in assenza di informazioni più
complete, si è soliti inferire che egli sia musulmano, ma con la riserva di cambiare idea
sapendo poi, ad esempio, che l'arabo in oggetto è cristiano. La logica è dunque
deduttiva
7
e monotona, mentre il ragionamento del senso comune è non monotono e
non deduttivo.
5
La monotonia è essenzialmente una proprietà delle funzioni per cui x y≤ implica () ()f xfy≤ . Una
nozione di inferenza può essere vista come un'operatore di funzione Γ , di modo che Γ è monotono se
e solo se vale che XY≤ implica () ()XYΓ≤Γ , dove X e Y sono insiemi di proposizioni. Questo
equivale a dire che, aumentando l'insieme delle premesse X, l'insieme di conseguenze che si ottiene
deve essere un soprainsieme dell'insieme di conseguenze di X.
6
Alcuni derivano da "non monotonia" l'aggettivo "nonmonotonic" come Brewka e parlano di
"nonmonotonic reasoning"; verrà invece seguita la declinazione italiana promossa da Fischer Servi che
usa "non monotono" come aggettivo e parla di "ragionamento non monotono", separando la negazione e
l'aggettivo.
7
Con deduttiva si intende riferirsi al problema precedente e al requisito di validità imposto sull'inferenza.
Si noti che la terminologia usata sopra è alquanto eterogenea e si è fatto ricorso a
diversi concetti in maniera piuttosto confusa; analizzeremo meglio in seguito la nozione
di non monotonia, ma per ora la mancanza di precisione non è casuale poiché fa
emergere bene un aspetto importante del problema. La non monotonia è infatti una
caratteristica del ragionamento del senso comune riconducibile a una serie di analisi
molto diverse che facciano ricorso ad esempio alla nozione di regola di massima e di
eccezione, o al concetto di probabilità, o ad altri diversi usi del linguaggio naturale e ad
altre interpretazioni più complesse del suo significato… non è, insomma, un fenomeno
unitario, ma è trasversale a diverse componenti del ragionamento ed è
straordinariamente pervasivo. Comprendere la complessità del fenomeno è importante
perché solo così si riesce a capire la frammentazione della risposta a tale problema in un
numero enorme di soluzioni.
Prima però di approfondire il tema della non monotonia del ragionamento del senso
comune occorre riprendere il filo del discorso precedente
8
. Qual è la posizione degli
anti-logici di fronte alle osservazioni riportate sopra, e soprattutto qual'è la posizione
della logica di fronte a quelle che sorsero come critiche alla sua possibilità di
formalizzare adeguatamente il ragionamento del senso comune?
Le soluzioni proposte dagli anti-logici sono state differenti, ma accomunate da una
comune fonte di ispirazione di carattere psicologistico. Innanzitutto, si sviluppò quel
settore di ricerca noto come semantica cognitiva, un orientamento caratterizzato
generalmente da un approccio computazionale di tipo procedurale, dove l'enfasi viene
8
In realtà è opportuno, a beneficio della completezza, accennare anche al fatto che vi sono altre critiche
rilevanti all'approccio logico; ad esempio quella di non riuscire a rendere conto della struttura
semanticamente organizzata della memoria e quella di utilizzare concetti definiti, in quanto
caratterizzati estensionalmente, contrariamente al supposto uso effettivo dei concetti come prototipi. A
proposito di questo tipo di obiezioni diciamo solo che l'ultimo preblema è in parte connesso con la non
monotonia perché ha a che fare con la possibilità di avere eccezioni rispetto a insiemi di proprietà date
per default. Il ragionamento per default è uno dei principali argomenti di questa tesi, il significato del
termine "default" verrà dunque chiarito tra breve.
posta più sulla comprensione degli enunciati come costruzione di rappresentazioni
interne, che sulle loro condizioni di verità. Appartengono a questo filone la teoria dei
modelli mentali di Philip Johnson-Laird, e le varie versioni della teoria delle reti
semantiche
9
e della rappresentazione a frame. In un secondo momento, vennero poi
elaborate le teorie connessioniste e delle reti neurali che rivoluzionarono non solo
l'approccio cognitivista all'IA, ma la stessa scienza cognitiva; queste nuove teorie
assunsero un ruolo sempre maggiore in IA fino a proporsi, secondo qualcuno, come
nuovo paradigma dopo il dominio di quello logicista.
9
In realtà, se all'inizio le reti semantiche nacquero in contrapposizione all'approccio logico, poi ne
vennero elaborate versioni interne a quest'ultimo.
1.5. In difesa del logicismo: la nascita delle logiche non monotone.
Ora, i logicisti erano consapevoli dei problemi messi in evidenza dagli anti-logici,
ma non ritenevano che l'abbandono dell'approccio logico fosse la soluzione migliore. In
particolare, ciò su cui i logicisti ponevano l'accento era la necessità di individuare una
semantica per qualsiasi sistema rappresentazionale, perché altrimenti non vi sarebbe
stato alcun controllo sui meccanismi inferenziali del sistema stesso. In secondo luogo, i
logicisti insistevano sulla differenza esistente tra livello dell'espressione e livello
dell'implementazione; secondo loro, la logica sarebbe ineteressata al primo dei due,
mentre altri approcci porrebbero l'attenzione più che altro sul secondo, che ha a che fare
con questioni come l'efficienza e la procedura algoritmica. A tale proposito, riportiamo
l'opinione di McCarthy, uno dei più accesi sostenitori dell'approccio logico in IA, il
quale argomentò che la logica deve affrontare problemi di tipo epistemologico, quali il
tipo di conoscenza da rappresentare, la semantica e l'espressività dei linguaggi di
rappresentazione, e non deve essere necessariamente vincolata da limitazioni di
efficienza a particolari algoritmi o scelte strategiche, che riguardano piuttosto il piano
euristico della ricerca.
Per tener fede a questi presupposti e in risposta alle critiche subite, nacque così la
ricerca intorno ad una nozione non monotona di inferenza in seno alla logica medesima:
dagli anni settanta del novecento in poi, proliferarono una serie di logiche non
monotone che cercarono di affrontare il fenomeno della non monotonia del
ragionamento del senso comune da differenti punti di vista.
Fin dal principio fu chiaro che l'elaborazione di una nozione d'inferenza non
monotona non poteva avere un rilievo circoscritto alle ricerche di IA, ma rendeva
necessario un ripensamento del concetto di inferenza proprio della logica, ed esigeva,
probabilmente, una ridefinizione dell'idea stessa di logica (seppure con l'intenzione di
non snaturarne i presupposti). Così, il grande sforzo che seguì, da parte di un folto
gruppo di logici, in questa direzione emancipò lo studio delle logiche non monotone e
della nozione di inferenza non monotona dal legame originario con le ricerche di IA.
Col passare del tempo, l'interesse di carattere applicativo per questo filone di ricerca
ha lasciato spazio ad un interesse di carattere più spiccatamente teorico che ha spinto, in
sintonia con quanto diceva McCarthy, ad occuparsi dell'espressione e della
formalizzazione di certe porzioni di ragionamento del senso comune, anche a
prescindere dall'aspetto implementativo. L'attenzione alle forme di ragionamento non
monotono ha dato vita ad un settore di ricerca interno alla logica che non si esaurisce
nell'elaborazione di specifici sistemi formali, ma che affronta questioni di carattere più
astratto proprie di altre aree della logica più legate ad aspetti fondazionali. Dalla metà
degli anni Ottanta e soprattutto negli anni Novanta, cospicui sforzi sono stati dedicati ai
rapporti tra i diversi formalismi e allo studio sui fondamenti logici dei sistemi non
monotoni; in particolare, si è insistito sull'analisi di una nozione astratta di conseguenza
non monotona e si è cercato di individuare per essa proprietà astratte che la
caratterizzino e che facilitino il raffronto tra le singole logiche.
La rapida evoluzione di questo settore di ricerca ha fatto sì che oggi ci si possa
occupare di ragionamento non monotono e di logiche non monotone senza entrare
direttamente nel campo dell'intelligenza artificiale e a prescindere dall'efficienza e dai
risvolti applicativi dei vari formalismi; e questo malgrado la strettissima parentela che
lega i due settori di ricerca e sebbene la logica non monotona sia nata come risposta a
problemi nati in seno all'IA e da quest'ultima riceva ancora gran parte dell'ispirazione
10
.
10
Gran parte dei lavori sulla formalizzazione del ragionamento non monotono sono apparsi e ancora
appaiono in periodici come "Artificial Intelligence" o comunque aventi l'IA per soggetto. Si noti, a tale
proposito, che, nella maggior parte dei casi, alle distinzioni fatte finora (e a quelle che si faranno in
futuro) non corrisponde una effettiva distinzione editoriale a livello di pubblicazione degli articoli.