6Il primo paradigma viene comunemente detto simbolico e trae le sue
origini dagli studi della scienza cognitiva. In quest’ottica, l’intelligenza
dell’uomo deriva dalle sue capacità mentali, che gli consentono di trasformare gli
stimoli percettivi in simboli e di attribuire un significato al mondo, elaborandoli
secondo delle regole più o meno formali.
Dalle teorie del connessionismo, invece, nasce il paradigma sub-simbolico.
Strettamente legato agli studi delle neuroscienze, questo paradigma attribuisce le
cause dell’emergere dell’intelligenza alle dinamiche fisiche del cervello.
Al fine di evidenziare le differenze tra questi due paradigmi, in questa
sede analizzeremo le conseguenze che hanno sulle concezioni di quelli che sono i
concetti salienti della conoscenza.
Nel primo capitolo cercheremo di inquadrare le origini teoriche dei due
paradigmi, introducendo le differenze che essi comportano negli studi
dell’Intelligenza Artificiale.
Nel secondo capitolo verranno presentati i concetti di base delle teorie
simboliche e sub-simboliche, proprio attraverso l’analisi della diversa concezione
delle regole che sottostanno al ragionamento intelligente.
Il terzo capitolo si propone di essere un analisi generale delle molteplici
teorie sull’apprendimento nell’Intelligenza Artificiale, con l’intento di
sottolineare l’influenza dei due paradigmi sulla creazione dei diversi modelli.
Nel quarto capitolo esamineremo le differenti concezioni della memoria,
derivanti dalla visione simbolica e sub-simbolica della conoscenza. Cercheremo
di sottolineare quanto sia importante, per entrambi i paradigmi, la presenza di un
qualche tipo di ricordo del passato per lo sviluppo dell’intelligenza e della
capacità di apprendere.
Nel quinto capitolo analizzeremo quanto sia diversa la concezione del
rapporto tra mente e corpo nei due paradigmi, evidenziando l’importanza del
corpo per la formazione di un adeguata conoscenza del mondo.
Nel corso della tesi cercheremo di chiarire le divergenze e i punti di
contatto delle diverse teorie, evidenziando i successi e gli insuccessi ottenuti in
materia di Intelligenza Artificiale, ma anche valutando gli apporti teorici dei due
paradigmi al fine della realizzazione di un intelligenza costruita artificialmente.
72- Cenni storici
La scienza denominata «Intelligenza Artificiale» nasce ufficialmente nel
1956, ma la sua storia è strettamente legata a quella della Computer Science.
Il primo vero computer, chiamato ENIAC (Electronic Numerical
Integrator and Calculator)1, venne costruito nel 1946, lo stesso anno nel quale
Von Neumann definì le caratteristiche funzionali di un modello di calcolo
automatico (modello di Von Neumann). In realtà, già alla fine degli anni ’30
l’IBM realizzò, in collaborazione con il governo americano, un calcolatore
elettromagnetico in grado di effettuare calcoli balistici (ASCC).
Le basi teoriche dell’Intelligenza Artificiale, come anche quelle della
Computer Science, possono essere fatte risalire ai primi anni ’30. In seguito alla
dimostrazione del teorema di Godel (1931), molti studiosi si interessarono al
problema di definire i limiti del calcolabile. Godel fece notare come possano
esistere delle teorie non dimostrabili, ma nemmeno confutabili. Tali teorie
vengono denominate indecidibili e, in contrasto con la logica classica,
dimostrano che, in una teoria non contraddittoria, non tutto ciò che è vero è
dimostrabile anche se tutto ciò che è dimostrabile è vero.
Il teorema di Godel mette in evidenza il problema di definire cosa è
veramente dimostrabile, ma anche di capire cosa è di dominio del computabile.
Lo scopo dell’intelligenza Artificiale, in questo senso, è quello di risolvere
problemi non computabili utilizzando modelli strutturalmente limitati al
computabile (computer).
Nel 1936, pur seguendo percorsi diversi, Church e Turing arrivano alla
stessa conclusione: tutte le funzioni ricorsive (e solo quelle) sono computabili. Si
definisce funzione ricorsiva, intuitivamente, quella che dà vita ad una sequenza
di passi, ognuno dei quali può essere ricondotto a quello precedente. Allo stesso
modo si può dire che ogni passo determina il successivo. Questo significa, in
altre parole, che è computabile tutto ciò che può essere risolto con una procedura
algoritmica deterministica, effettiva e finita. In questo modo si definisce un
1
Per maggiori informazioni su ENIAC vedere il sito http://www.windoweb.it/edpstory_new/eh1945.htm
8ambito di studi per l’Intelligenza Artificiale: analizzare le funzioni ricorsive e le
loro applicazioni, e studiare quanto sia algoritmizzabile una funzione di
quell’ambito. Il problema di fondo, perciò, diventa quello di riuscire a realizzare
un algoritmo computabile che sia in grado di risolvere problemi che vanno al di
là del computabile, in quanto l’uomo riesce a farlo.
Turing diede anche altri importanti apporti allo studio dell’Intelligenza
Artificiale, concependo una macchina calcolatrice teorica (macchina di Turing)
attraverso la quale definire l’ambito del computabile e delineando, nel cosiddetto
test di Turing, i parametri attraverso i quali valutare «l’intelligenza di un
computer».
La macchina di Turing è un calcolatore universale che dovrebbe essere in
grado di elaborare ogni tipo di calcolo nell’ambito del computabile, se
adeguatamente programmata. Una macchina di Turing è formata da una
Memoria, una Unità di Calcolo e una Unità di Controllo. La Memoria è un
deposito di informazioni, che viene ipotizzato come un nastro (teoricamente
infinito) suddiviso in caselle, ciascuna con inscritto un simbolo. L'Unità di
Calcolo è la parte che compie le operazioni seguendo il programma. Nel caso
specifico può leggere il simbolo inscritto sulla casella, scriverci un altro simbolo,
spostarsi sulla casella di destra, su quella di sinistra oppure restare ferma. In ogni
passo l'operazione da compiere è funzione dello stato interno dell'Unità di
Calcolo e dell'informazione ad essa accessibile in quel particolare istante.
L'Unità di Controllo è costruita in modo tale da far sì che le operazioni vengano
eseguite rispettando i suddetti legami di dipendenza.
Il fatto importante è che una macchina di Turing lavora trasformando le
informazioni depositate nella sua Memoria, secondo le regole che governano la
sua Unità di Calcolo, cioè secondo il programma che guida la sua Unità di
Controllo. In questo senso può essere definita una macchina di calcolo
universale: identificandosi nelle stesse regole che la guidano, è in grado di
assumere le capacità del programma, perciò, può teoricamente essere
programmata per risolvere un qualsiasi calcolo (computabile).
9Una macchina di questo tipo può elaborare l’informazione in modo
intelligente? Secondo Turing questo è possibile e, nella pratica, si verificherà nel
caso in cui tale macchina supererà il Test di Turing.
Per delineare il suo Test, Turing parte dal presupposto che la somiglianza
tra esseri umani e macchine che deve emergere nelle sperimentazioni, consiste
nella produzione di espressioni che hanno un significato. Egli riteneva, più
precisamente, che ogni dubbio venisse dissipato nel caso in cui le espressioni
prodotte dalle macchine fossero state significative per gli esseri umani. In un
interazione uomo-macchina (mediata da un programma simile ad una chat),
l’essere umano non avrebbe dovuto rendersi conto di avere a che fare con un
sistema di intelligenza artificiale.
Secondo Turing, pensare significa produrre pensieri e concatenarli. Il
segno più inequivocabile del possesso di una tale capacità è l'espressione
linguistica dei propri pensieri. Per questo il Test si basa sulla valutazione delle
capacità comunicative della macchina. Essendo le parole dei simboli appartenenti
ad un certo alfabeto e sottoposti a delle regole, è possibile, almeno a livello
teorico, che una macchina di Turing riesca ad elaborare il linguaggio.
Il test consiste nel far comunicare un soggetto con una macchina ed un
altro individuo. Lo scopo è quello di valutare se il soggetto è in grado di
identificare quale dei due interlocutori è il computer. Per evitare che la scelta
venga influenzata dalla calligrafia o dal tono della voce, i dialoghi vengono
mediati da una macchina da scrivere (non è importante, per Turing, che il
computer sia in grado di imitare anche la capacità verbale dell’uomo, per
definirlo intelligente).
Il soggetto fa delle domande e il computer risponde in modo da indurre
l’interrogatore a credere di avere a che fare con l’essere umano. Quest’ultimo, da
parte sua, cerca di far capire la sua natura di uomo.
Per passare un test di questo tipo è necessario che il computer abbia una
buona idea di quello che caratterizza l’essere umano, ma anche che sia in grado
di riprodurre bene queste capacità, ingannando un altro uomo. Ad esempio, se le
venisse chiesto di risolvere un calcolo matematico complesso, la macchina
10
dovrebbe aspettare un po’ prima di rispondere, simulando il comportamento
umano.
Per programmare una macchina in grado di fare ciò si deve immaginare un
essere umano in termini di stati interni, segnali di ingresso (input) e di uscita
(output). In quest’ottica si può dire che gli stati interni, l’input e l’output, sono
concatenazioni di simboli. Gli stati interni sono gli insiemi di proposizioni che
esprimono le conoscenze possedute dall'essere umano, i segnali di ingresso sono
le domande rivolte dall'interlocutore e i segnali di uscita sono le eventuali
risposte date dall'essere umano in base alle sue conoscenze.
Partendo da questi presupposti teorici, negli anni ’50 e ’60 vennero
progettate innumerevoli applicazioni, nel tentativo di riprodurre le capacità di
manipolazione simbolica dell’uomo.
I primi programmi di intelligenza artificiale vennero studiati in funzione
dell’esecuzione di ragionamenti di tipo logico. La risoluzione di problemi
(problem solving) sembrava un’ambito nel quale l’intelligenza venisse messa a
dura prova. Inizialmente non ci si rese conto di quanto, in realtà, i calcolatori
fossero strutturalmente predisposti a questo tipo di ragionamenti. L’uomo, pur
trovando qualche difficoltà nell’elaborare soluzioni logico-matematiche,
dimostra la sua intelligenza in ben altre caratteristiche, come la creatività o la
capacità inferenziale.
Tuttavia, sullo slancio dei primi successi ottenuti con programmi che
risolvevano giochi basati sulla logica o dimostravano teoremi, si iniziò a studiare
come progettare un sistema in grado di dimostrare capacità di risoluzione di
problemi di carattere generale, basandosi sugli stessi principi di manipolazione
simbolica secondo regole. In quest’ottica venne progettato il famoso General
Problem Solver (GPS) da parte di Newell e Simon (1963).
Questo programma era in grado di risolvere una grande varietà di
situazioni, dimostrò teoremi, giocò brillantemente a scacchi e risolse anche
problemi di criptoaritmetica. Il GPS utilizzava un metodo definito analisi mezzi-
fini, secondo il quale il programma analizza prima lo stato iniziale e lo stato
finale. Poi calcola la distanza tra i due punti, riferendosi ad una tabella
contenente operazioni di diverso genere che per ogni obiettivo forniscono una
11
lista di azioni possibili da svolgere. Per ciascun obiettivo la macchina sceglie
un'alternativa piuttosto che un'altra in base alla distanza che divide i due termini
inoltre se l'operazione scelta non produce l'effetto desiderato, il programma tende
a diminuire lo spazio richiesto dal problema eseguendo una seconda operazione.
Infine, una volta prossimo alla meta richiesta cerca un'azione in grado di coprire
lo spazio mancante e continua fino al raggiungimento della stato finale.
L’idea di fondo di Newell e Simon era che l’uomo utilizzasse questo tipo
di tecnica di manipolazione simbolica per risolvere ogni tipo di problema, infatti,
il GPS fu realizzato proprio sulla base di resoconti di soggetti impegnati in
attività di problem solving. In quegli anni, gli studiosi di Intelligenza Artificiale
erano convinti che l'equivalenza funzionale tra cervello e computer non
implicasse un'equivalenza strutturale a livello anatomico, cioè credevano che
l’intelligenza consistesse nei processi di informazione che intervenivano nella
soluzione dei problemi, senza preoccuparsi dei processi neurologici che avevano
luogo realmente nell’uomo. In questo senso era anche poco importante che il
computer funzionasse esattamente come l’uomo perché, dal momento che i
risultati ottenuti nella risoluzione di problemi erano uguali, si poteva dire che la
macchina dimostrava intelligenza.
I programmi di questa prima fase dell’Intelligenza Artificiale (definita
Classica) avevano capacità circoscritte, sapevano cioè risolvere solo problemi
definiti in partenza, diversamente dall'uomo che è in grado di lavorare su
problemi sempre più complessi e dinamici. Inoltre, GPS e gli altri programmi di
quel periodo non erano in grado di apprendere, non potevano cioè dotarsi da soli
dei mezzi necessari per risolvere i diversi problemi.
In seguito alle difficoltà incontrate nel tentativo di progettare un modello
in grado di utilizzare tecniche di ragionamento generali applicabili a molti tipi di
problemi, l’Intelligenza Artificiale ebbe un periodo di stasi. Negli anni ’70 le
critiche ai fondamenti di queste teorie furono molte (ad esempio si veda Dreyfus,
1972) ed ebbero come conseguenza un ridimensionamento degli obiettivi delle
sperimentazioni.
Invece di cercare un modello generale di ragionamento, ci si concentrò
sull’intelligente elaborazione di informazioni in un ambito ristretto. L’idea era
12
quella di capire le dinamiche necessarie per ottenere comportamenti intelligenti
in campi circoscritti, al fine di comprendere come realizzare modelli generali.
I programmi di questo tipo vengono chiamati Sistemi Esperti e furono
molto studiati negli anni ’70 e ’80. I successi di queste nuove macchine
intelligenti diedero nuova vita agli studi sull’Intelligenza Artificiale, consentendo
lo sviluppo di tecniche di elaborazione ed apprendimento molto efficienti che
analizzeremo più avanti.
Nonostante le numerose prospettive applicative dei Sistemi Esperti, le
critiche nei confronti di questi modelli furono comunque molte. Quello che non
convinceva era la limitata capacità di ragionamento che, a parte il ristretto campo
delle conoscenze, non sembrava dimostrare una vera e propria comprensione dei
simboli trattati.
Questo tipo di critica si può sintetizzare molto bene con il cosiddetto
«paradosso della stanza cinese», esposto da Searle nel 1980 (vedere Searle,
1988). Per capire questo paradosso si deve immaginare che un soggetto venga
chiuso all’interno di una stanza. L’unico contatto che egli ha con l’esterno
avviene attraverso una feritoia, dalla quale gli viene recapitato un pacco di fogli
scritti in cinese (lingua che lui non conosce). Successivamente riceve un altro
pacco di fogli in cinese e uno con una serie di istruzioni scritte nella sua lingua,
che gli permettono di mettere in relazione gli altri due pacchi e produrre come
risposta una serie di altri simboli cinesi. Supponiamo che, a sua insaputa, gli
individui all’esterno chiamino «storia» il primo pacco, «domande» il secondo,
«programma» le istruzioni e che reputino delle «risposte» alle domande i simboli
disegnati dal soggetto.
Dopo un po’ di pratica, le risposte date dal soggetto diventano così precise
che non sono distinguibili da quelle che darebbe un vero cinese. Allo stesso
modo gli viene presentata una storia scritta nella sua lingua e delle domande sul
testo. Il soggetto, senza utilizzare istruzioni, risponde anche a queste domande.
A questo punto, un osservatore esterno sarebbe portato a dire che
all’interno della stanza vi è qualcuno (o qualcosa) che comprende sia il cinese
che l’altra lingua. Però, conoscendo la dinamica dell’esperimento, sembra chiaro
che il soggetto non conosce realmente il cinese. È evidente che abbia una
13
comprensione semantica della sua lingua, ma per quanto riguarda il cinese si
limita a manipolarne i simboli seguendo delle regole, senza capirne il vero
significato.
Fuor di metafora, questo paradosso mette in evidenza la questione di
quanto possa essere definita simile a quella umana, un’intelligenza che si limita a
manipolare dei simboli seguendo un programma di istruzioni formali.
Le risposte degli studiosi di Intelligenza Artificiale a questa critica furono
molte. L’obiezione principale chiariva il fatto che non era il programma ad essere
intelligente, ma l’intero sistema. L’intelligenza del comportamento non deve
essere attribuita ad una sola componente, ma dipende dalla cooperazione tra le
parti. In quest’ottica, il sistema capisce il cinese in quanto risponde in modo
corretto agli input, dando gli stessi risultati di un uomo che comprende questa
lingua.
Le critiche di quegli anni, però, favorirono lo sviluppo di un nuovo
paradigma all’interno dell’Intelligenza Artificiale. In contrapposizione ai modelli
che manipolano simboli, prese piede un’altra teoria che presuppone un
elaborazione delle informazioni (ed una comprensione di esse) di tipo sub-
simbolico.
Con questi nuovi modelli, ci si prefiggeva di simulare anche il
funzionamento del cervello a livello fisico, reputando fondamentale, per lo
sviluppo di ragionamenti intelligenti, l’influenza del modo nel quale gli stimoli si
propagano nel sistema nervoso. Imitando la struttura del cervello, questi sistemi
sono organizzati in reti formate da unità (neuroni) che si trasmettono
informazione attraverso delle connessioni (assoni e sinapsi).
Il punto chiave di questo paradigma è il fatto che ogni singola unità
trasmette l’informazione senza sapere nulla dell’elaborazione globale né,
tantomeno, del risultato finale. In questo modo l’elaborazione avviene secondo
regole sub-simboliche (che non significano nulla prese singolarmente) anziché
regole simboliche formali.
Come vedremo nei prossimi capitoli, dagli anni ’80 in poi, i modelli sub-
simbolici ottennero risultati molto incoraggianti, anche grazie alla scoperta di un
efficace e versatile algoritmo che consentiva alle reti neurali artificiali di
14
apprendere nuove regole sub-simboliche. Quello che rende interessante questo
paradigma è la grande capacità di generalizzazione che dimostrano i modelli
nella fase di apprendimento. Per usare le parole degli studiosi che appoggiano
queste teorie: le regole sub-simboliche emergono dalla struttura senza che vi sia
una rappresentazione esplicita delle conoscenze.
In risposta ai successi dei modelli sub-simbolici, vennero elaborate nuove
teorie per la costruzione di modelli di manipolazione simbolica più efficienti,
come le reti semantiche e i frames. Gli ottimi risultati ottenuti da queste strutture
hanno reso ancora più interessante il dibattito sui due paradigmi, coinvolgendo
studiosi dei campi più disparati.
Concludendo possiamo aggiungere che, negli ultimi anni, l’Intelligenza
Artificiale sta vivendo un momento di notevole sviluppo. Probabilmente, questo
fatto è dovuto ad un migliore delineamento delle possibilità e dei campi di
applicazione dei vari tipi di modelli, ma anche alla cooperazione di studiosi con
formazioni diverse, al fine di trovare nuove basi teoriche sulle quali appoggiarsi.
Il presente studio si propone di fare il punto, al momento attuale,
dell’evolversi di questa affascinante contrapposizione teorica, nel tentativo di
delineare i contributi apportati dal paradigma simbolico e da quello sub-
simbolico per la realizzazione di un sistema di intelligenza artificiale e per la
comprensione della mente in generale.