4
Ma la grande intuizione di Turing fu la realizzazione di
una TM universale (UTM), in grado di simulare il
funzionamento di qualsiasi altra TM la cui descrizione
venga inserita come input nella macchina universale.
L'UTM è il modello teorico di qualsiasi calcolatore
digitale, ed è in grado di calcolare tutto ciò che è
ritenuto calcolabile secondo la tesi di Church-Turing. La
sua caratteristica fondamentale è la possibilità di
essere programmabile.
Turing si dimostrò fiducioso circa le prestazioni delle
sue macchine calcolatrici, e si disse sicuro che entro 50
anni esse sarebbero state in grado di giocare al suo
gioco dell'imitazione, vincendo con una percentuale pari
circa al 70% delle partite giocate. L'entusiasmo di
Turing è stato più volte tradotto come un'assunzione
estremista della tesi di Church secondo la quale ogni
attività linguistico-cognitiva è calcolabile da una UTM
*
.
Quando Turing cominciò a lavorare alle sue TM, nel mondo
anglosassone (dove viveva) il modello dominante per lo
studio della mente era quello del comportamentismo, egli
però sembrò aderire a quella che fu chiamata la filosofia
funzionalista della mente. Secondo il funzionalismo i
criteri per l'identificazione degli stati mentali vanno
individuati in base alle relazioni funzionali fra gli
stati stessi. Gli stati mentali interni non vengono
identificati con stati descrivibili a livello
neurofisiologico, ma definiti solo dal punto di vista
funzionale, sulla base delle loro relazioni con gli input
provenienti dall'esterno e gli output emessi dall'interno
del sistema.
*
Vedi FRIXIONE M. (1992).
5
Le UTM sono di fatto un modello di questa teoria della
mente; da qui il parallelo mente-cervello, software-
hardware.
Dalla speculazione filosofica si passò ben presto, a
cavallo tra gli anni quaranta e cinquanta del ventesimo
secolo, alla volontà di realizzare effettivamente
programmi per computer che simulassero l'attività mentale
umana.
Nacque una nuova disciplina, denominata Intelligenza
Artificiale (AI), di cui si occupa il secondo capitolo
del presente lavoro, dove vengono analizzati
principalmente i programmi proposti da Newell e Simon.
Il capitolo pone l'accento soprattutto su questi primi
programmi considerati intelligenti e sulle euristiche da
essi utilizzate per la risoluzione dei problemi e per il
raggiungimento della meta prefissata. L'AI è solitamente
annoverata all'interno di quello che è in uso chiamare
l'approcio simbolico allo studio della mente.
L'approcio simbolico consiste nel rappresentare,
utilizzando un opportuno linguaggio formale, in una base
di conoscenza tutto quello che un agente conosce sul
mondo e da questa base trarre le conclusioni necessarie
per far agire l’agente in modo «intelligente». I
meccanismi inferenziali permettono di rendere esplicita
anche quella conoscenza che nella base non è
esplicitamente rappresentata, simulando ragionamenti del
tipo del classico sillogismo. Questo tipo di
rappresentazione e uso della conoscenza ricorda molto da
vicino le teorie assiomatiche in matematica: la
conoscenza su un dato pezzo di mondo viene rappresentata
in forma di assiomi da cui si traggono le conclusioni, i
teoremi.
6
La rappresentazione della conoscenza in AI si avvicina
molto alla logica matematica, ma al tempo stesso ne
differisce parecchio: mentre, infatti, in matematica la
conoscenza è di tipo statico, in AI si vuole
rappresentare una realtà che cambia dinamicamente, in cui
le proprietà possono passare dal vero al falso,
semplicemente perché è cambiato il mondo di riferimento o
sono state eseguite azioni che hanno falsificato cose che
prima erano vere (o viceversa).
Questo tipo di approccio logico-lingustico pone l'accento
su certi tipi di fenomeni cognitivi di alto livello, gli
aspetti di basso livello, come la percezione e l'azione
motoria, sono difficili da riprodurre, e vengono perciò
esclusi dal discorso simbolico.
A partire dalla seconda metà del secolo scorso,
attraverso l’introduzione di reti di unità logiche
elementari, le semplificazioni del neurone biologico
proposte da McCulloch e Pitts, si è tentato di realizzare
artefatti intelligenti aggirando l’ostacolo rappresentato
dalla necessità che un programmatore umano ne dovesse
stabilire a priori il comportamento, pianificandolo nella
stesura dei suoi programmi. L’architettura parallela
delle reti neurali artificiali si fonda su un grande
numero di unità elementari connesse tra loro, su cui si
distribuisce l’apprendimento. Esse hanno la capacità di
apprendere da esempi senza alcun bisogno di un meccanismo
che ne determini a priori il comportamento.
Il neurone di McCulloch e Pitts è in sostanza un’unità
logica in grado di fornire un’uscita binaria (zero oppure
uno) in base al risultato di un semplice calcolo
effettuato sui valori assunti dai dati che si trovano sui
suoi canali d’ingresso, ad ognuno dei quali viene
assegnato un valore numerico, o peso. L’analogia con il
7
neurone biologico è evidente, così come l’estrema
semplificazione rispetto ai reali processi che avvengono
a livello cerebrale nelle cellule neurali.
Questo secondo approccio è denominato sub-simbolico. Di
fatto i due approcci, simbolico e sub-simbolico, hanno
ottenuto risultati in campi sostanzialmente differenti
della simulazione dei processi cognitivi umani
†
, <<la
ricerca sulle reti neurali ha dato il meglio di sé nella
simulazione dei processi percettivi, certo non di quelli
inferenziali, che rispetto ai primi, restano tutt'ora il
dominio privilegiato dell'AI tradizionale>>.
‡
Il lavoro di McCulloch e Pitts, insieme a quello di Craik
e a quello di Rosenblueth, Wiener e Bigelow (tutti
risalenti al 1943) viene considerato il manifesto che
diede origine alla Cibernetica, a cui è dedicato il terzo
capitolo. La Cibernetica è stata definita da Norbert
Wiener (colui che ne coniò il termine e che ne viene
considerato il padre fondatore) come la scienza del
controllo e della comunicazione. La teoria della
Cibernetica si inseriva in ambito comportamentistico e
mirava a fornire un metodo che consentisse lo studio sia
degli organismi che dei servomeccanismi sotto il
paradigma della retroazione negativa. Dal punto di vista
cibernetico un oggetto non può mai essere studiato da
solo, esiliato dall'ambiente circostante. Ambiente e
oggetto fanno parte di un unico sistema e mantengono tra
di loro un rapporto dinamico grazie ad un continuo
scambio di informazioni.
†
CORDESCHI R. (1996), p. 194, riassume in una tabella i successi e
gli insuccessi dei due approcci nella valutazione di Michael Dyer
pubblicata in J.A. Barnden, J.B. Pollack (a cura di), High-level
connectionism models, Norwood (N.J.) 1991
‡
CORDESCHI R. (1994), p. 61
8
L'ultimo capitolo, destinato all'intenzionalità, riguarda
la rinascita del concetto avvenuta dopo il contributo di
Brentano, sino al suo «utilizzo» nella spiegazione e
nella previsione del comportamento dei calcolatori
digitali. Accanto ad essa è trattato il percorso che, dal
lavoro dei fisiologi dell'inizio del secolo scorso sino
all'avvento dei primi cibernetici, ha portato alla
revisione dei concetti di teleologia e di scopo. Tramite
l'ausilio della retroazione, infatti, si potè risolvere
il cavilloso paradosso della causazione all'indietro che
aveva relegato, sino a quel momento, la teleologia
all'ambito strettamente metafisico.
La cibernetica volle studiare i servomeccanismi e gli
organismi dal medesimo punto di vista esterno
analizzandone il comportamento rivolto verso uno scopo.
L'AI annoverò tra i primi programmi intelligenti proprio
quelli in grado di raggiungere il proprio scopo, tramite
l'ausilio di euristiche che suggeriscono all'osservatore
un comportamento razionale da parte dei calcolatori.
9
CAPITOLO 1
DALLA COMPUTABILITA' ALL'INTELLIGENZA MECCANICA.
1. Computabilità.
1.1. I fondamenti della matematica.
Leibniz fu tra i primi ad immaginare che tutto il
ragionamento potesse essere ridotto a calcolo.
Per tutta la vita si occupò della creazione di una
caratteristica universale in cui ogni simbolo
rappresentava un’idea precisa. Il sogno di Leibniz era
una compilazione enciclopedica di tutto il sapere tramite
l’utilizzo di simboli e di regole di calcolo che
avrebbero reso ogni discussione risolvibile tramite il
computo della soluzione. E questi conteggi dovevano
essere sbrigati da macchine create apposta per farli.
Charles Babbage mostrò come di fatto questo sogno potesse
essere realizzato tramite la sola combinazione e
iterazione
1
di operazioni semplici.
L’importanza del processo di iterazione nella creazione
dei numeri naturali e dei calcoli che con essi si possono
fare fu identificata da Dedekind, egli, come l’amico
Cantor, e Weierstraβ, fu tra i primi ad occuparsi dei
fondamenti della matematica; tutti e tre cercarono di
assicurare al passaggio al limite del calcolo
infinitesimale una base salda e rigorosa. Il loro lavoro
fu “ostacolato” da Leopold Kronecker, che non riconosceva
1
L'iterazione è una struttura di controllo che ordina
all'elaboratore di eseguire una sequenza in maniera ciclica,
solitamente non perpetua, fino al verificarsi di particolari
condizioni.
10
nessun valore a quegli sforzi esigendo che le
dimostrazioni di esistenza avessero un carattere
costruttivo. La stessa dimostrazione fornita da David
Hilbert dell’esistenza degli invarianti algebrici fu da
lui respinta perchè costruita per assurdo (ma in seguito
Hilbert ne fornì anche una dimostrazione costruttiva). Ad
ogni modo la “disputa” con Kronecker portò Hilbert a dare
una nuova definizione dell’esistenza degli oggetti
matematici: per dimostrare tale esistenza bastava
dimostrare la loro non-contradditorietà all’interno del
sistema.
Nel diciannovesimo secolo divenne chiara l’importanza di
un sistema assiomatico. In una qualsiasi branca della
matematica gli oggetti sono veri, non perché la verità
faccia parte della loro natura, ma grazie agli assiomi
che sono stati forniti arbitrariamente al sistema. Il
concetto di verità non può giustificare un sistema
assiomatico. Ci si domandò se e cos’altro potesse farlo.
Secondo Hilbert un sistema assiomatico è giustificato se
è consistente; gli assiomi della geometria sono
giustificati da quelli dei numeri reali. Ma ai numeri
reali e naturali questo metodo ovviamente non poteva
essere applicato.
Nel 1898 Hilbert, docente di matematica a Göttingen,
tenne un corso intitolato Elementi di geometria. Secondo
Martin Davis, questo <<era il primo segno del profondo
interesse di Hilbert per i fondamenti della
matematica>>
2
. In questa sede riuscì a dimostrare
logicamente, cioè senza far ricorso alle specifiche
caratteristiche fisiche di ogni figura, che i teoremi
della geometria euclidea seguono necessariamente dagli
assiomi, senza che ci sia alcuna contraddizione.
2
DAVIS M. (2003), p. 116.
11
Ricondusse così la consistenza del sistema geometrico a
quella del sistema matematico; un’eventuale incoerenza,
due assiomi che si contraddicono, avrebbe significato che
era la matematica ad essere incoerente.
Al Congresso Internazionale di Parigi, del 1900, Hilbert
propose 23 problemi matematici
3
insoluti, lanciando una
3
I Problemi di Hilbert sono una lista di 23 problemi matematici
stilata nella conferenza del Congresso Internazionale dei Matematici
svoltasi a Parigi nell'anno 1900. I problemi vennero presentati
l'otto agosto. Al tempo i problemi erano tutti irrisolti, e molti di
essi hanno avuto una notevole portata nella matematica del ventesimo
secolo. A questa conferenza in realtà Hilbert presentò soltanto 10
di questi problemi (1, 2, 6, 7, 8, 13, 16, 19, 21, e 22) e la lista
completa venne pubblicata successivamente.
1
non esiste un
consenso
L' ipotesi del continuo e il fatto che l'insieme
dei numeri reali sia ben ordinato.
2 risolto
L'insieme degli assiomi dell'aritmetica è
consistente?
3 risolto
Si può provare che due tetraedri di uguale base e
altezza abbiano uguale volume?
4 aperto
Costruire tutte le metriche in cui le rette sono
geodetiche.
5
risolto
parzialmente
Tutti i gruppi continui sono automaticamente
gruppi differenziali?
6 aperto Assiomatizzare tutta la fisica.
7
risolto
parzialmente
Dati a ≠ 0,1 algebrico e b irrazionale, il numero
a b è sempre trascendente?
8 aperto Dimostrare l'ipotesi di Riemann
9 risolto
Generalizzare la legge di reciprocità in un
qualunque campo numerico algebrico
10 risolto
Determinazione delle soluzioni generali di un'
equazione diofantea
11 risolto
Estensione dei risultati delle forme quadratiche
nel caso di coefficiente algebrico
12 risolto
Estendere il Teorema di Kronecker sui campi
abeliani a campi algebrici arbitrari
13 risolto
Soluzione dell'equazione generale di settimo
grado utilizzando funzioni con due soli argomenti
14 risolto
Dimostrazione della finitezza di alcuni sistemi
completi di funzioni
15 risolto
Fondazione rigorosa del calcolo enumerativo di
Schubert
16 aperto Topologia delle curve e superfici algebriche
17 risolto
Espressione di funzioni razionali definite come
quoziente di somma di quadrati
12
sfida alla comunità matematica
4
e auspicandosi che essi
venissero risolti entro la fine del secolo. Il secondo
problema riguarda la dimostrazione della coerenza degli
assiomi dell'aritmetica dei numeri reali, l'ultimo
sistema di assiomi a cui tutti gli altri (come la
geometria euclidea…) fanno riferimento per dimostrare la
propria non-contraddittorietà.
Nel 1904 ebbe luogo il congresso successivo. Ma nel 1902
Russell rese noto il suo famoso paradosso: scrisse una
lettera a Frege dicendo di aver apprezzato molto il suo
lavoro, ma che c’era un punto in cui aveva trovato uno
scoglio. Il lavoro di Gottlob Frege avrebbe dovuto
rifondare tutta la matematica su basi logiche, questo
atteggiamento, condiviso anche da Russell, prese il nome
di logicismo (<<Church lo definisce così: la posizione
che assimila la relazione tra logica e matematica a
quella tra la parte elementare e la parte avanzata di una
stessa disciplina>>
5
). La lettera di Russell dimostrò che
il sistema fregiano era di fatto incoerente,
autocontraddittorio: se chiamiamo straordinario un
insieme che è parte di se stesso e ordinario un insieme
18 risolto
Esiste un poliedro non-regolare e space-filling?
Qual è il più denso impacchettamento di sfere?
19 risolto
Le soluzioni dei Lagrangiani sono sempre
analitiche?
20 risolto
Tutti i problemi variazionali con determinate
condizioni al contorno hanno soluzione?
21 risolto
Dimostrazione dell'esistenza di equazioni
differenziali lineari aventi un prescritto gruppo
monodromico
22 risolto
Uniformazione delle relazioni analitiche per
mezzo di funzioni automorfiche
23 risolto Sviluppo ulteriore del calcolo delle variazioni
www.wikipedia.com (vedi anche www.mathacademy.com)
4
Il testo completo della relazione di Hilbert è riportato in Bro-
wder F. (a cura di), Mathematical Developments Arising from Hilber-
t's Problems, in "Proocedings of Symposia of Pure Mathematics", vol.
XXVIII, American Mathematical Society, Providence, 1976.
5
DAVIS M. (2003), p. 77.
13
non ne fa parte, allora è lecito domandarsi se l’insieme
Φ di tutti gli insiemi ordinari faccia o meno parte di se
stesso. I Fondamenti di Frege non possono rispondere a
questa domanda e cadono in contraddizione.
In realtà Bertrand Russell giunse alla scoperta del
paradosso esplorando le conseguenze dell’infinito di
Cantor <<così, secondo Hilbert, la contraddizione
derivante dall’ipotesi che esista un insieme formato da
tutti i numeri cardinali transfiniti di Cantor dimostrava
solo che un simile insieme non esiste>>
6
.
In molti pensarono che stesse avvenendo una vera e
propria crisi dei fondamenti della matematica. La
ricostruzione logica proposta da Frege non aveva avuto
esito positivo, e il secondo problema di Hilbert non era
stato ancora risolto.
Mentre Russell si prodigava a tentare di sistemare la
ricostruzione logica di Frege, Poincaré definiva inutile
il suo sforzo. Se tutta la matematica si fosse potuta
ricondurre alla logica allora <<possiamo immaginare una
macchina nella quale entrerebbero assiomi e uscirebbero
teoremi>>
7
.
Russell diede corpo, insieme a Whitehead, ai Principia
Mathematica, riscrivendo la matematica con il linguaggio
della logica; in questo progetto non si occupò del
secondo problema di Hilbert.
Dagli anni venti del secolo scorso Hilbert, insieme con
Bernais, Ackermann e Von Neumann cominciò a lavorare
seriamente al problema.
6
Ibidem , p. 118.
7
POINCARE' H. (1997): H. Poincaré, Scienza e Metodo, Torino, Ei-
naudi, 1997; (Science et méthode, Paris, Flammarion, 1908). Una mac-
china del genere non si può soltanto immaginare ma è stata co-
struita. La prima è il Logic Theorist di Newell, Shaw e Simon, che
dimostra i teoremi dei Principia Mathematica di Russell e Whitehead.
14
Abbandonò l’approcio logicista definendolo irrealizzabile
e costruì un nuovo linguaggio formale che avrebbe unito
logica e matematica, in questo modo iniziò a lavorare al
suo progetto di metamatematica o teoria della
dimostrazione, che avrebbe dovuto giustificare la
matematica stessa utilizzando il metodo finitista voluto
da Kronecher (le operazioni nella prova formale dovevano
essere ricorsive e le relazioni tra le prove dovevano
essere decidibili). Kronecher era deceduto da tempo ma la
sua critica serrata continuava tramite Brouwer e Weyl
(uno dei migliori allievi di Hilbert!).
15
1.2. L'Entscheidungsproblem.
Nel 1928 Hilbert e Ackermann pubblicarono un manualetto
di logica in cui posero due problemi: quello della
completezza della ideologia di Frege e il famoso
Entscheidungsproblem, o problema della decisione: data
una formula della logica del prim’ordine esiste un metodo
che in un numero finito di passi –un algoritmo- decida
sempre se la formula è valida o no?
Sicuramente Hilbert e il suo gruppo credevano che
l’Entscheidungsproblem fosse risolvibile, e che
risolvendo quello anche molti altri problemi matematici
avrebbero trovato una spiegazione. Per dimostrarlo, però,
era necessario delimitare l’insieme delle funzioni
effettivamente calcolabili. A questo lavorava Kurt Gödel
quando scoprì i suoi teoremi di incompletezza, e questo è
quello che c’era nell’aria quando Turing, Church, Post, e
altri giunsero alle loro definizioni equivalenti di che
cosa è calcolabile.
Nel 1926 Gödel venne invitato a partecipare alle riunioni
del Circolo di Vienna; sembrava che ormai Von Neumann e
Ackermann fossero vicinissimi alla dimostrazione della
coerenza dell’aritmetica di Peano, lo stesso voleva
ottenere Gödel quando pensò all’utilità di studiare anche
la metamatematica all’interno di un sistema formale. In
questo modo scoprì l’esistenza di proposizioni di cui si
poteva vedere che erano vere all’esterno del sistema ma
al cui interno erano indimostrabili. Inizialmente in
pochi compreso la portata della scoperta. Solo Von
Neumann si rese conto che in quel modo era stata
decretata la fine del programma di Hilbert: il secondo
problema del 1900 aveva trovato una soluzione, ma non
quella prevista.
16
Le scoperte di Gödel confluirono nei suoi due teoremi di
incompletezza (1931) secondo cui ogni teoria informale è
o incompleta o incoerente.
Nel 1920 Post sviluppò una teoria dei sistemi formali e
dimostrò che essi avevano un problema della decisione
irrisolvibile. Il suo lavoro fu pubblicato nel 1936.
Nel 1932 Church propose un sistema logico-matematico che
avrebbe dovuto soddisfare la caratteristica di
consistenza, e servire a fondamento d’ogni altro sistema
matematico. Il sistema di Church assomigliava a quello di
Frege nel voler garantire l’esistenza degli oggetti
matematici non tramite i postulati d’esistenza ma tramite
delle regole per la formazione dei termini; la funzione
8
è la nozione fondamentale di questo sistema, che Church
tentò di rendere esente da contraddizioni accettando la
possibilità che alcuni termini fossero privi di
significato. Nel 1934, l'inconsistenza del sistema venne
provata dai suoi allievi Kleene e Rosser, e dal paradosso
di Richard
9
.
8
<<From any term M one can form the funtional abstract λxM, provi-
ded the x occurs in M; and one can apply any term M (considered as a
function) to any term N. Thus there is no distinction between fun-
ctions and objects.>> GANDY: R. Gandy, The Confluence of Ideas in
1936, p.70.
9
Il paradosso di Richard è stato proposto dal matematico francese
Jules Antoine Richard nel 1905. Esso può essere illustrato nei se-
guenti termini. Prendiamo in considerazione un vocabolario costi-
tuito da un numero esteso (ma ovviamente finito) di parole e di se-
gni. Fissiamo poi l'attenzione su quelle frasi, formate da elementi
del nostro vocabolario, che definiscono in maniera univoca specifici
numeri reali. Esempi di frasi di questo tipo sono "il numero il cui
quadrato è due" (composta da 7 parole); "il numero dato dal rapporto
tra la lunghezza della circonferenza e quella del diametro del mede-
simo cerchio" (composta da 17 tra parole). Sia R
n
l'insieme – ovvia-
mente finito - dei numeri reali definibili con n parole e segni del
nostro vocabolario. Consideriamo ora l'insieme R dato dall'unione di
tutti gli insiemi R
n
(con n = 3,4,5, …): R è ovviamente numerabile e
possiamo ordinare i suoi elementi nella successione r
1
, r
2
, r
3
, …. R
rappresenta dunque l'insieme di tutti e soli quei numeri reali defi-
nibili con un numero finito di elementi del nostro vocabolario. Con-
sideriamo ora il numero r (possiamo battezzarlo numero di Richard)
definito nel modo seguente: il numero la cui parte intera è zero,
17
Church tentò di ovviare all'inconsistenza abbozzando una
gerarchia di operatori di implicazione formale;
l'attenzione degli studi a Princeton si era così spostata
dai sistemi logici al lambda calcolo
10
. Nel contesto di
questo tentativo Church introdusse il termine intuitively
definable function; pur non definendo esattamente che
cosa intendesse, intuitivamente sembra che da questa
definizione egli volesse escludere le funzioni che
possono essere calcolate soltanto tramite unsolved
number-theoretic problems.
mentre (per ogni i) il suo i-esimo decimale è ottenuto aumentando di
uno l'i-esimo decimale del numero r
i
appartenente ad R (con l'avver-
tenza che se tale decimale fosse 9 lo si sostituisce con zero). Da
un lato, possiamo constatare dalla frase sopra riportata che r è un
numero reale definibile con una quantità finita di parole o segni
del nostro vocabolario -e quindi deve essere incluso in R-; dall'al-
tro, esso (per il modo in cui è costruito) è diverso da tutti i nu-
meri reali contenuti in R e quindi non vi risulta incluso. Di qui il
paradosso. Si sarà notato come la costruzione di r faccia uso della
procedura diagonale utilizzata da Cantor per dimostrare la non
numerabilità dei numeri reali. Il paradosso di Richard – come quello
di Berry e di Zermelo-König - fa parte dei così detti paradossi
semantici. Il suo interesse nell'ambito dello studio dei fondamenti
logici della matematica sta nell'aver, in qualche modo, aperto la
strada alla prova di incompletazza di Gödel.
10
Il Lambda Calcolo è un sistema di riscrittura definito formalmente
da Alonzo Church. E’ stato sviluppato per analizzare formalmente le
definizioni di funzioni, le loro applicazioni e la ricorsione. In
quanto sistema di riscrittura, è costituito da una descrizione dei
termini ben formati, sequenze di caratteri riconosciute dal sistema
e in grado di essere riscritti, al quale va affiancato un insieme di
regole di riscrittura che determinano il modo in cui i termini
stessi possono essere riscritti. In questo modo, il processo di
riscrittura diventa un vero e proprio calcolo.
Esso affonda le proprie radici nel concetto di funzione. In matema-
tica si definiscono funzioni particolari associazioni fra gli ele-
menti di un insieme (dominio) e gli elementi di un altro insieme
(codominio).
Se una funzione è definita su ogni elemento del dominio, essa è
detta totale; in caso contrario, diremo che si tratta di una fun-
zione parziale.
La notazione insiemistica non fornisce informazioni a proposito di
come effettivamente si possa passare dagli argomenti ricevuti al ri-
sultato. In altre parole, non si descrive come calcolare l'output
della funzione stessa, a partire dai suoi input. Il lambda calcolo,
come la Teoria delle Funzioni Ricorsive e le macchine di Turing, è
un formalismo che consente di definire funzioni specificando come
vengono calcolate.