4
Def. 7: Una funzione che associa ad ogni elemento del dominio un valore tratto
dall’insieme { 0, 1} si chiama funzione caratteristica: scriveremo fB (x): A! 0 se
x∈ A non appartiene a B, fB (x): A! 1 se x∈ A appartiene a B, dove B è un
insieme precedentemente specificato.
Per quanto abbiamo considerato solo funzioni monoargomentali, non ci sono
limiti al numero di argomenti che la funzione può assumere: scriveremo f
n
(x1,….,xn)=y per una funzione di n argomenti (n-aria) tratti dall’insieme di n-uple
ordinate <x1,….,xn >∈ X
n
.
1.2 Funzioni calcolabili (ricorsive primitive)
Vogliamo definire ora una classe che comprenda tutte e sole le funzioni
calcolabili. Seguiremo a tale scopo Post, il quale si serve di una definizione
ricorsiva.
Una definizione è detta ricorsiva quando ciò che è da definirsi viene definito
facendo ricorso a istanze più elementari dello stesso problema
Tale metodo consiste nel fissare un insieme di funzioni iniziali immediatamente
calcolabili quale base della procedura di definizione, nell’indicare alcune regole
per derivare altre funzioni ricorsive da quelle date in partenza (regole che
ovviamente preservino la calcolabilità sulle derivate), e nell’escludere dalla classe
delle funzioni ricorsive quelle funzioni che non siano le iniziali o da queste
derivabili.
Si assumono come funzioni iniziali:
1) la funzione successore (S) tale che S(x) = x+1;
2) la funzione costante, tale che f
n
(x1,…..,xn)=m per qualche m fisso;
3) la funzione identità, tale che Ii
n
(x1,…,xi,….,xn)=xi ;
le quali spaziano tutte sui numeri naturali.
Tra le regole per produrre nuove funzioni sono:
1) la regola di sostituzione, che permette di ottenere una funzione f di n argomenti
data una funzione h di m argomenti e g1,…., gm funzioni di n argomenti, ovvero
f(x1,…..,xn)=h(g1(x1,…..,xn),….., gm (x1,…..,xn)), il valore di f(x1,…..,xn) sarà
calcolato in base al valore assunto da h per gli y1,….,ym valori di g1,…., gm.
2) lo schema di ricorsione primitiva che consiste nel definire una funzione di n+1
argomenti che soddisfi le equazioni:
5
a) f(x1,…..,xn,0)= gm (x1,…..,xn)
b) f(x1,…..,xn,y+1)=h(x1,…..,xn, y, f(x1,…..,xn,y)).
Post chiama la classe di funzioni ottenibili a partire dalle iniziali per applicazione
anche reiterata delle regole 1) e 2) la classe delle funzioni ricorsive primitive.
Dell’ulteriore operatore µ , che estende la classe delle funzioni ricorsive primitive
a quella delle funzioni ricorsive generali, che includono funzioni quali quella di
Ackermann non derivabile secondo le sole regole 1) e 2), non ci occuperemo.
L’importanza di questa classe è dovuta al fatto che essa risulta essere coestensiva
con la classe delle funzioni calcolabili.
Da una parte, tutte le funzioni ricorsive sono calcolabili. Infatti abbiamo scelto
come funzioni iniziali delle funzioni immediatamente calcolabili, e le regole
preservano la calcolabilità sulle funzioni che ne derivano. La regola di
sostituzione ci permette di sostituire agli m argomenti di una funzione calcolabile
h, m funzioni, che, se a loro volta calcolabili, ci permettono di ottenere un’altra
funzione calcolabile f. Lo schema di ricorsione primitiva, che sembrerebbe
comportare un processo circolare, si esaurisce invece in un numero finito di passi,
in quanto il valore assunto dalla y che compare a sinistra del segno di
uguaglianza in b) viene reiterato diminuito ogni volta di un’unità ; in tal modo
decresce fino a zero, quando il valore della f(x1,…..,xn,y) viene sostituito da gm
(x1,…..,xn), che sarà calcolabile solo se sarà a sua volta elementare o derivata
secondo le regole dalle elementari.
Una definizione ricorsiva, in generale, sfrutta appunto lo schema di ricorsione
primitiva: l’enunciato in a) esprime una proposizione elementare; in b) viene
espressa una regola per ricondurre proposizioni complesse, non immediatamente
valutabili, alla a) di cui conosciamo inequivocabilmente il valore. Allo stesso
modo possiamo esprimere la regola in modo che produca enunciati complessi a
partire da quelli assunti come base; in tal modo operano le definizioni induttive.
Così possiamo interpretare la struttura di una definizione ricorsiva in analogia
con i sistemi assiomatici: la base costituisce l’assioma iniziale, e il passo
ricorsivo la regola per derivare da questo i teoremi del sistema
1
.
1 Cfr. Partee, Meulen & Wall 1990, p.185.
6
Come esempio (questo esempio contiene alcune semplificazioni inessenziali allo
scopo della trattazione che seguirà), vogliamo definire con questi strumenti la
funzione biargomentale Somma che applica N× N su N :
fissiamo come base della definizione 1) Somma(x, 0) =x;
e come passo ricorsivo 2)Somma(x, S(y)) = S(Somma(x, y)).
Istanziando le variabili x e y con 3 e 2 rispettivamente, possiamo effettuare il
calcolo in maniera meccanica
Somma(3, 2) = S(Somma(3, 1))
Somma(3, 1) = S( Somma(3, 0))
Somma(3, 0) = 3
S(3) =4
S(4) =5
Somma(3, 2) = 5 .
Sulla base di questa funzione possiamo poi definire Prodotto come:
1) Prodotto (x, 0)= 0;
2) Prodotto (x, S(y))= Somma(x, Prodotto(x, y)).
E così via fino ad ottenere tutte le funzioni ricorsive primitive.
Esauriscono tali funzioni la classe delle funzioni calcolabili? Cioè, le funzioni
ricorsive primitive sono tutte e sole le funzioni calcolabili? In effetti vi sono
funzioni che sono intuitivamente calcolabili, ma che non rientrano all’interno
della nostra caratterizzazione. Tale è il caso della sopraccennata funzione di
Ackermann, per definire la quale occorre un’ulteriore regola, costituita
dall’operazione µ .
La classe di funzioni così estesa è chiamata classe delle funzioni ricorsive generali
(d’ora in poi chiamate semplicemente “ricorsive”). Che tutte le funzioni ricorsive
siano calcolabili, è intuitivamente evidente per come le abbiamo definite. Che
esse esauriscano la classe delle funzioni calcolabili, e che quindi si prestino a
definire formalmente il concetto di calcolabilità, è la cosiddetta Tesi di Church,
cui dedicheremo più spazio dopo la caratterizzazione della computabilità
(calcolabilità) in termini di macchina di Turing.
7
1.3 Insiemi generati, ricorsivamente enumerabili e ricorsivi
Def. 8:Una funzione ricorsiva f(x), x∈ N (cioè, il cui dominio è costituito
dall’insieme degli interi positivi), i cui valori per ciascun n∈ N, costituiscono un
insieme S, enumera ricorsivamente l’insieme S.
La successione f(1), f(2), f(3)…costituisce una enumerazione ricorsiva di S. Se
esiste una funzione ricorsiva che enumera l’insieme S, questo si dice
effettivamente enumerabile.
Def. 9: un insieme si dice generato se c’è una funzione ricorsiva che lo enumera
effettivamente.
Ad esempio l’insieme dei quadrati è un insieme generato, in quanto v’è la
funzione ricorsiva f(x) = x
2
che genera ad uno ad uno i suoi elementi, associa cioè
ad ogni intero positivo il suo quadrato tramite una funzione ricorsiva. L’insieme
generato è l’insieme di tutti i valori assunti dalla funzione per ciascun argomento
per il quale la funzione è soddisfatta, denotabile, assumendo come dominio N,
come l’insieme { x |∀ y(y∈ N) f(y) =x} . Esso è ricorsivamente enumerabile in
quanto argomento della funzione che lo genera è ciascun n ⊇ 0. Se assumiamo
che gli argomenti di tali funzioni siano gli interi positivi, avremo funzioni totali, il
cui dominio coincide con N, e funzioni parziali, definite solo per un qualche
sottoinsieme, finito o infinito, di N.
Def. 10: Un insieme si dice ricorsivo se esso e il suo complemento rispetto
all’universo di riferimento sono ricorsivemente enumerabili. Cioè se esiste una
funzione che genera tutti i suoi elementi e una che genera tutti gli elementi che
non gli appartengono
2
.
Ci si può domandare se tutti gli insiemi generati da funzioni ricorsive siano
ricorsivi. In effetti è così per le funzioni molto semplici considerate fin’ora. Ma
non in generale. Una dimostrazione intuitiva di questo fatto potrebbe consistere
nel mostrare che la classe delle funzioni ricorsive, essendo ciascuna di esse una
sequenza finita di istruzioni, è ricorsivamente enumerabile (il metodo di Post per
definire la classe delle funzioni ricorsive genera in effetti ad una ad una le
funzioni ricorsive come teoremi del sistema definito dalle funzioni iniziali e dalle
regole per ottenere funzioni a partire dalle prime), e quindi è ricorsivamente
2
Ovvero, più semplicemente, se ha una funzione caratteristica .
8
enumerabile la classe degli insiemi generabili da queste funzioni. Tali funzioni,
come abbiamo visto, applicano gli interi positivi su un particolare sottoinsieme
degli interi positivi (l’insieme generato). Ma dal momento che per ℵ° interi
positivi ci sono 2
ℵ°
sottoinsiemi degli interi positivi, è evidente che ci saranno
innumerevoli insiemi non generabili da funzioni ricorsive, ovvero insiemi non
ricorsivamente enumerabili. Saranno insiemi troppo complessi per rientrare
nell’ambito dei nostri strumenti di analisi
3
. Ovvero insiemi non accessibili alle
nostre capacità di calcolo. Si è mostrata così l’esistenza di insiemi non
ricorsivamente enumerabili. Quando prenderemo in esame la macchina di Turing
dimostreremo l’esistenza di insiemi ricorsivamente enumerabili non ricorsivi e
quindi di insiemi non ricorsivamente enumerabili.
3
La complessità di tali insiemi potrebbe essere intesa (come vedremo in seguito), in termini di linguaggi,
come assenza di una struttura che ne caratterizzi la buona formazione, in termini insiemistici, come assenza di
una funzione caratteristica.
9
2 Introduzione alla grammatica formale
I procedimenti ricorsivi sopra illustrati ci conducono in un ambito diverso da
quello della linguistica tradizionale moderna, cui non erano ancora disponibili gli
strumenti formali sviluppati dai logici negli anni venti e trenta del ‘900. Prima
dello sviluppo della teoria delle funzioni ricorsive, nell’ambito della fondazione
della matematica, non erano disponibili strumenti che consentissero di fare, con le
parole di Chomsky, “un uso infinito di strumenti finiti”
4
. La capacità “umano
specifica” di produrre e accettare un numero potenzialmente infinito di frasi era
affidata all’analogia ad un repertorio limitato di configurazioni grammaticali.
Nella sua opera, Ferdinand de Saussure (1916), poneva una fondamentale
distinzione tra langue, quale sistema grammaticale e semantico nel cervello del
parlante, e parole, quale effettiva esecuzione o emissione della frase; essendo,
però, la langue un mero deposito di segni, o un repertorio con un numero fisso di
configurazioni grammaticali, munite di significato, cui i vari segni possono essere
sostituiti per ottenere nuovi significati, la formazione delle frasi risultava una
questione di parole piuttosto che di langue, cioè una questione di “libera
creazione volontaria”, piuttosto che di regolarità sistematica sottostante. Gli studi
sulle funzioni ricorsive e sui processi generativi cui abbiamo accennato e che
riprenderemo più diffusamente in seguito, ci permettono di caratterizzare insiemi
infiniti con certi tipi di struttura interna tramite processi generativi ricorsivi finiti
5
.
Chomsky parla a tal proposito di creatività governata da regole, intendendo la
capacità del parlante di produrre infinite nuove frasi con un strumenti finiti.
2.1 Preliminari allo studio della grammatica formale
L’ambito all’interno del quale svilupperemo i sistemi di analisi del linguaggio,
seguendo inizialmente l’impostazione del linguista americano N. Chomsky, sarà
delimitato innanzitutto ai sistemi discreti (la lingua, per così dire, non parlata, ma
scritta), costituiti da atomi indivisibili (lettere o parole) a partire dai quali vengono
costruiti i messaggi più lunghi.
Def. 11: Intendiamo per vocabolario un qualunque insieme finito di segni.
4
Strumenti finiti sono in ogni caso quelli di cui dispone il parlante, di cui l’impostazione psicologistica
chomskiana vuol rendere conto.
“la teoria linguistica è mentalistica”; Chomsky ’65, tra le altre.
5
Chomsky ‘63, p.177 ed.it.
10
L’operatore fondamentale che ci permette di formare messaggi complessi a partire
dagli elementi di base, ovvero (assumendo quali atomi, le parole) per la creazione
di frasi sul vocabolario è l’operatore di concatenazione indicato col segno “+”
6
.
Def. 12: Per frase (string) si intende una qualsiasi sequenza finita (possibilmente
vuota) di simboli ottenuta per concatenazione (o giustapposizione) degli elementi
di un vocabolario.
Useremo la parola frase assumendo quali atomi le parole della lingua, benché
stringa (string) sarebbe forse formalmente più corretto, e sequenza per riferirci a
meri complessi simbolici di cui vogliamo determinare l’appartenenza a un
linguaggio dato.
L’insieme di tutte le frasi costruibili per concatenazione anche ripetuta a partire da
un dato vocabolario, compresa la sequenza di lunghezza zero (indicata con ε ), sarà
indicato con V
∗
. Questa struttura elementare, definita solamente dalla chiusura
rispetto all’operazione di concatenazione (cioè se x,y∈ V∗ , e z = x+y, z∈ V∗ ) e
dalla presenza di un elemento neutro che ci permette di definire l’identità tra
sequenze, delimita ulteriormente il nostro ambito, e costituirà l’universo di
riferimento a partire dal quale definiremo i linguaggi (tale struttura è chiamata
“monoide”).
Una lingua sarà allora un possibile sottoinsieme di V
∗
.
Def. 13: La lunghezza di una frase x, indicata con |x | è il numero di segni che vi
occorrono. |ε |=0.
L’operatore di concatenazione, +, gode delle seguenti proprietà: è associativo
(cioè (x+y)+z = x+(y+z)) e non commutativo (cioè x+y ≠ y+x); inoltre, chiamato
ε la stringa vuota ε +x = x = x+ε (ε funge da elemento neutro).
Def. 14: Si intende per lingua un insieme finito o infinito di frasi, ciascuna avente
lunghezza finita e costruite per concatenazione a partire da un insieme finito di
elementi, inoltre: se x,y∈ L, x+y∈ L, ovvero L è chiuso rispetto all’operazione di
concatenazione.
Def. 15: Si definisce y una sottosequenza di x sse esistono sequenze w e z anche
vuote tali che x = w+y+z.
6
quando ciò non rechi ambiguità le parole concatenate saranno semplicemente giustapposte, omettendo +.
11
Assumeremo, momentaneamente, che il termine grammatica si riferisca a un
dispositivo di qualche tipo che generi tutte le frasi di una lingua specificata e solo
quelle.
Illustreremo parallelamente, quali modelli di grammatica, gli automi e i sistemi di
riscrittura, mostrandone le caratteristiche, la capacità generativa (classi di
linguaggi generati) e i limiti intrinseci. Cercheremo nella grammatica
caratteristiche che la rendano adatta al linguaggio naturale, e esporremo via via
le caratteristiche che ci sembra tale strumento debba soddisfare seguendo, in
parte, alcune opere del linguista americano Noam Chomsky degli anni ’50 e ’60;
illustreremo poi altri sviluppi successivi e tenteremo infine di mostrare
praticamente come gli strumenti presi in esame possano essere applicati
praticamente all’analisi automatica del linguaggio naturale.
2.2 Introduzione alla teoria della grammatica generativo-trasformazionale
I risultati esposti nelle sezioni precedenti costituiscono un’importante punto di
partenza per la discussione della grammatica formale. Seguendo Chomsky
considereremo “la teoria della grammatica come uno studio di una classe speciale
di funzioni ricorsive” . Abbiamo assunto che la grammatica sia un tipo di funzione
che enumera le frasi di una lingua e nessuna non frase, in termini di generazione.
Possiamo ugualmente considerarla quale strumento che, data una sequenza
x∈ V∗ , determina l’appartenenza (membership) o meno della sequenza a un
linguaggio specificato: in questi termini la grammatica costituisce una procedura
di decisione per le frasi della lingua. Le due interpretazioni della grammatica
(strumento che genera, strumento che decide) sono equivalenti, se l’insieme è
ricorsivo, in quanto l’unico procedimento ricorsivo in grado di decidere
l’appartenenza effettiva di una sequenza a un dato linguaggio è la generazione ad
una ad una delle sue frasi, e, nel caso la sequenza non appartenga al linguaggio, la
generazione della sequenza da parte della grammatica che genera il complemento
del linguaggio in esame.
In questo senso, il requisito minimo per la possibilità di trattare con strumenti
finiti (ricorsivi) il linguaggio naturale è che esso sia un insieme ricorsivo.
Illustreremo di seguito strumenti generativi di diverso tipo, che specificano classi
di funzioni ricorsive con potenza generativa decrescente. Il limite superiore di tali
funzioni è costituito dalla macchina di Turing universale che però accetta insiemi
12
ricorsivamente enumerabili con complementi non ricorsivamente enumerabili,
dunque, per questo e per altri motivi che vedremo, non si presta all’analisi del
linguaggio naturale. All’ estremo opposto della classificazione, lo strumento più
debole in grado di generare un numero infinito di frasi è detto automa a stati
finiti. I linguaggi generati da questi ultimi sistemi sono senz’altro ricorsivi, e
quindi sempre decidibili, ma vedremo che non riescono a rendere conto di aspetti
essenziali della struttura degli enunciati del linguaggio naturale. Obiettivo del
programma chomskiano è collocare tra questi due estremi la grammatica del
linguaggio naturale, e caratterizzare in tal modo ciò che le lingue umane possono
essere.
Dato l’interesse che abbiamo a sviluppare uno strumento finito in grado di
generare le frasi del linguaggio naturale che contiene un numero potenzialmente
infinito di frasi, di tutti i possibili sottoinsiemi di V
∗
escluderemo dalla nostra
considerazione innanzitutto i sottoinsiemi finiti. Una grammatica per questi
linguaggi potrebbe consistere anche solo di una lista delle frasi di ciascuno di essi,
dato che un insieme finito è sempre decidibile sulla base del confronto di un
campione limitato.
Ma se vogliamo che tale dispositivo caratterizzi un insieme infinito di frasi,
occorrerà che tale dispositivo incorpori quanto meno cicli di qualche sorta, in
grado di operare reiterativamente sui simboli.
D’altra parte la capacità di una macchina di Turing di fare appello a qualsivoglia
parte di un nastro infinito per determinare le proprie azioni è decisamente
eccessiva (come sarà illustrato in seguito) se intendiamo chiarire una capacità
umano specifica
7
.
Pure, una limitazione lineare alla lunghezza del nastro della macchina di Turing
pare (come illustreremo in seguito più ampiamente) caratterizzare una classe di
linguaggi troppo ampia rispetto a ciò che “le lingue umane possono essere”.
Una grammatica che genera un linguaggio infinito, intesa come sistema di
riscrittura, consterà di un simboli iniziale (S) e di un numero finito di regole della
forma ϕ→Ψ , dove ϕ e Ψ sono sequenze arbitrarie di segni, e → può essere letto
come “si riscrive”, oppure “produce”, oppure, per non discostarci dalla
7
Senza, a questo livello introduttivo, voler menzionare il limite fondamentale dei dispositivi tipo macchina di
Turing, cioè che i linguaggi accettati da TM non sono decidibili.
13
terminologia introdotta, “genera”. Così ogniqualvolta ϕ compare come
sottostringa, essa può essere sostituita dai segni di cui Ψ è composta, e la
sequenza ottenuta è ancora una frase del linguaggio in esame. Dovendo tale
grammatica generare un numero infinito di frasi tramite strumenti finiti, essa
dovrà far uso di strumenti ricorsivi, di un certo tipo .
I tipi di grammatiche cui si è sopra accennato in termini automi, hanno ciascuna
un sistema di riscrittura equivalente, come è stato da Chomsky dimostrato, e si
illustrerà sotto più o meno formalmente, seguendo in parte le prime opere del
Chomsky, in parte altri testi via via citati.
In un sistema di riscrittura il simbolo iniziale può essere interpretato, in analogia
con i sistemi assiomatici, come l’assioma iniziale, le regole come regole di
inferenza che permettono di dedurre teoremi dagli assiomi iniziali. Introdotta in
questi termini la grammatica acquista i caratteri di un sistema deduttivo in sé
conchiuso. Così intesa la grammatica costituisce una caratterizzazione sintetica e
perspicua del linguaggio che ha per oggetto. Un automa, invece, sembra più
vincolato alla definizione di una procedura di accettazione di un linguaggio.
In questo senso possiamo dire che un sistema di riscrittura è inerentemente
dichiarativo, mentre un automa è un dispositivo che si presta a implementare
procedure. Un sistema di riscrittura dice quali sono le sequenze ben formate del
linguaggio, un automa mostra come le sequenze vengono accettate.
In ogni caso, un sistema di riscrittura è preferibile rispetto ad un automa che è un
dispositivo che, come vedremo, consta di stati, proprietà di stati designati, azioni;
questo almeno se la semplicità vuol essere un carattere della grammatica, la quale
a sua volta intende essere la teoria della lingua (della lingua particolare e della
lingua in generale).
2.3 Criteri di adeguatezza
Nel descrivere formalmente linguaggi artificili che abbiano caratteristiche
rivelatrici nei confronti del linguaggio naturale, e le rispettive grammatiche
avremo in ogni caso un’esplicitazione univoca di un insieme di frasi
sintatticamente ben formate. Tale specificazione costituisce il dominio empirico
della grammatica language particolar che lo caratterizza. In questo senso la teoria
linguistica di impostazione chomskiana è una teoria empirica.
14
Così, sia il vocabolario ∑ ={ a, b} , potremmo allora specificare estensionalmente i
linguaggi
L1={ x∈ ∑∗ | x contiene un numero pari di a}
L2={ a
n
b
n
| n⊇ 0}
L3={ xx
r
| x∈ ∑∗ , e x
r
è l’immagine speculare di x}
L4= { xx| x∈ ∑∗}
in modo tale che aabb∈ L2, abba∈ L3, ma abbb∉ L2, e una grammatica di L2 deve
perciò accettare aabb come sintatticamente ben formata, e rifiutare abbb.
Per il linguaggio naturale non abbiamo una così rigida specificazione dell’insieme
delle frasi. Si assume quale discriminante prioritario della buona formazione delle
frasi dell’italiano la competenza che il parlante nativo possiede della propria
lingua. Il concetto di competenza risulta a questo livello piuttosto vago, e benché
si possa indubbiamente dire che una frase come “il gatto mangia il topo” sia
grammaticale, mentre una come “il corre Giovanni che” non lo sia, potrebbero
esserci casi incerti in cui non è immediatamente chiaro se la frase sia
grammaticale o meno. Ad esempio, non è immediatamente chiaro se una frase
come “la roccia corre” sia non grammaticale, o grammaticale ma semplicemente
falsa, oppure l’esempio classico di Chomsky “verdi idee senza colore dormono
furiosamente”
8
.
Per gli scopi presenti comunque assumeremo che la competenza del parlante sia in
grado di una distinzione intuitiva ma netta tra le frasi che sono grammaticali e
quelle che non lo sono, delineando in tal modo un dominio empirico alla teoria.
La grammatica che svilupperemo si presterà così anche a fornire una
esplicitazione rigorosa delle strutture mentali che presiedono alla competenza di
una lingua da parte del parlante, e in tal modo ad una formalizzazione del concetto
vago di competenza.
8
Nel trattamento, proprio quantomeno del primo Chomsky, una tale frase è considerata grammaticale, cioè
sintatticamente ben formata, ma non semanticamente interpretabile, e ciò poiché nell’impostazione
chomskiana è fortemente sottolineata l’indipendenza della sintassi da fenomeni di carattere semantico.
Altri approcci prevedono l’introduzione di particolari tratti “semantici” che restringono l’insieme delle
sequenze ammesse dalla grammatica. In altri un componente semantico agisce come un filtro separato dal
componente sintattico a prevenire l’emissione più che non la generazione di frasi non interpretabili.
Il sistema di Gazdar et Al. ’85 (vedi quinta sezione), al contrario, affida a postulati di significato il compito di
catturare generalizzazioni sintattiche e di conseguenza semplificare la grammatica, e il significato delle
espressioni viene dato in termini di funtori, che possono essere indefiniti per certi argomenti.
15
Essa dovrà anche render conto dell’ ambiguità di certe frasi, ovvero del fatto che
la stessa sequenza di segni può esser letta in diversi modi, a seconda che alla
particolare struttura superficiale (la sequenza di segni scritta) sia associata una
struttura profonda (vedi sez.2.6) o un’altra, e come tale costituire un modello di
come il parlante intende la frase. Ad esempio:
“uomini e donne competenti occupano tutti i posti migliori nella ditta” in cui
competenti può essere associato alla congiunzione uomini e donne, oppure solo
come modificatore di donne. A seconda del caso la frase avrà un significato ben
preciso, e sarà compresa in questo modo. A sua volta la grammatica dovrà
assegnare due differenti descrizioni strutturali alla frase.
2.4 Definizioni formali di grammatica
La grammatica fa uso di due vocabolari disgiunti, Vn e Vt. Vn è l’insieme del
vocabolario non-terminale, i cui membri scriveremo con la lettera maiuscola; Vt è
il vocabolario terminale, costituito dai simboli del vocabolario su cui formeremo
le frasi del linguaggio, V∗ è costituito solo dai membri di Vt.
Def.16 : sia ∑ =Vn ∪ Vt. Una grammatica formale G è una quadrupla < Vt, Vn, S,
R> , ove Vt e Vn sono insiemi finiti disgiunti, S é un membro distinto di Vn, e R è
un insieme ordinato di coppie in ∑∗ Vn∑∗ × ∑∗ .
S rappresenta l’inizio della derivazione; R è un insieme di regole di riscrittura
della forma ϕ !Ψ , dove ! è una relazione biargomentale irriflessiva e
asimmetrica; l’unica condizione imposta alla forma delle regole, inizialmente, è
che compaia almeno un simbolo non terminale alla sinistra della freccia.
Def.17 : data una G=< Vt, Vn, S, R> , una derivazione è una successione finita
x1,x2,….,xn (n ≥ 1) di sequenze, tale che x1= S, e, per ogni xi (2 ≤ i ≤ n), xi è
ottenuto da xi-1, per applicazione di certe regole in R.
Scriviamo xi⇒xi+1 se è possibile derivare xi+1 da xi; ⇒∗ rappresenta la chiusura
riflessiva e transitiva di ⇒.
Def. 18: una derivazione x1,x2,….,xn si dice terminata se non ci sono sequenze
che derivino da xn.
Def. 19: una sequenza si dice terminale se è l’ultima riga di una derivazione
terminata.
16
Def. 20 : una grammatica formale G genera una frase x∈{ Vt∪ Vn}∗ , se c’è una
derivazione x1,…,xn in G, tale che xn=x.
Def. 21 : il linguaggio generato da G, L(G), è l’insieme di tutte le frasi generate
da G.
Non è detto, in generale, che il linguaggio generato sia un linguaggio terminale,
benché ciò sia quanto vogliamo scoprire relativamente al linguaggio naturale.
2.5 Indicatori sintagmatici
Se le produzioni di una grammatica permettono di riscrivere al massimo un
simbolo non terminale per volta, è possibile associare alla derivazione di una frase
un indicatore sintagmatico (diagramma ad albero o parentesizzazione etichettata).
Tale struttura riveste per noi un ruolo estremamente importante, in quanto uno dei
requisiti che la teoria linguistica chomskyana impone alla grammatica, è che oltre
all’enumerazione ricorsiva delle frasi del linguaggio naturale, essa enumeri le
descrizioni strutturali di ogni frase, cioè assegni a ciascuna l’indicatore
sintagmatico corrispondente alla struttura di superficie, e nel caso di frasi
ambigue, un S-indicatore per ciascun modo in cui la stessa sequenza di segni può
essere derivata, applicando regole diverse o in ordine diverso (intuitivamente,
diverse storie derivazionali possono comportare diverse interpretazioni
semantiche) ; inoltre, per le frasi non grammaticali, la grammatica deve mostrare
(ancora attraverso l’S-indicatore) sotto quali aspetti esse deviano dalla buona
formazione. L’S-indicatore mostra la struttura in costituenti della frase.
Sia G=<{ a, b} , { S} , S,
R= S!aSb
S!ε >
Questa grammatica genera esattamente le frasi di L2. La derivazione della frase
aabb sarà: S⇒aSb⇒aaSbb⇒aabb.
Il corrispondente indicatore sintagmatico sarà:
a b
a b
ε
S
S
17
Anche esprimibile in un formato non altrettanto perspicuo, ma più comodo:
S
a
S
a
ε
b
b
Questo albero ci dice che ε è un costituente di tipo S, così come ab e aabb.
Diciamo che un nodo x domina un nodo y (informalmente: i nodi son quelli su cui
giacciono le etichette) se c’è un ramo che va da x a y.
Come condizione per la buona formazione degli S-indicatori imporremo:
1) Il nodo radice (S) domina tutti gli altri nodi (condizione della singola radice).
2) Se due nodi non sono in relazione di dominio, sono ordinati da sinistra a destra:
la relazione di precedenza stabilisce questo ordinamento (condizione di
esclusività).
3) Se un nodo x precede un nodo y, tutti i nodi dominati da x precedono tutti i nodi
dominati da y (nontangling condition).
Un albero che soddisfi le precedenti condizioni è detto continuo.
Una frase ambigua, come “they are flying planes” può venire disambiguata
mostrando l’indicatore sintagmatico cui si fa riferimento, ovvero se si intende:
[[they][are flying][planes]], oppure
[[they][are][flying planes]].
L’indicatore sintagmatico mostra le unità sintattiche della frase e la categoria
grammaticale cui ciascuna appartiene (le etichette sui nodi o sulle parentesi). Nei
termini tradizionali una categoria sintattica di espressioni è una collezione di
espressioni che hanno le stesse caratteristiche distribuzionali. L’analisi
distribuzionale presuppone che espressioni appartenenti alla stessa categoria
sintattica possano essere sostituite le une alle altre preservando la grammaticalità
dell’espressione complessa in cui compaiono. Tale analisi è formalizzata da
Chomsky nel formato della grammatica a costituenti immediati, anche chiamata a
struttura sintagmatica (phrase-structure grammar), e da lui considerata inadeguata
(ma di ciò si parlerà più ampiamente sotto) al linguaggio naturale.