straniero, in secundis l’importanza della percezione dell’italiano prodotto da
stranieri.
In riferimento alla prima considerazione sono stati in passato presentati
dei modelli che hanno trattato solo in modo superficiale il ruolo dei fenomeni
soprasegmentali nella percezione dell’accento straniero (mai in riferimento
all’italiano L2). Ad esempio il modello sviluppato da Flege (1995, 1997,
2003), noto come Speech Learning Model, ha cercato di misurare le abilità
fonologiche degli apprendenti, riconoscendo la relazione tra percezione e
produzione, riferendosi particolarmente all’acquisizione di fonemi da parte di
parlanti di una seconda lingua senza riferimento esplicito alla prosodia.
L’obiettivo primario di SLM è di tenere in conto i cambiamenti lungo l’arco della
vita nell’apprendimento della produzione e percezione dei segmenti; inoltre Flege,
introducendo il termine equivalence classification, ha condotto numerosi studi
fonetici che coinvolgono la similarità tra L1 e L2. Una delle sue più importanti
affermazioni infatti è che i suoni “equivalenti” o “simili” siano più difficili da
acquisire, poiché un parlante li percepisce e li acquisisce come equivalenti a
quelli in L1 e non stabilisce una nuova categoria fonologica.
Infine l’interesse nei confronti di questo autore è scaturito dallo studio sulla
correlazione tra produzione e percezione: egli suggerisce che l’accuratezza della
produzione di L2 è limitata da quella percettiva; più specificamente, ipotizza che
la produzione di un segmento fonetico di L2 non sarà migliore rispetto alla sua
rappresentazione percettiva, ma talvolta peggiore.
Similmente, il modello elaborato da Best (1995), Perceptual
Assimilation Model, si basa sulla percezione, ma non considera il trattamento
dei fenomeni prosodici nell’analisi dei rapporti tra L1 e L2, che stanno alla
base del processo di apprendimento di una lingua straniera. E’ stato analizzato
poi l’OPM (Ontogeny and Philogeny Model) sviluppato da Major, modello
esplicito riguardo all’interrelazione dei tre fattori (L1, L2 e U) coinvolti nella
formazione dell’Interlanguage (IL), ovvero il sistema linguistico di un parlante
6
non nativo. OPM afferma che gli schemi di IL sono i seguenti: con il passare del
tempo e come lo stile diventa sempre più formale L2 aumenta, L1 decresce e U
cresce e poi decresce. In aggiunta le relative proporzioni di U e L1 dipendono dal
fatto che i fenomeni siano normali, simili e marcati: L2 incrementa più lentamente
in fenomeni simili e marcati, rispetto a quelli normali. Tale modello afferma
l’importanza dei tratti segmentali affinché venga riconosciuto un parlante non
nativo, ma non riserva spazio specifico alla prosodia; uguale riserva si può
trovare nelle proposte più generativiste di Archibald (1993, 2003).
Riguardo al ritardo degli studi percettivi è possibile affermare che una
ragione della marginalità di cui hanno sofferto sia la differenza che sussiste tra
parlare e ascoltare; l’uno è atto esterno visibile, mentre l’altro è invisibile.
All’inizio del Novecento sembrò che l’udito e il ricevente richiamassero
l’attenzione dei linguisti. Saussure (1922) assunse una posizione decisa a
favore del primato degli aspetti uditivi e la sua intuizione trovò conferma nella
ricerca fonetica successiva con Jakobson, Fant e Halle (1956). Già negli anni
settanta però la ricerca linguistica prende un’altra direzione, lasciando la
percezione e l’udito come fenomeni marginali e puntando invece sui tratti
articolatori. L’udito è l’ingresso principale del messaggio, ma ritengono che
esso non contribuisca agli aspetti profondi della comprensione o perché questi
sono basati su schemi innati, o perché sono strettamente associati ai
meccanismi neuromuscolari della produzione (Albano Leoni, 2001).
Con l’avvento della tecnologia, nel corso del Novecento, alla fonetica
articolatoria si è affiancata la fonetica acustica. L’analisi acustica dà
un’immagine al suono, mostrando corrispondenze tra elementi fonetici prodotti
e rappresentazioni fisiche. L’acustica diventa utilizzabile sul piano percettivo
soltanto mediante il ricorso alla sintesi, che consente di modificare i parametri
fisici di un enunciato e sottoporlo all’ascolto e al giudizio competente dei
parlanti.
7
Per riuscire a dimostrare l’importanza della prosodia nella percezione
dell’accento straniero è stato progettato un esperimento utilizzando il software
Presentation (www.neurobs.com). Il codice del test è stato implementato con il
linguaggio di programmazione PCL specifico per il funzionamento all’interno
del software suddetto.
L’esperimento creato è formato da quaranta stimoli pronunciati in
italiano da dieci parlanti di diversa lingua madre: italiano, francese, spagnolo,
tedesco e inglese; gli stimoli per ogni parlante sono due letti e due spontanei. Il
test è stato somministrato ai soggetti (settanta tra studenti e non studenti) in tre
fasi; ogni fase presentava stimoli differenti, nella prima gli stimoli erano quelli
originari, nella seconda fase è stata modificata la F0 (frequenza fondamentale),
quindi è stata azzerata la prosodia e sono rimasti evidenti i tratti segmentali
caratteristici delle parlanti, nella terza fase invece, grazie all’utilizzo di uno
specifico script per l’estrazione del pitch dai singoli stimoli è rimasta
solamente la prosodia cioè la melodia dell’enunciato; per modificare gli stimoli
è stato utilizzato il software Praat (www.fon.hum.uva.nl/praat/).
Gli utenti che hanno partecipato al test dopo aver ascoltato gli stimoli
dovevano selezionare quella che ritenevano essere la lingua materna della
parlante che pronunciava la frase. Oltre alle risposte date sono stati registrati
anche i tempi di risposta dei singoli utenti che hanno facilitato l’analisi
condotta; analizzando i tempi si è potuto vedere quali sono stati i tratti
segmentali che hanno permesso il riconoscimento dell’accento straniero.
Infine, sono state fatte tre analisi riguardanti le singole fasi dell’esperimento in
cui i dati finali sono stati analizzati prendendo in considerazione le
caratteristiche strettamente significative che distinguono gli stimoli (letti/
spontanei, parlante 1/2) e i partecipanti al test (studenti/non studenti,
autovalutazione).
Terminate le tre fasi dell’esperimento è stata effettuata un’analisi
statistica totale che ha permesso di verificare l’attendibilità e la pertinenza dei
8
risultati ottenuti considerando diverse variabili. L’analisi finale permetterà di
confermare o meno l’importanza della prosodia per la percezione dell’accento
straniero.
Il percorso su cui è strutturata la tesi segue la linea data a
quest’introduzione; nel capitolo 2 sarà opportuno riportare i fondamenti
dell’acustica che hanno permesso l’analisi accurata degli stimoli audio che
sono stati utilizzati per l’esperimento creato. Vedremo, inoltre, come funziona e
come è stato utilizzato il software Praat per l’analisi e la modifica del parlato.
Verrà presentato infine il software Presentation utilizzato per la creazione del
test servito per studiare la percezione dell’accento straniero.
Nel terzo capitolo verranno illustrate le teorie e i modelli presenti negli
studi linguistici che analizzano l’acquisizione della Lingua Seconda,
soffermandoci in particolare sui modelli di Flege (1995, 1997, 2003) e Best
(2001) e sulla teoria di Major (1990).
Nel quarto capitolo andremo a presentare un excursus storico degli
studi riguardanti il livello percettivo; parleremo dell’importanza dell’udito
nella comunicazione, dell’intonazione e di come la prosodia è stata considerata
dagli studiosi fino ad oggi.
Per riuscire a capire quanto incidono i fenomeni segmentali e la
prosodia per il riconoscimento dell’accento straniero è stato ‘somministrato’ a
settanta persone un esperimento che proponeva agli ascoltatori stimoli che ogni
volta evidenziavano caratteristiche diverse (aspetti segmentali, prosodia). Nel
quinto capitolo presenteremo prima di tutto i materiali utilizzati per effettuare il
test e le caratteristiche degli utenti che hanno partecipato. Quindi sarà illustrata
l’analisi empirica dei risultati ottenuti dall’effettuazione dell’esperimento
creato. Il capitolo sarà diviso in tre parti in cui verranno presentati i risultati
ottenuti per le singole fasi del test.
9
Nel sesto capitolo sarà riportata l’analisi statistica elaborata sui risultati
ottenuti, prendendo in considerazione ogni volta variabili diverse che ci hanno
permesso di analizzare più accuratamente i dati in nostro possesso.
Il settimo capitolo è stato dedicato all’interpretazione dei risultati; dopo
aver illustrato i dati ottenuti dall’analisi empirica e dall’analisi statistica si
riportano in questo capitolo i risultati ottenuti ‘incrociandoli’ tra loro in modo
da avere un quadro complessivo molto accurato dei risultati del test.
L’interpretazione dei risultati ci guiderà verso le conclusioni della tesi,
illustrate nell’ottavo capitolo. Oltre a stabilire se lo studio ha dato una risposta
positiva alle ipotesi iniziali, si indicheranno nuovi percorsi di ricerca
sull’argomento trattato.
10
Capitolo 2 - Strumenti e metodi dell’analisi acustica applicata al
parlato
L’analisi acustica applicata al parlato si basa sulla conoscenza di alcuni
elementi presenti nella fisica acustica, quindi sarà necessario riportare qui di
seguito i fondamenti dell’acustica che hanno permesso l’analisi accurata degli
stimoli audio che sono stati utilizzati per l’esperimento creato. Vedremo,
inoltre, come funziona e come è stato utilizzato il software Praat per l’analisi e
la modifica del parlato. Verrà presentato infine il software Presentation
utilizzato per la creazione dell’esperimento servito per studiare la percezione
dell’accento straniero.
2.1 Fonetica acustica
Dal punto di vista fisico, il suono consiste nella oscillazione provocata
dai movimenti vibratori di un corpo, detto sorgente del suono, i quali si
trasmettono alle molecole del mezzo in cui esso è immerso (acqua, aria, etc); le
particelle a loro volta, iniziando ad oscillare, trasmettono il movimento alle
altre particelle vicine e queste a loro volta ad altre ancora; in questo modo, un
semplice movimento vibratorio si propaga meccanicamente dando vita all’onda
sonora (o onda acustica), che si definisce pertanto onda longitudinale.
Figura 2.1. Rappresentazione dell’onda sonora (da en.wikipedia.org)
11
?
Capitolo 2 - Analisi del segnale acustico
¥
Il suono
Il suono è un’oscillazione (un movimento nello spazio) compiuta dalle particelle
(atomi e molecole) in un mezzo. Le oscillazioni sono spostamenti delle particelle,
intorno alla posizione di riposo e lungo la direzion di propagazione dell'onda,
provocati da movimenti vibratori, provenienti da un determinato oggetto, chiamato
sorgente del suono, il quale trasmette il proprio movimento alle particelle adiacenti,
grazie a proprietà meccaniche del mezzo; le par icelle a l ro volta, iniziando ad
oscillare, trasmettono il movimento alle altre particelle vicine e queste a loro volta ad
altre ancora; in questo modo, un semplice movimento vibratorio si propaga
meccan a ente dando vita all'onda sonora (o onda acustica), che si definisce
pertanto onda longitudinale.
Fig. 11 : Rapprese tazione ell’ond sonora
Per studiare le onde sonore è possibile avvalersi di un supporto visivo, utilizzando un
grafico cartesiano, riportante il tempo (t) sull'asse delle ascisse, e gli spostamenti
delle particelle (s) su quello delle ordinate. Il tracciato esemplifica gli spostamenti
delle particelle: all'inizio, la particella si sposta dal suo punto di riposo (asse delle
ascisse) fino al culmine del movimento oscillatorio, rappresentato dal ramo crescente
di parabola che giunge al punto di massimo parabolico. Poi la particella inizia un
nuovo spostamento in direzione opposta, passando per il punto di riposo e
continuando per inerzia fino ad un nuovo culmine simmetrico al precedente, questo
movimento è rappresentato dal ramo decrescente che, intersecando l'asse delle
ascisse, prosegue in fase negativa fino al minimo parabolico. In fine, la particella
ritorna in dietro e ripete nuovamente la sequenza di spostamenti, così come fa il
tracciato del grafico.
Il periodo (graficamente il segmento tra due creste) è il tempo impiegato dalla
particella per tornare nello stesso punto dopo aver cominciato lo spostamento (indica
cioè la durata di una oscillazione completa). La distanza dalla cresta all'asse delle
L codi ca del parlato - Audio Digitale A.A. 2007/2008
Il segnale vocale può essere visto come il risultato dell’attivazione di una
sorgente di segnale periodico e di una sorgente di rumore, combinate con un
sistema di risuonatori. La sorgente del segnale periodico si trova nella glottide
e la sorgente del rumore si trova nei diversi luoghi di articolazione. In seguito
all’attivazione del meccanismo laringeo, si genera nell’aria espiratoria un’onda
periodica complessa detta segnale glottico, la cui frequenza corrisponde alla
frequenza delle vibrazioni laringee. Il segnale glottico emesso dalla laringe
viene modificato in modo diverso se, ad esempio, la lingua si trova in
posizione arretrata o avanzata, abbassata o innalzata, oppure se le labbra si
trovano in posizione distesa o arrotondata, o il velo del palato è alzato o
abbassato. Il risuonatore conferisce al segnale glottico un diverso inviluppo
spettrale, al quale corrisponde il timbro proprio di un determinato fono sonoro.
Al contrario delle ampiezze, le frequenze delle armoniche non vengono
modificate dal risuonatore, e quindi la frequenza fondamentale resta
determinata dalla sola attività della laringe.
Figura 2.2. Rappresentazione dell’apparato fonatorio: A. Glottide, B. Faringe,
C.Velo Palatino, D. Palato molle, E. Palato duro, F. Alveoli, G. Denti, H. Labbra
(da it.wikipedia.org)
Il filtro del tratto vocale è eccitato dall'aria spinta dalle corde vocali. I
suoni di parlato possono essere divisi in 3 categorie basilari secondo alla
tipologia di eccitazione che li genera.
• I suoni sonori sono prodotti quando c'è l'apertura o chiusura delle corde
vocali che interrompe il flusso d'aria dai polmoni verso il tratto e produce
12
modificato dalla cassa di risonanza costituita dalle cavità superiori del condotto
vocale.
¥
Fonetica Acustica
Il segnale vocale può essere visto c me il risultato dell’attivazione d una sorgente di
segnale periodico e di una sorgente di rumore, combinate con un sistema di
risuonatori. La sorgente del segnale periodico si trova nella glottide e la sorgente del
rumore si trova nei diversi luoghi di articolazione consonantici.
In seguito all’attivazione del meccanismo laringeo, si genera nell’aria espiratoria
un’onda periodica complessa detta segnale glottico, la cui frequenza corrisponde alla
frequenza delle vibrazioni laringee.
Il segnale glottico emesso dalla laringe viene dunque modificato in modo diverso se,
ad esempio, la lingua si trova in posizione arretrata o avanzata, abbassata o innalzata,
oppure se le labbra si trovano in posizione distesa o arrotondata, o il velo del palato è
alzato o abbassato. Il risuonatore conferisce al segnale glottico un diverso inviluppo
spettrale, al quale corrisponde il timbro proprio di un determinato fo o son r .
Al contrario delle ampiezze, le frequenze delle armoniche non vengono modificate
dal risuonatore, e quindi la frequenza fondamentale resta determinata dalla sola
attività della laringe.
Fig. 15: R ppresentazione dell’apparato f natori : A. Glottide, B. F ringe,
C. Velo palatino, D. Palato molle, E. Palato duro, F. Alveoli, G. Denti, H. Labbra.
Il filtro del tratto vocale è eccitato dall'aria spint dalle corde vocali. I suoni di parlato
possono essere divisi in 3 categorie, in base alla tipologia di eccitazione che li genera.
∞
I suoni sonori sono prodotti quando c'è l'apertura o chiusura delle corde vocali
che interrompe il flusso d'aria dai polmoni verso il tratto e produce vibrazioni
delle pliche vocaliche che possono avere andamenti vicini alla periodicità.
L'andamento con cui si aprono e si chiudono le corde vocaliche da il pitch del
suono. Questo può essere modificato variando la forma e la tensione delle
corde vocali e la pressione del flusso d'aria che le attraversa. I suoni sonori
mostrano un alto grado di periodicità sul pitch, che è tipicamente fra 2 e 20 ms.
∞
I suoni non sonori si hanno quando l'eccitazione è prodotta spingendo l'aria a
grande velocità attraverso un'ostruzione nel tratto vocale, mentre la glottide
La codi ca del parlato - Audio Digitale A.A. 2007/2008
vibrazioni delle pliche vocaliche che possono avere andamenti vicini alla
periodicità. L'andamento con cui si aprono e si chiudono le corde
vocaliche dà il pitch del suono. Questo può essere modificato variando la
forma e la tensione delle corde vocali e la pressione del flusso d'aria che
le attraversa.
• I suoni non sonori si hanno quando l'eccitazione è prodotta spingendo
l'aria a grande velocità attraverso un'ostruzione nel tratto vocale, mentre
la glottide rimane aperta.
• I suoni esplosivi si hanno quando c'è una chiusura completa del tratto
vocale e l'aria si accumula per poi essere rilasciata improvvisamente.
Alcuni suoni non possono essere considerati parte di nessuna di queste
categorie visto che incorporano caratteristiche comuni di ognuna. Le fricative
sonore ad esempio si ottengono quando sono presenti sia una vibrazione delle
corde vocali che una costrizione nel tratto vocale. Nonostante ci siano tanti
possibili suoni che possono essere prodotti con il parlato, la forma del tratto
vocale e il modo in cui viene "eccitato" cambiano in modo relativamente lento,
e quindi il parlato può essere considerato un fenomeno quasi-stazionario su
brevi periodi di tempo. Il segnale del parlato mostra un alto grado di
predittività, grazie alle vibrazioni quasi periodiche delle corde vocali e alla
risonanza del tratto vocale. Nella codifica si cerca quindi di sfruttare questa
predittività per ridurre la quantità di dati necessari a una trasmissione vocale di
buona qualità.
La produzione delle vocali, che sono sempre sonore, prevede
l’attivazione del meccanismo laringeo, che conferisce periodicità al segnale, e
l’intervento del risuonatore orale, che ne determina il timbro.
Per classificare le vocali sono determinanti i valori di frequenza delle
prime due formanti, dette F1 e F2.
F1 si trova a frequenze più basse (200-300 Hz) per le vocali alte, e presenta
valori via via più alti man mano che si passa alle vocali medio-alte, medio-
13
basse e infine alle basse (700-800 Hz). Si può quindi dire che F1 è direttamente
proporzionale al grado di apertura della vocale.
F2, invece, ha il suo valore minimo per le vocali posteriori alte (700-800 Hz) e
va aumentando man mano che si avanza nel cavo orale, fino a raggiungere una
frequenza massima per le vocali anteriori alte (circa 2200 Hz). Si può dire che
F2 è direttamente proporzionale al grado di anteriorità della vocale.
Figura 2.3. Vocali italiane (da wikipedia.org).
Le due serie di vocali anteriori labializzate e non labializzate presentano
gli stessi gradi di apertura (rispettivamente chiuso, semichiuso e aperto), ma il
grafico mostra che esistono differenze sensibili tra le due serie per quanto
riguarda F2, che nelle vocali labializzate ha valori più bassi rispetto alle non
labializzate. Ciò dipende dall’effetto dell’arrotondamento delle labbra sulla
forma e soprattutto sulla lunghezza del tubo di risonanza che, così modificato,
amplifica armoniche di frequenza più bassa e produce un timbro diverso.
Nel caso delle vocali nasali interviene anche la cavità nasale, caratterizzata da
alcune risonanze supplementari e, soprattutto, da forti antirisonanze che
determinano in questi foni il tipico indebolimento di alcune componenti
frequenziali.
14
La correlazione tra caratteristiche articolatorie e caratteristiche acustiche delle
vocali non si limita naturalmente alle sette vocali dell’italiano che abbiamo
usato come esempio. Proprio in base alla regolarità descritta, è possibile
prevedere con buona approssimazione la struttura formantica di una vocale
conoscendone le caratteristiche articolatorie. Analogamente, dati i valori
formatici di una vocale, si potrà risalire alle sue caratteristiche articolatorie.
Figura 2.4. Spettrogramma delle vocali italiane creato con WaveSurfer
Mentre le vocali costituiscono, da molti punti di vista una categoria
molto omogenea di foni, le consonanti, al contrario, presentano grandi
differenziazioni dovute essenzialmente alla varietà dei modi di articolazione.
• Nelle occlusive la fase di occlusione non produce naturalmente alcun
effetto, dal momento che in quell’intervallo l’aria è bloccata dietro
l’ostacolo. La fase di esplosione, al contrario, produce un rumore
abbastanza intenso ma brevissimo. Essa è generalmente seguita da un
ulteriore breve intervallo di silenzio che precede il fono successivo. Nel
tracciato delle occlusive sorde, in corrispondenza della fase di
occlusione, molto breve, si osserva una sottile riga verticale, detta spike;
15
direttamente proporzionale al grado di anteriorità della vocale.
Le due serie di vocali anteriori labializzate e non labializzate presentano gli stessi
gradi di apertura (rispettivamente chiuso, semichiuso e aperto) ma il grafico mostra
che esistono differenze sensibili tra le due serie per quanto riguarda F2, che nelle
vocali labializzate ha valori più bassi rispetto alle non labializzate. Ciò dipende
dall’effetto dell’arrotondamento delle abbra sull forma e soprattutto sulla lunghezza
del tubo di risonanza che, così modificato, amplifica armoniche di frequenza più
bassa e produce un timbro diverso.
Nel caso delle vocali nasali interviene anche la cavità nasale, caratterizzata da alcune
risonanze supplementari e, soprattutto, da forti antirisonanze che determinano in
questi foni il tipico indebolimento di alcune componenti frequenziali.
Fig. 17: Spettrogramma delle vocali italiane
La correlazione tra caratteristiche articolatorie e caratteristiche acustiche delle vocali
non si limita naturalmente alle sette vocali dell’italiano che abbiamo usato come
esempio. Proprio in base alla regolarità descritta, è possibile prevedere con buona
approssimazione la strut ura formantica di una vocale conoscendone l caratteristiche
articolatorie. Analogamente, dati i valori formatici di una vocale, si potrà risalire alle
sue caratteristiche articolatorie.
?
Le Vocali
Mentre le vocali costituiscono, da molti punti di vista una categoria molto omogenea
di foni, le consonanti, al contrario, presentano grandi differenziazioni dovute
essenzialmente alla varietà dei modi di articolazione. [v. appendice]
- Nelle occlusive la fase di occlusione non produce naturalmente alcun effetto,
dal momento che in quell’intervallo l’aria è bloccata dietro l’ostacolo. La fase
di esplosione, al contrario, produce un rumore abbastanza intenso ma
brevissimo. Essa è generalmente seguita da un ulteriore breve intervallo di
La codi ca del parlato - Audio Digitale A.A. 2007/2008
in corrispondenza del VOT
1
(Voice Onset Time), infine si osserva
un’altra brevissima zona di assenza di traccia. In conseguenza
dell’attività laringea che accompagna la loro articolazione si osserva una
formante di bassa frequenza detta barra sonora. L’identificazione
sonografica del luogo di articolazione delle occlusive si basa non tanto
sulle caratteristiche del segmento consonantico in sé, quanto su quelle
delle vocali che precedono o seguono la consonante. La frequenza di F1
si abbassa nel passaggio da un fono più aperto (la vocale) a uno più
chiuso (la consonante), poiché la frequenza di F1, come abbiamo visto, è
funzione del grado di apertura (naturalmente l’inverso accade nel passare
dalla consonante alla vocale). La transizione di F2, invece, corrisponde
alla variazione del luogo di articolazione nel passaggio dalla vocale alla
consonante e viceversa. Infatti le consonanti bilabiali attirano F2 verso il
basso; le alveolari la lasciano quasi inalterata; le velari la attirano invece
verso l’alto.
Figura 2.5. Esempio di spettrogramma per consonanti occlusive sonore (da wikipedia.org)
• Dal punto di vista spettroacustico, il rumore delle fricative si manifesta in
modo diverso a seconda che siano sorde o sonore. Infatti in queste ultime
il rumore è a volte meno intenso e può presentare tracce evidenti di una
16
1
Indice acustico relativo allo spazio temporale tra il rilascio dell’occlusione e l’inizio delle
vibrazioni periodiche del suono successivo.
silenzio che precede il f no suc essiv . Nel tracci to delle occlusive sorde, in
corrispondenza della fase di occlusione, molto breve, si osserva una sottile riga
verticale, detta spike; in corrispondenza del VOT, infine si osserva un’altra
brevissima zona di assenza di traccia. In conseguenz dell’attività laringea che
accompagna la loro articolazione si osserva una formante di bassa frequenza
detta barra sonora.
Fig. 18: Esempio di spettrogramma per consona ti occlusive sonore
L’identificazione sonografica del luogo di articolazione delle occlusive si basa
non tanto sulle caratteristiche del segmento consonantico in sé, quanto su
quelle delle vocali che precedono o seguono la consonante.
La frequenza di F1 si abbassa nel passaggio da un fono più aperto (la vocale) a
uno più chiuso (la consonante), poiché la frequenza di F1, come abbiamo visto,
è funzione del grado di apertura (naturalmente l’inverso accade nel passare
dalla consonante alla vocale). La transizione di F2, invece, corrisponde alla
variazione del luogo di articolazione nel passaggio dalla vocale alla consonante
e viceversa. Infatti le consonanti bilabiali attirano F2 verso il basso; le alveolari
la lasciano quasi inalterata; le velari la attirano invece verso l’alto.
- Dal punto di vista spettroacustico, il rumore delle fricative si manifesta in
modo diverso a seconda che siano sorde o sonore. Infatti in queste ultime il
rumore è a volte meno intenso e può presentare tracce evidenti di una struttura
formantica.
Le fricative sorde presentano nel sonogramma un diffuso e irregolare
annerimento che si estende verticalmente attraverso un’ampia banda di
frequenze e che lungo l’asse orizzontale si mantiene abbastanza costante per
tutta la durata della consonante.
Ciascuna fricativa è riconoscibile nel sonogramma o per il suo rumore o per la
sua struttura formantica, le transizioni vocaliche non sono determinanti per
l’identificazione dei diversi luoghi di articolazione. Tuttavia, quando le si
osserva, si riscontra un comportamento analogo a quello descritto per le
occlusive.
La codi ca del parlato - Audio Digitale A.A. 2007/2008