5
Introduzione
Oggigiorno, l’approccio più utilizzato dalla maggior parte delle società che producono ampi
database del territorio all’interno dei progetti GIS (Sistemi Informativi Territoriali) nella
generazione di modelli digitali del terreno (DTM), consiste nell’acquisire dati, da digitalizzare
ed analizzare, a partire dalle curve di livello di una carta topografica. Le ragioni di questa
modalità di procedere sono principalmente funzionali ed economiche. In molti paesi, infatti,
sono disponibili carte topografiche dettagliate e di recente produzione. Sfruttando tecnologie che
permettono la scansione automatica e il passaggio in formato vettoriale di tali carte, le curve di
livello possono essere digitalizzate, con costi ridotti, ed utilizzate come dati di partenza per la
realizzazione di un DTM. Il grado di precisione con cui tali curve di livello rappresentino la
reale morfologia del terreno varia sensibilmente in funzione di numerosi fattori, quali la qualità e
la scala delle fotografie aeree, la precisione del dispositivo fotogrammetrico utilizzato e
dall’abilità dell’operatore, che sono difficili e costosi da valutare; questi tre fattori possono
variare sensibilmente da una carta all’altra e persino all’interno della carta stessa. Nessun altro
dato, come la presenza di cigli o punti di quota, viene generalmente sfruttato né per migliorare la
precisione né per valutare l’affidabilità del modello. Tali dati supplementari, utili per migliorare
le prestazioni di un struttura TIN e, in minor misura, di una griglia, sono costosi o difficili da
acquisire nel caso di ampie regioni. Perciò sia le aziende pubbliche che private, coinvolte nella
realizzazione dei DTM, non investono ulteriori risorse per averli a disposizione. Attraverso la
creazione di DTM da queste curve di livello, dunque, i dati di partenza sono già di per se
degradati, indipendentemente dall’efficacia dell’algoritmo scelto per generare i DTM. Pertanto,
è necessario investire nella ricerca e nello sviluppo di nuovi approcci per l’acquisizione,
memorizzazione ed analisi automatizzata dei rilievi. In questa direzione, nel Luglio del 2007 a
Roma è stato presentato, dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare, il
Piano straordinario di telerilevamento ambientale ad alta precisione per le aree ad alto rischio
idrogeologico: l’obiettivo del Piano Straordinario è quello di avviare, per la prima volta, la
costituzione di una Database rappresentativo del territorio Nazionale, con particolare riguardo
alla sua configurazione, al suo rapporto con l’ambiente; un database ad altissima risoluzione, e
ad elevato valore aggiunto, da ottenersi tramite l’utilizzo delle tecnologie più evolute che le
piattaforme satellitari e su aeromobili rendono attualmente disponibili, che dovrà rappresentare
un valido contributo alle attività di governo del territorio, supportando in particolare le attività di
topografia, cartografia e fotogrammetria numerica, i modelli digitali del terreno, i Sistemi
Informativi Territoriali e, soprattutto, i Sistemi Informativi di Supporto alle decisioni. I DTM
6
vengono inoltre prodotti a partire dall’analisi fotogrammetrica tradizionale, attraverso rilievi
aero-fotogrammetrici o tramite l’elaborazione digitale di dati aereo/satellitari utilizzando sistemi
di correlazione delle immagini. Per quanto concerne questi ultimi approcci, dato che la
precisione dei DTM ottenuti tramite l’uso di queste nuove tecniche non è ancora
dettagliatamente documentata, il loro potenziale va testato in relazione all’area che si sta
esaminando. In alcune ricerche, comunque, sono stati estratti DTM attraverso l’analisi di
fotografie aeree utilizzando un sistema fotogrammetrico: dal confronto di tali modelli con i
DTM generati attraverso tecniche tradizionali sembra che il DTM ottenuto dall’analisi delle
fotografie aeree riproduca più fedelmente la maggior parte della superficie esaminata; tale
processo è però soggetto ad errori locali grossolani nelle zone in cui vi sono abitazioni o altre
strutture artificiali, i pendii sono molto ripidi, il terreno è ricoperto da una fitta vegetazione,
alcune zone fotografate vengono nascoste dalle ombre, e necessita ancora di essere sviluppato e
raffinato.
Ad ogni modo, oggi molte Regioni fanno uso principalmente delle mappe a curve di livello
come fonte di dati per la generazione di DTM di ampie regioni, ed è perciò importante riuscire a
valutare la qualità e le prestazioni offerte dai metodi usati per l’acquisizione, la memorizzazione
ed il trattamento dei dati di aree più o meno estese. Questi possono essere raggruppati in quattro
approcci base: curve di livello, profili, griglie regolari (raster), e TIN (trianguled irregular
network). Ognuno di essi presenta vantaggi e difetti, e il rispettivo campo di applicazione di ogni
approccio dipende principalmente da come vengono raccolti e conservati i dati. Le curve di
livello, che sono per lo più usate dai cartografi per descrivere i rilievi, ed i profili, derivano da
analisi fotogrammetriche di fotografie aeree. A causa della loro struttura, entrambi gli approcci
non sono tuttavia adeguati per un analisi automatizzata della morfologia del suolo. Anche
l’estrapolazione di mappe che mostrano i pendii o i rilievi, mediante ombreggiatura, a partire
dalle curve di livello è un operazione piuttosto complicata. Le griglie, che sono l’approccio più
usato per memorizzare ed analizzare i dati all’interno di un GIS, derivano, generalmente, dalla
digitalizzazione delle curve di livello di una carta topografica o, più di recente, direttamente da
processi automatizzati di dati aerei/satellitari attraverso tecniche di correlazione di immagini
digitali. Agilmente elaborabili e facilmente integrabili con altre tipologie di dati tramite
operazioni matriciali, presentano però anisotropia dell’informazione altimetrica secondo le otto
direzioni spaziali della griglia. Più di recente, a causa della scarsa efficienza in termini di
memoria richiesta e precisione di DTM raster, le griglie sono state messe in discussione a
vantaggio delle strutture TIN, che sono generalmente ottenute dalla digitalizzazione di curve di
7
livello o da dati di quote distribuiti in maniera irregolare. Esse offrono inoltre la possibilità di
incorporare nel modello altimetrico informazioni ausiliarie (impluvi, displuvi, discontinuità
morfologiche, ecc.).
Sono stati proposti vari metodi per effettuare una valutazione “quali - quantitativa” di un DTM
e in ciascuno di essi vengono solitamente forniti dei parametri osservabili, e dunque oggettivi,
che indicano quanto fedelmente il modello riproduca la morfologia del suolo così come è
espressa dai dati di input (curve di livello, punti di quota, ecc..). Alcuni studiosi hanno provato
anche a confrontare statisticamente i valori di quota calcolati o interpolati dai vari algoritmi con
la superficie reale del terreno ottenuta attraverso dettagliate analisi fotogrammetriche o
attraverso indagini sul campo. Ulteriori stime della qualità di un DTM consistono, poi, nell’
ispezione visiva o attraverso strumenti di rendering del territorio modellato, come ad esempio le
mappe a rilievi ombreggiati, o altre tecniche simili. In breve, i parametri che vengono usati nella
stima della qualità dei DTM possono essere riassunti come segue:
a) in corrispondenza delle curve di livello originali i valori del DTM devono coincidere (o
discostarsi di un valore inferiore al 5% dell’equidistanza) con la quota delle medesime;
b) nello spazio compreso tra ogni coppia di isoipse i valori del DTM devono quantomeno ricadere
nell’intervallo altimetrico definito dalla coppia;
c) sempre nello spazio di cui sopra, i valori del DTM devono variare linearmente tra le quote della
coppia;
d) in aree a bassa informazione altimetrica, quali ampie spianate vallive o dossi estesi, i valori del
DTM devono riflettere in modo verosimile la probabile conformazione morfologica delle
medesime;
e) le distribuzioni di quote del DTM che definiscono conformazioni morfologiche irrealistiche
(artefatti) devono essere limitate a meno dello 0.1 – 0.2% dei dati.
Le prime due condizioni si basano sull’assunzione che il DTM derivato dalle isoipse digitali
originali, dovrà riprodurle con sufficiente accuratezza a meno dell’incertezza spaziale dovuta
alla dimensione della cella del raster. È quindi possibile calcolare un indice di qualità basato
sulla costruzione di un buffer intorno alle isoipse originali di ampiezza pari alla dimensione della
cella del raster, che rappresenta lo scostamento massimo accettato tra le curve originali
(generatrici del DTM) e quelle calcolate (generate dal DTM). I vettori rigenerati dovrebbero
ricadere entro l’area di buffer; se sono esterni ad essa la tagliano e creano dei poligoni di errore.
La sommatoria di tutti i poligoni di errore e la sua normalizzazione tramite divisione per l’area
totale di buffer, dovrebbe essere contenuta sotto la soglia del 5%. Il fatto che sia ammesso uno
8
scarto tra il valore calcolato dal DTM e quello riportato sulle curve di livello, che varia in
funzione della distanza tra due curve di livello successive (equidistanza) della carta usata come
input, deriva dal fatto che l’equidistanza in genere esprime la precisione della mappa meglio di
qualunque altra caratteristica, come ad esempio la scala. Per quanto riguarda il fatto che la quota
vari linearmente tra due curve di livello è interessante notare che tale criterio non è valido in
ogni circostanza: se si presentano versanti concavi o convessi è possibile che i profili non siano
rettilinei. Comunque, la forma di un pendio può essere adeguatamente approssimata attraverso
dei segmenti delimitati da una coppia di curve di livello. Senza ulteriori informazioni, tale
approssimazione è la più ragionevole persino per versanti con pendenze dolci, fondovalle o cime
di rilievi che sono, rispettivamente, superfici concave e convesse. Il quarto parametro è il più
difficile da valutare. Esso si basa su un confronto soggettivo (è quindi richiesto un osservatore
esperto) tra l’assetto morfologico ipotizzato dal DTM creato e la conformazione altimetrica,
generalmente dedotta dal modello spaziale ricavato dalle curve di livello in input che può,
dunque, essere affetto da vari errori. La quinta condizione è apparentemente la più semplice da
verificare, anche se piccoli artefatti possono essere rilevati solo tramite le tecniche di rendering
che consentono un facile rilevamento dei principali artefatti; altri metodi, infatti, richiederebbero
un controllo molto più attento dei parametri statistici legati alla funzione di distribuzione delle
quote, o l’analisi delle quote ricavate che sono molto suscettibili ad un modello irrealistico.
Chiaramente, il valore soglia associato agli artefatti trova una migliore applicazione quando il
data set è piuttosto ampio. E ancora, vi sono due casi in cui gli artefatti sono più semplici da
verificare: le aree ad elevata o bassa densità di curve di livello. Nel primo caso essi possono
essere rilevati tramite i parametri (a), (b) e (c). Nel secondo caso, solo un ispezione visiva
permette di valutare la verosimiglianza del DTM col terreno indagato. Inoltre, va ricordato che i
suddetti parametri possono essere applicati correttamente quando la risoluzione (dimensione
della cella) è comparabile alla distanza tra una coppia di curve di livello della carta usata per
creare il DTM.
Il 29 Aprile 2001 l’Intesa Stato – Regioni ha previsto la definizione di prescrizioni tecniche
comuni da adottarsi nella produzione dei modelli digitali del terreno: queste specifiche, che
definiscono anzitutto i requisiti di un modello digitale del terreno, prendono in esame le diverse
tecniche di produzione e, in particolare, l’impiego di dati altimetrici esistenti (tra cui le mappe a
curve di livello) e forniscono precise indicazioni sulle specifiche da adottare nella produzione
dei modelli e una stima degli errori in relazione alla qualità dei dati di partenza.
9
Nel presente elaborato verranno dunque presentate le due principali strutture (GRID e TIN)
utilizzate per la generazione di un DTM a partire da curve di livello e verrà valutata, applicando
i criteri sopraesposti, la qualità di tre DTM, ottenuti dal software WinRoad riferiti a tre differenti
aree campione: la prima si trova nella città di Ascoli Piceno, la seconda nella frazione di Isola
San Biagio (Comune di Montemonaco, Provincia di Ascoli Piceno) e la terza all’interno delle
province di Novara e Vercelli. Per ogni modello, infine, si cercherà di dare una stima della
precisione altimetrica, che verrà poi confrontata con quanto riportato nell’Intesa Stato – Regioni,
e in relazione ad essa si cercherà di individuare i possibili campi di applicazione di tali modelli.
10
11
1. I DTM
1.1 Premessa
Sono note ormai da molto tempo le potenzialità dei DTM nella risoluzione di un ampio spettro
di problemi teorici ed applicativi. Tuttavia, sono all’inizio degli anni ’80 la tecnologia ha
permesso di acquisire, elaborare ed esporre in modo efficiente e con costi contenuti i dati in
input attraverso sofisticati hardware e software capaci di manipolare con grande facilità un
enorme quantità di dati. Allo stato attuale, i DTM sono sistematicamente sfruttati per una ampia
gamma di applicazioni ingegneristiche e di pianificazione, quali la bonifica del territorio, il
calcolo dei volumi di sterro e di riporto nei lavori di terra, l’ottimizzazione della scelta del luogo
di installazione di stazioni radio attraverso l’analisi dell’intervisibilità, e, più di recente, la
determinazione di potenziali zone a rischio di allagamento o di altri importantissimi parametri
geomorfologici. Per questi motivi, oggigiorno i DTM costituiscono un fondamentale elemento
dei database geografici 2D o 3D. Come già detto, i metodi utilizzati per l’acquisizione, la
memorizzazione e il trattamento dei dati di aree più o meno estese possono essere raggruppati in
quattro approcci base: curve di livello, profili, griglie regolari (raster), e TIN (trianguled
irregular network). In letteratura, i vantaggi e gli inconvenienti di ogni struttura sono stati
accuratamente discussi; d’altro canto, l’accuratezza dei modelli numerici del terreno generati da
tecniche fotogrammetriche tradizionali viene studiata già da lungo tempo. Viceversa, pochi
autori hanno tentato di valutare l’affidabilità di un modello del terreno attraverso il trattamento
dell’immagine, tecniche statistiche o confrontando le curve di livello derivate dal DTM con
quelle di partenza usando dei parametri standard. Quest’elaborato vuole essere parte della ricerca
sull’affidabilità di un DTM generato a partire dalle curve di livello. Innanzitutto vengono
presentate le strutture TIN e griglia, che attualmente sono le più utilizzate all’interno dei GIS, e
tramite alcuni parametri, per la valutazione della qualità dei DTM ottenuti attraverso la
digitalizzazione di curve di livello che coprono ampie regioni o interi paesi, si cerca di valutarne
l’efficienza attraverso delle applicazioni. Verranno prodotti dei DTM, sia in formato GRID che
TIN, di tre aree campione caratterizzate da un assetto morfologico piuttosto comune in Italia.
Infine verranno confrontate le precisioni dei DTM generati con quelle riportate nell’Intesa Stato-
Regioni. Per generare una griglia DTM a partire da curve di livello digitali, sono stati proposti e
sviluppati una grande varietà di algoritmi di interpolazione. Alcuni sono quelli usuali (media
12
mobile ponderata, splines bi- cubiche, kriging, elementi finiti), in cui si prendono in
considerazione gli aumenti misurati come un gruppo di osservazioni distribuite in modo casuale.
Altri metodi possono essere considerati specifici per le curve di livello per via del loro tentativo
di sfruttare le proprietà morfologiche e topologiche dell’area in esame. Attualmente molti DEM
(digital elevation model) sono generati usando strutture TIN, dove il problema principale non sta
nell’efficienza della tecnica di interpolazione ma nella scelta della rete di triangoli i cui nodi
rispecchino al meglio la reale morfologia del terreno esaminato. Di recente, la maggior parte dei
GIS incorpora di routine, per la produzione di DTM a partire dalle curve di livello o da punti di
quota, sia il formato Grid (raster) che TIN. Di solito, i produttori dei GIS sostengono che i loro
algoritmi siano molto efficienti ma spesso non forniscono alcuna prova evidente di tale
efficienza. Seppur con qualche eccezione, tale tematica ha ricevuto poca attenzione da parte
della comunità di ricerca e come risultato, la maggior parte dei DTM che vengono generati
all’interno dei GIS presentano molti vantaggi ma anche molte insidie. Vantaggi in quanto i vari i
dati forniti dal modello facilmente integrabili con tutti gli altri dati memorizzati nel database
geografico. Le insidie si celano dietro alle informazioni sulla capacità degli algoritmi di lavorare
nelle più svariate condizioni morfologiche. Prima di confrontare i DTM generati da una griglia e
una struttura TIN utilizzando i criteri visti in precedenza, è utile descrivere, in breve, cos’è un
DTM e quali sono le strutture più utilizzate.
1.2 Cos’è un DTM?
La superficie terrestre è un oggetto continuo; per creare un modello esatto di tale superficie
sarebbe quindi necessario avere a disposizione un numero di punti infinito; ciò richiederebbe una
memoria dati infinita, caratteristica che nessun sistema digitale può, e potrà, mai possedere.
Perciò, l’obiettivo di chi crea un modello digitale del terreno è quello di rappresentare una
superficie continua attraverso una quantità di dati finita. I modelli digitali del terreno sono nati
allo scopo di soddisfare questa esigenza. La creazione di modelli digitali del terreno è di recente
sviluppo, e la comparsa del termine Modelli Digitali del Terreno (DTM) è da attribuirsi a due
ingegneri del Massachussets Institute of Technology (MIT) alla fine degli anni cinquanta. Essi
stessi hanno definito il DTM come “una semplice rappresentazione statistica della superficie
continua del suolo attraverso un ampio numero di punti selezionati, di cui sono note le
coordinate (x, y, z), in un arbitrario sistema di riferimento”. Nello specifico, il loro primo lavoro
fu di definire la superficie di un certo terreno attraverso l’utilizzo di dati accuratamente
13
selezionati. Da allora sono stati introdotti ulteriori termini, quali Digital Elevation Model
(DEM), Digital Height Model (DHM), Digital Ground Model (DGM) e Digital Terrain
Elevation Data (DTED), per descrivere la suddetta operazione ed altre applicazioni ad essa
connesse. Sebbene nella pratica questi termini vengono considerati sinonimi, in verità spesso e
volentieri essi sono riferiti a differenti applicazioni. Sembra dunque opportuno fare chiarezza sul
significato dei suddetti termini. Visionando vari dizionari tecnici si riscontrano una moltitudine
di definizioni e significati per le parole ed i termini usati nella modellazione digitale del terreno.
Per esempio, il suolo viene definito come “la superficie solida della Terra”, “la superficie della
Terra”, “una porzione della superficie terrestre”, ecc.. Allo stesso modo, l’altezza può assumere
svariati significati, quali “distanza verso l’alto”, “misurazione dalla base alla cima” o “la
distanza, in direzione verticale, rispetto al suolo o ad un livello prefissato”. La quota può essere
definita come “l’altezza rispetto all’orizzonte” o “l’altezza rispetto un livello prefissato,
generalmente il livello del mare”. Infine, il terreno assume diversi significati, quali “un luogo
con riferimento alle sue caratteristiche naturali” o “un estensione finita del suolo, di regione, del
territorio, ecc..”. Sulla base di tali definizioni, si riscontrano alcune differenze tra i termini
sopracitati:
- DEM: il termine quota (elevation) mette in evidenza la misurazione delle altezze rispetto un
livello prefissato e l’altitudine assoluta, o quota, dei punti del modello. Il termine DEM è
ampiamente utilizzato negli USA ed è riferito, in genere, alla creazione di un insieme di quote,
normalmente su modelli quadrati o esagonali, del terreno.
- DHM: è un termine di uso poco comune con significato del tutto uguale al termine DEM, in
quanto le parole quota ed altezza (height) vengono considerate sinonimi.
- DGM: questo termine sembra mettere in evidenza il fatto che il modello digitale sia riferito alla
superficie solida della terra (ground). Perciò, si presume che vi sia una connessione tra gli
elementi, i quali non vengono più considerati discreti. Tale connessione deriva dal presupposto
che esista una funzione di interpolazione che può essere utilizzata per creare ogni punto della
superficie del suolo. Il termine viene molto utilizzato nell’Regno Unito (UK), sebbene ormai è
stato sostituito dal termine DTM.
- DTM: è un concetto più complesso rispetto a quelli sopracitati in quanto non include solo le
quote e le altezze ma anche altre caratteristiche, solitamente riportate nei GIS, quali le sponde
dei fiumi, cigli, ecc.. Nella sua forma generale, al DTM vengono associati sia i dati planimetrici
14
che altimetrici del terreno. Inoltre, i DTM possono includere informazioni riguardanti le
pendenze, la visibilità e così via.
- DTED: termine utilizzato dal Ministero della Difesa statunitense; descrive essenzialmente i
dati prodotti tramite un processo di modellazione, sebbene vengano utilizzati specificamente i
dati di una griglia di base.
Prima dell’avvento dei modelli digitali, la variabilità, la morfologia e le caratteristiche peculiari
di un rilievo sono state per lungo tempo rappresentate sulle carte topografiche con curve di
livello, disegni sfumati, tratteggi e retinature; tutte espressioni grafico-artistiche impiegate per
evidenziare in maniera sempre più chiara la forma fisica del suolo. Il grande apporto che hanno
dato i modelli numerici del terreno (DEM o DGM) é stato quello di poter rappresentare
fedelmente la forma del rilievo, illuminarla secondo direzioni differenti, secondo azimuth ed
altitudine, poter effettuare modelli tridimensionali per analisi paesaggistiche, calcolare la
pendenza, l’esposizione, ed altri parametri in maniera semiautomatica e con interessanti risultati.
Tuttavia soprattutto in ambito ingegneristico, occorre che il DEM sia preciso e corrisponda al
meglio alla vera forma del terreno, che le quote utilizzate per la modellazione siano esenti da
errori, che l’algoritmo di calcolo sia abbastanza “robusto” e prenda in considerazione il maggior
numero di parametri possibile per caratterizzare il paesaggio, senza considerare che in fase di
elaborazione, differenti programmi utilizzanti lo stesso set di dati, producono talvolta risultati
leggermente differenti. E questo solo se si tratta di DEM creati tramite interpolazione software.
Parlando di DEM ottenuti tramite tecniche utilizzanti immagini satellitari stereoscopiche le cose
si complicano, in quanto nel processo di calcolo intervengono fattori che influenzano il valore
“vero” topografico come la sommità delle abitazioni, la copertura vegetale, ecc... Si parla allora
più correttamente di DSM (Digital Surface Model), cioè la superficie di inviluppo che si
comporta come una specie di “lenzuolo” che ricopre tutte le forme emergenti dal suolo, non
fornendo evidentemente la quota reale riferita al livello del suolo. Pensare, ad esempio, di fare
calcoli di idrogeologia con modelli del genere rasenta un poco la follia; tuttavia è possibile
migliorare il prodotto, aggiungendo caratteristiche morfologiche del territorio come corsi
d’acqua, linee di cresta, bordi di falesia, depressioni, punti quotati, ecc.. ed effettuando
operazioni di morfologia matematica sul modello stesso. Tutto questo ha come scopo quello di
ottenere modelli più prossimi alla realtà che possano essere utilizzati a fini di calcolo.