6
Introduzione
Le attività di stage e tesi, svolte presso l’ Agenzia nazionale per le nuove tecnologie,
l’energia e lo sviluppo economico sostenibile ENEA, s’inquadrano nell’ambizioso
progetto internazionale sulle Smart Cities che negli ultimi anni sta assumendo una
considerazione preponderante.
Non esiste una definizione univoca di smart city: lo studioso olandese Peter Nijkamp
nel documento Smart cities in Europe afferma che una città è smart quando “ gli
investimenti in capitale umano e sociale, le infrastrutture di comunicazione tradizionali
(trasporti) e moderne (ICT), alimentano una crescita economica sostenibile ed
un’elevata qualità della vita, con una sapiente gestione delle risorse naturali,
ricorrendo ad una governance partecipata.”[1].
Il concetto di smart city è divenuto un paradigma su cui si focalizzano amministratori,
urbanisti, sociologi, economisti, ricercatori, che individua un modello urbano in grado
di migliorare il benessere degli abitanti in essa residenti nella consapevolezza che,
tanto più una città è vivibile, tanto più aumenta il livello di creatività, delle opportunità
di sviluppo, di lavoro, di partecipazione, d’integrazione e di coesione sociale.
I principali aspetti che rientrano in questo contesto sono [2]:
Governance partecipativa: rivedere le strategie amministrative e decisionali
coinvolgendo i cittadini nei temi di rilevanza pubblica; intraprendere iniziative e
investire le fonti di finanziamento a disposizione su temi d’interesse comune
volte all’integrazione sociale , alla libera fruizione dei servizi da parte del
cittadino e all’eliminazione delle barriere sociali ; utilizzare strumenti tecnologici
per digitalizzare ed abbreviare gli iter burocratici;
Ambiente: incentivare la riduzione della quantità di rifiuti e la raccolta
differenziata; razionalizzare l’illuminazione pubblica e l’edilizia, così da
abbattere l’imp atto del riscaldamento e della climatizzazione; salvaguardare le
aree verdi e recuperare quelle dismesse; sviluppare soluzioni tecnologiche per
lo sfruttamento delle fonti rinnovabili e per i relativi sistemi di distribuzione per
conseguire l’obiettivo di avere una città completamente sostenibile;
7
Mobilità: semplificare gli spostamenti quotidiani dei cittadini grazie
all’infomobilità e al mobility management e sviluppare tecnologie innovative e
sistemi funzionali per rendere i trasporti pubblici efficienti, a basso impatto
ambientale e minimizzando le emissioni di gas serra;
Turismo e beni culturali: valorizzare, in modo informatico, il territorio, il
patrimonio e le tradizioni culturali e promuovere l’i mmagine turistica in
Internet, come bene collettivo per i visitatori e per i cittadini stessi;
Educazione: puntare sulle nuove generazioni offrendo un contesto di studio
globale e interconnesso, potenziando le opportunità di condivisione della
conoscenza e l’accesso al mondo del lavoro, indispensabili per la crescita di
ogni individuo;
Cloud Computing: sfruttare le più moderne ed accessibili smart technologies in
termini di gestione e di condivisione dei dati, di protezione delle risorse e della
privacy, d’interconnessione tra i sistemi urbani esistenti, di comunicazione
ovunque e in ogni momento, semplificando così il modo di lavorare,
ottimizzando le risorse interne e mettendo al centro la figura del cittadino.
Numerose sono le iniziative in ambito internazionale ed italiano incentrate sulla
diffusione del concetto di città intelligenti e sullo sviluppo di soluzioni innovative,
basate su tecnologie ICT, per renderle efficienti e sostenibili.
In primis, il piano strategico per le tecnologie energetiche (SET Plan) propone iniziative
e progetti per il miglioramento dell’efficienza energetica e il conseguente
abbattimento delle emissioni di CO
2
con lo sfruttamento delle energie alternative.
In ambito europeo di primaria importanza è anche il Joint Programme promosso
dall’EERA ( European Energy Research Alliance) relativo alle Smart Cities; tale
programma è strutturato in 4 sezioni e si prefigge l’obiettivo di sviluppare metodi e
strumenti scientifici finalizzati all’ottimizzazione della gestione d ell’energia, in base
all’effettiva domanda , e all’integrazione di fonti rinnovabili entro le aree urbane.
Sempre a carattere internazionale, nei bandi europei previsti all’interno del nuovo
Programma Quadro di Ricerca e Innovazione 2014-2020 (Horizon 2020) la tematica
smart cities sarà predominante e porterà ad un’accesa competitività europea per
l’ingente budget messo a disposizione di 80 miliardi di Euro.
8
A livello italiano, i finanziamenti più rilevanti sono quelli stanziati dal Ministero
dell’Istruzione, Università e Ricerca (MIUR), attraverso dei bandi Smart Cities and
Communities. Alcune iniziative progettuali e sperimentazioni sono state avviate presso
gli enti di ricerca e in diversi comuni del territorio nazionale. In particolare, nel Centro
Ricerche Casaccia di ENEA è in corso un importante programma sperimentale al fine
realizzare un prototipo dimostrativo di Smart Village che possa trovare applicazione su
larga scala nei grandi centri urbani: le applicazioni “intelligenti” finora implementate
riguardano attività relative all’illuminazione pubblica, alla mobilità ed alla gestione
energetica degli edifici.
Questa tesi, con la collaborazione dell’Università degli S tudi di Roma Tre e il Politecnico
di Torino, si colloca nel segmento riguardante gli Smart Building, dal punto di vista
energetico e ambientale, attraverso il monitoraggio continuo dei consumi elettrici e
termici e la conseguente gestione e ottimizzazione.
In particolare, è stato analizzato il data fusion dei segnali provenienti dai numerosi e
diversi sensori, installati all’ interno dell’edificio F40 del Centro Ricerche Casaccia
dell’ENEA. Tutti i dati, in seguito ad opportune elaborazioni, sono stati inseriti in un
particolare database facente parte dell’omonima piattaforma ICT ( Information and
Communications Technology) Smart-Town affinché fossero sempre accessibili e,
quindi, presi in analisi durante il processo di diagnostica avanzata dell’intero sistema.
L’obiettivo della tesi è stato, quindi, l’implementazione, tramite codice JAVA, di un
metodo sicuro e affidabile in grado di individuare in modo automatico e in tempo reale
eventuali anomalie, evidenziandone anche la criticità, e risalire alle cause che le hanno
generate in maniera diretta, rapida e semplice senza dispersione di forze e di tempo
per la ricerca del guasto.
La tesi è articolata in 7 capitoli: il primo esamina i metodi di rilevamento delle
anomalie e di diagnosi presenti in letteratura, applicabili a qualsiasi tipologia di
processo, facendo una distinzione tra quelli che si basano su modelli o sui dati storici.
Il secondo capitolo introduce il concetto di commissioning applicato agli edifici e si
sofferma sui diversi approcci di FDD (Fault Detection and Diagnosis), applicabili agli
stessi.
Il terzo capitolo entra in dettaglio nel progetto Smart-Town di ENEA, inizialmente dal
punto di vista prettamente informatico con la descrizione della piattaforma ICT per
9
arrivare a considerare la sensoristica installata in loco e i principi su cui si basano
l’acquisizione e la gestione dei dati.
Nel quarto capitolo sono illustrati lo studio teorico e gli steps concettuali sulla base dei
quali viene elaborata l’attività di diagnostica che viene infine implementata mediante
codice JAVA per avere un riscontro sui risultati ottenuti sperimentalmente.
Il quinto capitolo riporta le modifiche e gli accorgimenti che sono stati necessari
affinché il sistema nel suo complesso fosse integrato nell’intero progetto Smart -Town
e funzionasse in real-time e in modo sincronizzato con il programma di rilevamento dei
picchi di consumo elettrico. Infine sono mostrati i risultati della siffatta analisi
diagnostica, durante il mese di marzo su cui ci si è focalizzati.
Nel sesto capitolo è condotta un’analisi delle caratteristiche dell’illuminazione naturale
negli ambienti interni, definendo le principali grandezze illuminotecniche coinvolte e il
fattore di luce diurna; sono riportate inoltre le potenzialità dei software di simulazione
con i quali è possibile stimare l’andamento dell’illuminamento negli ambienti interni e
verificare, dinamicamente, in quali condizioni e in quali aree siano garantiti i valori
minimi stabiliti dalle disposizioni normative a riguardo.
Il settimo capitolo costituisce un elemento aggiunto della tesi in cui sono definiti i
criteri per lo studio e la messa in atto della seconda regola diagnostica.
10
Capitolo 1
Stato dell’arte del FDD
1.1 Introduzione
Per il miglioramento dell’affidabilità, sicurezza ed efficienza, oltre che per ragioni
economiche, senza tralasciare tuttavia, la robustezza e la stabilità, metodi sempre più
complessi, automatizzati ed avanzati di supervisione sono divenuti di fondamentale
importanza per molti processi tecnici ad elevate prestazioni e ad alti standard
qualitativi di produzione. Ad esempio, le moderne industrie di larga scala operano con
un numero elevato di variabili e si basano su strumentazioni che hanno a che fare con
una mole di dati sfruttabili anche per l’individuazione di anomalie dovute al
malfunzionamento di un componente o al verificarsi di un qualsiasi evento inaspettato.
Sono stati, così, presi fortemente in considerazione e hanno trovato pieno sviluppo
negli ultimi anni i sistemi diagnostici.
In relazione alle funzionalità cui assolvono ed alle performances, tali sistemi sono
chiamati FDD (Fault Detection and Diagnosis), FDI (Fault Detection and Isolation) o
FDIA (Fault Detection, Isolation and Analysis) proprio al fine di effettuare una ricerca
dei guasti, risalendo alle cause che le hanno generate ed isolando, il prima possibile,
quei fattori che ne hanno dato origine. Gli output sono segnali di allarme classificati
che mostrano quale anomalia si è verificata o dati di tipologia definita che ne riportano
informazioni circa l’entità e la pericolosità per il processo o i processi ad essa correlati.
Di seguito è riportata, per evitare ambiguità, la corrente terminologia inerente i
concetti principali dello stato di un sistema e dei segnali ad esso correlati:
FAULT (anomalia): deviazione non consentita di almeno una proprietà
caratteristica o un parametro del sistema dal valore corretto;
FAILURE (guasto): permanente interruzione dell’abilità del sistema di effettuare
una funzione richiesta sotto specifiche condizioni operative e può derivare da
11
un’anomalia. Un fondamentale problema risiede nel contesto del trade-off tra il
non rilevamento e i falsi allarmi;
MALFUNCTION (malfunzionamento): irregolarità intermittenti nell’esecuzione
del processo;
RESIDUALS (residui): indicatori, definiti sulla deviazione tra le misurazioni
effettuate e i calcoli (reali o teoricamente corretti), basati su equazioni di
modelli di una variabile d’output. Dovrebbero rimanere piccoli (idealmente
nulli) per il tempo in cui non c’è un’anomalia e divengono sufficientemente
grandi da notare quando avviene un malfunzionamento;
DISTURBANCE (disturbo): input incontrollato e non noto che agisce sul sistema;
SYMPTOM (sintomo): cambiamento di una quantità osservabile dal normale
comportamento.
Per molti anni il processo di FDD è stato un’attiva area d’investigazione e sviluppo
nell’ambito aerospaziale, co ntrollo di processi, di produzione, nucleare e di difesa
nazionale. Negli ultimi anni l’attenzione si è focalizzata sulla possibilità di
automatizzare e di estendere tale metodologia anche ad applicazioni più contenute,
quali edifici, e a tutti quei sistemi che necessitano di un continuo controllo al fine di
garantire la miglior performance e la sicurezza di coloro che operano [3,4].
1.2 Il processo di FDD
L’obiettivo primario di un processo di FDD è la preventiva rilevazione di anomalie e la
diagnosi delle cause che le hanno generate, con conseguente correzione del fault,
prima che si verifichi un ulteriore danneggiamento del sistema o una perdita di
efficienza. Questo è garantito da un continuo monitoraggio dell’ operatività
12
individuando eventuali condizioni abnormi, valutandone la gravità e decidendo come
agire di conseguenza. In fig.1.1 è mostrato in modo schematico il funzionamento di un
processo di FDD automatizzato, in supporto dell’operati vità e della gestione di un
qualsiasi engineered system, che consiste in quattro fasi distinte [5]:
1. Rilevamento dell’anomalia attraverso il continuo monitoraggio del sistema
fisico o del dispositivo in questione;
2. Diagnosi dell’anomalia e determinazione delle cause che l’hanno generata :
questi primi 2 punti costituiscono, nel loro insieme, il processo di FDD;
3. Valutazione dell’anomalia, dal punto di vista dell’entità e dell’impatto su lle
performances del sistema stesso (in termini di consumi energetici, costi,
disponibilità, sicurezza) o di altri sistemi eventualmente coinvolti;
4. In base all’entità dell’anomalia, viene presa una decisione su come intervenire
(ad esempio applicando un’azione correttiva).
Figura 1.1 -- Schema del processo di Fault Detection and Diagnosis
13
Per quanto riguarda le funzionalità di un processo di FDD è necessario evidenziare i
seguenti aspetti, riportati in modo cronologico alla loro esecuzione:
FAULT DETECTION: processo che determina la presenza di un’anomalia nel
sistema e il tempo di rilevamento;
FAULT ISOLATION: processo che isola la specifica anomalia che si è verificata e
ne determina sia la tipologia sia la locazione registrando il momento in cui si è
verificata;
FAULT IDENTIFICATION: determina l’entità e il comportamento al variare del
tempo dell’anomalia . Segue il fault isolation;
FAULT DIAGNOSIS: indica l’unione delle funzionalità del fault detection e fault
identification. Segue il fault detection;
MONITORING: un continuo task real-time relativo ad un sistema fisico che
registra informazioni, riconosce e rileva anomalie nel comportamento;
SUPERVISION: monitora il sistema e compie determinate azioni per mantenere
l’operatività in caso di malfunzionamento.
In letteratura è presente una moltitudine di approcci usati per rilevare e diagnosticare
anomalie che variano, ad esempio, nella sequenzialità di queste 2 operazioni: in alcuni
casi, il sistema di rilevamento funziona continuamente mentre quello diagnostico è
triggerato, ossia agisce solo in presenza dell’anomalia; in altri casi, i 2 processi
agiscono in parallelo ed in alcune applicazioni sono eseguiti nello stesso momento.
I criteri vanno da metodi basati su modelli fisici ed analitici a quelli che si basano sui
dati delle performances, usando l'intelligenza artificiale (reti neurali) o tecniche
statistiche. In materia di metodi di valutazione e di decisione in letteratura sono
riscontrabili pochi studi [3,4,5,6].
14
1.3 Sviluppo storico del processo di FDD
Il metodo tradizionale per ottimizzare l’attendibilità e l’affidabilità di un particolare
sistema consiste nel migliorare la qualità, l’efficienza e la robustezza di ogni relativo
componente, come sensori (d’input e di output), attuatori, controllori (fig.1.2). Anche
così, tuttavia, non può esserne garantita la perfetta operatività in quanto si possono
presentare perturbazioni o sorgenti di rumore, non prevedibili, quanto meno
incontrollabili, che interferiscono e determinano risultati d’output che si discostano da
quelli attesi [4,6].
In fig.1.3 è riportata una prima classificazione delle svariate tecniche diagnostiche
presenti in letteratura e, brevemente, ne sono illustrati gli schemi di principio.
Figura 1.2 -- Schema di un tipico sistema e dei relativi componenti
Figura 1.3 -- Classificazione delle tecniche di FDD
15
Hardware (o physical) redundancy based fault diagnosis: consiste nella
riproduzione dei componenti di processo usando componenti hardware
ridondanti. Un’anomalia è individuata se il valore d’output di un dispositivo
risulta diverso da quello ridondante corrispondente (fig.1.4). Il vantaggio di
questo schema è la sua elevata attendibilità e il diretto isolamento
dell’eventuale fault; al contrario, risulta molto costoso per l’uso di componenti
hardware extra e per lo spazio addizionale necessario in cui collocarli. L’uso di
tale procedura è, quindi, destinato ad un numero limitato di applicazioni.
Plausibility based fault diagnosis: si basa sul controllo di semplici leggi fisiche
sotto le quali opera uno o più componenti di processo. Sulla concezione che
un’anomalia porta ad una perdita di plausibilità, controllando tale aspetto si
potranno ricavare informazioni circa il fault d’interesse. Il test, per la sua
efficienza nella rilevazione e nell’isolamento di fault , risulta limitato in sistemi
complessi (fig.1.5).
Figura 1.4 -- Hardware redundancy based fault diagnosis
Figura 1.5 -- Plausibility based fault diagnosis