I-7
INTRODUZIONE
L'umanità è un enzima che catalizza il passaggio da
un'intelligenza a base di carbonio a un'intelligenza a base di
silicio
Gérard Bricogne
1
L'umanità è giunta nell'era del digitale e la parola d'ordine vigente è:
"informazione". E' anni luce distante il 1946, data che vede per la prima volta
un computer capace di moltiplicare addirittura un numero per se stesso 5000
volte al secondo, pesante 30 tonnellate e, con le sue 18000 valvole
termoioniche, dissipare una potenza di 200 Kilowatt. Oggi i dispositivi di
calcolo permeano la nostra vita; attraverso tecnologie di costruzione dei chip
al silicio giunte a pochi nanometri possiamo permetterci di avere in tasca
smartphone la cui potenza di calcolo supera quella dei mastodontici Personal
Computer che solo 10 anni fa occupavano le nostre scrivanie. Lo sviluppo
delle tecnologie informatiche, a partire dai primi esperimenti durante la
Seconda Guerra Mondiale, è stato così concreto che negli anni si è andata
affermando una legge empirica, la "legge di Moore", ancora valida, che recita:
"le prestazioni dei processori e le prestazioni ad esso relativo raddoppiano
ogni 18 mesi"
2
.
1
Bricogne, G., citato in Alan Mackay, A dictionary of scientific quotations, cit., p. 39.
2
Tanebaum, S. A., Architettura dei Computer - Un approccio strutturato, UTET, 2000, p. 23.
I-8
Ray Kurzweil, noto inventore esperto in algoritmi di riconoscimento e
apprendimento e studioso di storia della tecnologia spiega che, sebbene la
nostra percezione dell‟avanzamento e miglioramento tecnologico sia lineare,
questo procede con un ritmo incalzante a carattere esponenziale. Anzi, egli ha
notato che alcuni settori tecnologici come quelli dell‟informazione producono
con un ritmo più che esponenziale. Kurzweil ritiene che oggi percorriamo il
gomito di quest‟andamento e di conseguenza siamo in procinto di un
esplosione tecnologica senza precedenti
3
.
E' noto che non è solo la potenza di calcolo, comunque essenziale, a guidare il
processo tecnologico nel campo dell'"informazione". I maggiori passi avanti
sono stati fatti grazie all'avvento di nuove famiglie di algoritmi capaci di
approcciare istanze di problemi un tempo considerati irrisolvibili. A mio
parere è stupefacente che i migliori tra questi derivino da un attento studio ed
emulazione della natura. Si pensi alle reti neuronali ispirate al cervello
biologico o agli algoritmi evolutivi ispirati all'evoluzione. Attraverso questi
ultimi oltre a guidare sistemi e processi caotici e altamente non lineari è
possibile fornire quella non sempre naturale evoluzione semantica che porta il
dato a diventare conoscenza, passando per uno stadio intermedio che è
l'informazione.
Questo elaborato ha come oggetto una nascente applicazione, delle tecnologie
ICT alle reti energetiche, che rimarrà fiorente per molti decenni. In altre parole
si occupa di "Smart Grid" ovvero di come iniettare intelligenza in rete. La
comunità scientifica è coesamente in accordo che la rete odierna è obsoleta e
inefficiente, in quanto troppo meccanica e poco interrelata: serve l'intelligenza.
Immaginiamo adesso di cospargere la rete di una miriade di sensori di ogni
tipo, immaginiamo ancora di avere una rete di TLC di supporto efficiente e un
insieme di strutture di calcolo distribuito, con potenti algoritmi, capaci di
trasformare sterili dati in informazioni significative per la rete stessa. Tale
3
Kurzweil, R., La singolarità è vicina - Una teoria dell'evoluzione tecnologica, Apogeo, Milano, 2008, Cap. 1.
I-9
rete, oltre a diventare un sistema da cui emergono fenomeni complessi, può
raggiungere una sorta di autocoscienza utile al suo corretto funzionamento.
Il futuro vede l‟integrazione delle tecnologie ICT a tutti i livelli, fino a
giungere nelle nostre abitazioni e nei dispositivi della digital economy. Tale
integrazione addestrerà l'utenza finale cercando, tramite opportuni metodi, di
modificarne il comportamento rendendola virtuosa rispetto ai consumi ed agli
sprechi. Questo epocale cambiamento di paradigma deriva non solo da un
inesorabile "passaggio di stato" possibile grazie alla disponibilità di calcolo,
ma anche a stringenti vincoli economici e ambientali come l'inquinamento e il
conseguente surriscaldamento del pianeta. Tali problematiche sono andate
delineandosi nell‟ultimo ventennio e sono diventate un obiettivo strategico per
l'umanità con gli accordi di Kyoto (1997). Il rinnovamento tecnologico
relativo alle Smart Grid deve essere conseguito rispettando normative quadro
vigenti emanate dalla Comunità Europea (in Europa) e recepite dagli stati
attraverso regolamentazioni adatte al sistema nazionale di produzione,
stoccaggio, trasporto e distribuzione dell‟energia. L‟innovazione apportata
dalle reti elettriche di nuova generazione deve essere consona alle regole di
mercato totalmente libero qual è quello degli Stati avanzati ad economia di
mercato. La Smart Grid è indispensabile per le nuove forme di produzione
dell‟energia provenienti dalle fonti rinnovabili, come ad esempio eolico o
solare. Queste ultime sono considerate energie ad intermittenza essendo la
loro disponibilità altamente dipendente dalle condizioni ambientali. Inoltre, se
prendiamo nuovamente come esempio l‟energia solare, si sa che la maggiore
disponibilità è nelle ore di punta, ovvero nelle ore e nei mesi di massima
insolazione. Rispetto all‟utenza casalinga vi è un disallineamento tra i picchi
di consumo, spesso nelle ore serali e i picchi di produzione. Tale energia può
essere immagazzinata in opportuni accumulatori, ma attraverso la Smart Grid
può essere immessa in rete con possibili vantaggi economici dell‟utente sulla
bolletta. Bisogna quindi prevedere un'infrastruttura che contenga gli sbalzi e
assicuri potenza in range di sicurezza, essendo alcune utenze di fascia protetta
(e.g. gli ospedali). Tale sicurezza deve essere presente, quindi, a tutti i livelli.
I-10
Si pensi all‟importanza dei segmenti ad alta tensione (AT) che devono essere
particolarmente preservati in quanto sorgenti per numerosi sottosegmenti
elettrici che alimentano interi distretti, alcuni anche di grandi dimensioni.
L‟infrastruttura integrata ha bisogno innanzitutto di un sistema di
comunicazione di tipo protocollare in quanto, i vari elementi del sistema
devono essere messi in grado di dialogare rispettando parametri di sicurezza,
(latency, probabilità di perdita, etc.) e di consegna dei dati. Gli elementi del
sistema devono essere “intelligenti” secondo una nuova concezione, profilatasi
nella teoria delle reti, che è l‟intelligenza distribuita, possibile con
un'infrastruttura a gestione non centralizzata. Questo è importante poiché le
nuove tecnologie in materia di sensoristica di rilevamento dati e di
elaborazione ad alta velocità consentono l‟immissione in rete di una grossa
mole di informazione, parte della quale potrebbe interessare una data zona e
non un'altra. I problemi di una gestione centralizzata sono ben noti, possiamo
annoverare ad esempio, la debolezza rispetto ai guasti o ai malfunzionamenti.
Una rete ad intelligenza distribuita potrebbe permettere di isolare la zona
colpita e continuare il proprio servizio senza subire particolari danni o
malfunzionamenti conseguenti. Il meccanismo di raccolta, dislocazione ed
elaborazione dell‟informazione riguardante la rete elettrica può essere utile
non solo per scopi direttamente legati al funzionamento ottimale della stessa
dal punto di vista infrastrutturale, ma anche per consentire alle società di
gestione della distribuzione nuove modalità di rendicontazione e quindi
applicare tariffe differenziate (come le tariffe biorarie introdotte, in Italia da
Enel). Ciò, assieme ad altri elementi, dovrebbe consentire di dirigere le scelte
dell‟utente verso comportamenti virtuosi. Questo è possibile anche perché
l‟infrastruttura di telecomunicazioni e la tecnologia ICT non interessano solo
produzione, stoccaggio e distribuzione, quindi gli elementi strutturali della rete
elettrica, ma anche dispositivi di utente capaci di scambiarsi informazioni utili
all‟ottimizzazione della fruizione dell‟energia e del cost saving. Importante è
la scelta del modello di comunicazione e dei protocolli da utilizzare, gli studi e
le considerazioni recenti vedono i protocolli proprietari abbastanza sicuri ma
I-11
limitativi, mentre nuove proposte e standard possono permettere un più veloce
adeguamento di tutta la filiera energetica. Si è quindi del parere di indirizzare
le proprie forze verso scelte ibride, scelte effettuabili solo dopo un attento e
puntuale studio, prima teorico, poi pratico. In definitiva il terreno è ancora
fresco e permette di seminare idee per alimentare la ricerca in tal senso e la
realizzazione dell‟infrastruttura accennata.
L'Intelligenza Artificiale ed in particolare l'Intelligenza Computazionale
promettono bene in materia di ottimizzazione dei sistemi di rete,
efficientamento e riduzione delle emissioni nocive. Algoritmi e sistemi di
elaborazione nell'ambito dei Sistemi Complessi ed in particolare delle Smart
Grid hanno una collocazione ben precisa: le Computational System Thinking
Machine. Le CSTM sono metodi computazionali, modelli e strutture di calcolo
fisiche che rendono fattibili soluzioni altrimenti impossibili, dal momento che
tendono a delineare i limiti dei processi computazionali stessi. Esse
costituiranno, in maniera sempre più fondamentale, il sistema nervoso centrale
della rete energetica.
Una importante applicazione intelligente nell'ambito delle Smart Grid è il
Demand Side Management, che consente di gestire ed ottimizzare la domanda
d'utente permettendo che alcuni tasks che richiedono energia possano essere
traslati temporalmente. In altre parole il futuro prevede la possibilità di operare
lo scheduling della richiesta energetica al fine di regolarne il profilo. Un
esempio potrebbe essere il lavaggio degli indumenti o delle stoviglie oppure la
carica della batteria delle cosiddette Plug-in Electric Vehicle (PHEV), altra
tecnologia chiave del mondo delle Smart Grid. Tale gestione può essere
effettuata a livello d'utente oppure a livello di utility che serve il distretto
energetico.
Al fianco di tale applicazione, in questa ricerca è proposto un modello che
simula un sistema intelligente di gestione dei flussi energetici, in particolare
tale applicazione è nota anche come Time-of-use (TOU) energy cost
management, nell'ambito di un distretto energetico servito da una cosiddetta
I-12
microgrid. Lo scenario immaginato è una zona ad alta densità di produzione
energetica da fonti rinnovabili la cui micro rete elettrica è collegata alla rete
madre. Data la nota intermittenza e stocasticità di tali fonti, si è pensato ad un
dispositivo di accumulo dell'energia eventuale in eccesso utilizzato per operare
time-shift energetico. Il sistema è basato principalmente su due decisori fuzzy,
i quali date in ingresso le informazioni relative allo stato della rete ed al prezzo
dell'elettricità, computano ed inviano azioni riguardanti l'acquisto/vendita
verso l'esterno e il prelievo/iniezione verso l'accumulatore dell'energia. La
scelta di utilizzare la logica fuzzy deriva dalla speciale capacità di controllare
processi che presentano non-linearità attraverso semplici regole che catturano
la conoscenza di un essere umano esperto. Inoltre la stessa semplicità con cui
sono definite le regole consente di inserire nuove variabili di controllo e nuova
conoscenza senza entrare nel merito di complicati modelli matematici, talvolta
addirittura non noti a priori. Tale conoscenza, oltre ad essere inserita in
modalità off-line come si faceva tradizionalmente, può essere "scoperta" dal
sistema stesso tramite sofisticate tecniche di apprendimento (machine
learning). Tali tecniche rientrano nell'ambito dell'Intelligenza
Computazionale. Il sistema operante decision making presenta 27 semplici
regole fuzzy inserite in un cosiddetto Fuzzy Inference System i cui parametri
sono ottimizzati mediante un algoritmo nature inspired. La scelta è caduta
sugli Algoritmi Genetici. Essi di fatto consentono di operare ricerca nello
spazio delle soluzioni in maniera efficiente dal punto di vista computazionale
(sia dal punto di vista spaziale, che temporale). Gli Algoritmi Genetici si
differenziano dai metodi random search in quanto la ricerca è guidata dalla
selezione naturale, introdotta da C. Darwin nel 1859, degli individui
(soluzioni) migliori, di generazione in generazione.
Ciò che si vuole studiare è la possibilità di migliorare l'efficienza economica di
una microgrid ad alta densità di produzione da fonti rinnovabili, in un
semplice sistema di mercato energetico i cui prezzi sono variabili nell'arco
giornaliero. Il modello è stato pensato nell'ambito di un sistema più generale
dove coesistono un insieme di microgrid possedenti il sistema decisionale
I-13
accennato. Da una prospettiva più astratta e di carattere metodologico ogni
microgrid può essere pensata come un agente con capacità di decisione semi-
autonoma. L'insieme di tali agenti formano un cosiddetto sistema multi agente.
Tale caratterizzazione deriva dal fatto che entità intelligenti si integrano e
vanno a formare un sistema che può possedere una certa struttura astratta ed
una certa complessità.
Tale ricerca è uno sforzo nella direzione recentemente tracciata dalla
letteratura, di ottimizzare le risorse energetiche sfruttando paradigmi, tecniche
e algoritmi afferenti al campo dell'Intelligenza Computazionale e del Soft
Computing.
L'elaborato è organizzato in due parti:
La Parte I rispecchia il percorso di studio effettuato durante la ricerca,
percorso intrapreso con modalità top-down, ovvero una descrizione
delle Smart Grid e delle problematiche ad esse relative.
La Parte II è dedicata allo stato dell'arte e alla presentazione della
metodologia e dei risultati ottenuti in questa proposta di lavoro.
Il contenuto dei capitoli è il seguente.
Il Primo capitolo propone una panoramica di ampio respiro sull'innovativo
campo delle Smart Grid, descrivendone i paradigmi principali e i driver che ne
consentiranno lo sviluppo. Esso si sofferma brevemente sulla problematica
chiave che tende ad avere un "effetto elastico" sullo sviluppo: la
standardizzazione, e prosegue con accenni sugli indirizzi di ricerca dei
maggiori istituti mondiali in ambito energetico.
Il Secondo capitolo tenta un approccio sistemico alle Smart Grid,
descrivendone le componenti principali in termini di rete: le microgrid. Sono
discussi tutti gli elementi che portano ad avere una rete intelligente, soprattutto
dal punto di vista del controllo. L'approccio di base presentato è quello della
Smart Grid come un Sistema di Sistemi Complesso.
I-14
Il Terzo capitolo è uno studio bibliografico sulle applicazioni di metodi e
paradigmi principali di Intelligenza Computazionale alle Smart Grid attraverso
l'introduzione delle CSTM.
Il Quarto capitolo si concentra sullo stato dell'arte delle applicazioni di
Demand Side Management e di Flow Control e introduce e discute
dettagliatamente il modello proposto.
Il Quinto capitolo si occupa, in una prima parte del sistema di inferenza fuzzy
operante decision making sui flussi, descrivendone la metodologia adottata; la
seconda parte è interamente dedicata ad alcune modalità di ottimizzazione dei
parametri del sistema fuzzy tramite un Algoritmo Genetico.
Il Sesto capitolo si occupa della presentazione e discussione dei risultati
ottenuti, confrontando le varie tecniche di ottimizzazione genetica di un Fuzzy
Inference System proposte nel capitolo Quinto.
Nell'Appendice A si riporta una descrizione generale e sintetica sulla struttura
del software di simulazione, realizzato in linguaggio MATLAB
®
.