Sommario
II
aggiornamento sequenziale), OSWLS+SOR (Ordinated Subsets Weighted
Least-Squares + Successive Over Relaxation; minimi quadrati pesati secondo
la radice del valore di emissione; usa sottoinsiemi ordinati e tempi di
rilassamento aumentati) e Gradiente Coniugato (minimizzazione con
aggiornamento globale di tutti i pixel procedendo nelle direzioni relative al
gradiente coniugato).
Definiamo nel seguito la rilevanza scientifica e applicativa che, a nostro parere,
ha questo lavoro, i metodi utilizzati per svilupparlo e le conclusioni cui siamo giunti.
(a) Rilevanza scientifica e applicativa
Il problema di avere immagini ricostruite sufficientemente dettagliate è presente
in tutti i metodi di diagnostica per immagini, ma è particolarmente sentito nei sistemi
di medicina nucleare che hanno limiti di risoluzione intrinseci legati alla fisica dei
processi in gioco (ad esempio scatter ed attenuazione dei fotoni) ed al sistema di
detezione (ad esempio PSF (Point Spread Function) del collimatore ed efficienza di
detezione del materiale scintillatore).
Un altro problema presente in questo settore è quello dei costi, che ha finora
limitato la diffusione in ambito clinico degli algoritmi iterativi: questi ultimi, infatti,
hanno un elevato costo computazionale ed hanno finora richiesto sistemi dedicati di
post-elaborazione.
Dall’analisi della letteratura relativa all’argomento in esame è stata messa in
luce la presenza dei diversi algoritmi iterativi citati precedentemente, per i quali,
però, non è disponibile un confronto sistematico.
Infine, vi è la necessità di introdurre negli algoritmi le caratteristiche fisiche del
sistema di acquisizione specifico in modo semplice ed efficiente.
Sommario
III
(b) Metodologia
Per affrontare i problemi sopra elencati abbiamo innanzi tutto comparato in
modo sistematico gli elementi caratterizzanti dei diversi algoritmi iterativi per
valutarne l’effetto dal punto di vista della qualità dell’immagine ricostruita e
dell’efficienza computazionale. Tali elementi caratteristici sono legati,
principalmente: alla funzione obiettivo da massimizzare/minimizzare ed in
particolare al suo significato fisico/statistico; alla presenza di fattori di
regolarizzazione; al metodo di calcolo dell’errore (additivo o moltiplicativo) e di
ridistribuzione dello stesso; ai detettori considerati ad ogni aggiornamento (tutti
oppure sottoinsiemi ordinati); ed infine, alla sequenza di aggiornamento dei pixel.
L’analisi sistematica di questi fattori ha portato alla tabella riassuntiva del
paragrafo 3.8.
Il comportamento di questi differenti metodi è stato analizzato sia da un punto di
vista computazionale sia dal punto di vista della robustezza nel confronto di varie
alterazioni dei dati disponibili. A tal fine si sono realizzate simulazioni su semplici
immagini di ridotte dimensioni: immagine impulsiva, immagine a forma di Z,
immagine del fantoccio di Shepp-Logan ed immagine del fantoccio di Hoffman. Da
queste immagini sono stati simulati dei sinogrammi da cui sono state poi ricavate le
immagini ricostruite da confrontare; i tempi di calcolo e le proprietà di convergenza
sono stati verificati sia su simulazioni di dati non degradati sia su dati degradati. Su
questi ultimi si sono verificate le proprietà di robustezza dei singoli algoritmi.
I parametri dei dati degradati che sono stati analizzati riguardano la densità di
campionamento angolare del sinogramma e l’effetto del rumore Poissoniano di
rivelazione e di emissione con diversi rapporti segnale/rumore.
Il confronto fra le immagini ricostruite dai diversi algoritmi iterativi e
dall’algoritmo FBP è stato operato mediante lo scarto quadratico fra l’immagine
ricostruita e l’immagine originale non degradata.
L’efficienza degli algoritmi è stata analizzata valutando il numero di iterazioni
necessarie alla convergenza e i tempi di calcolo per ogni iterazione.
Sommario
IV
Dal punto di vista della realizzazione dei programmi di calcolo si è seguito un
approccio innovativo per eliminare una costruzione esplicita della matrice di sistema.
Questo al fine di ottimizzare le strutture dati maneggiate e di rendere più flessibile
l’introduzione dei più importanti elementi fisici dei meccanismi di raccolta dei dati
reali, come meglio precisato in seguito.
La matrice di sistema riassume la relazione fisica fra ciascuno degli N
2
pixel
emettitori e gli ordine N
2
(in seguito abbreviato con o(N
2
)) detettori del sinogramma;
essa è, dunque, o(N
4
). La costruzione di questa, che è di gran lunga la struttura dati
più grande da maneggiare, è stata eliminata per quanto concerne l’aspetto della
proiezione di una griglia quadrata di pixel su angolazioni oblique. In sostituzione
sono stati utilizzati degli algoritmi di rotazione dell’immagine.
In una fase successiva si è passati alla modifica degli algoritmi per permettere
l’analisi di dati reali di acquisizioni SPECT. Si sono cosi’ introdotti gli effetti fisici
dell’attenuazione e della divergenza geometrica del collimatore. Il primo effetto è
stato incluso introducendo un peso di attenuazione esponenziale a partire dal bordo
dell’oggetto in presenza di un coefficiente di assorbimento costante. L’effetto del
collimatore è stato introdotto mediante una maschera triangolare che si allarga a
partire da ogni detettore e che include sempre più pixel man mano che ci si allontana
dal detettore; questo tiene conto della PSF (Point Spread Function) che si allarga via
via che si osservano strati più profondi. L’approccio basato su algoritmi di rotazione
ha permesso di introdurre questi parametri fisici in modo estremamente flessibile
basandosi sul calcolo di maschere di dimensione o(N
2
) anziché su una matrice di
sistema o(N
4
). Si tenga presente che la matrice di sistema andrebbe ricalcolata
ogniqualvolta venisse a cambiare anche solo uno di questi parametri fisici.
Gli algoritmi più efficienti fra quelli analizzati, vale a dire OSEM e
OSWLS+SOR, sono stati cosi’ modificati ed applicati a dati reali raccolti, con la
macchina SPECT PRISM 3000XP dell’azienda PICKER, usando un fantoccio di
Hoffman riempito con 5 mCi di Tecnezio (Tc
99m
). Le caratteristiche di convergenza
sono state analizzate in base alla qualità delle immagini ricostruite ed alla
Sommario
V
verosimiglianza, confrontando il comportamento degli algoritmi in presenza ed in
assenza dei parametri fisici di acquisizione.
(c) Risultati
Dall’analisi effettuata è risultato che con i metodi iterativi, a differenza della
retroproiezione (FBP), l’uso di un numero di proiezioni angolari minore di quello
imposto dal teorema del campionamento non ha effetti di sottocampionamento
evidenti, fornendo, però, vantaggi computazionali.
Le simulazioni in assenza di rumore non hanno evidenziato grosse differenze tra
metodi a massima verosimiglianza e ai minimi quadrati, mentre hanno messo in luce
che la tecnica SOR, sfruttata nei metodi PWLS e OSWLS+SOR, converge
privilegiando le basse frequenze e perciò dando un effetto di smoothing che evita di
post-filtrare la ricostruzione. L’aggiunta di rumore Poissoniano ha in seguito esaltato
il fenomeno del “noise break-up”, consistente nell’accentuazione delle alte frequenze
e che rappresenta il principale limite dei metodi a massima verosimiglianza; a causa
di questo problema è necessario introdurre termini di regolarizzazione che
introducono uno smoothing sull’immagine, con un parametro 0< Ε<1 che modula
l’effetto passa basso e che è determinato sperimentalmente in base alla risoluzione
voluta per ogni tipo di indagine clinica.
I metodi sequenziali (SAGE 3 e PWLS) non sono applicati in clinica a causa dei
tempi di calcolo eccessivi, mentre il gradiente coniugato fornisce immagini
indistinguibili dal rumore di fondo per rapporti SNR bassi come conseguenza della
mancanza di una condizione di non negatività.
Dopo queste fasi di simulazione l’algoritmo OSWLS+SOR sembra essere il
migliore, ma le successive prove effettuate sui dati reali tenendo conto, negli
algoritmi, anche dell’attenuazione e della divergenza geometrica del collimatore,
hanno indicato l’OSEM come l’algoritmo che fornisce le immagini di maggiore
qualità (“misurata” con la cifra di merito verosimiglianza). Le ricostruzioni
Sommario
VI
dell’OSWLS+SOR diventano peggiori in quanto contengono uno smoothing che
esclude le frequenze maggiori che, invece, potrebbero contenere importanti
informazioni.
La compensazione della divergenza geometrica del collimatore, effettuata
sfruttando i dati tecnici del collimatore stesso, permette di realizzare un filtro passa-
basso più adatto al sistema di acquisizione specifico di qualsiasi pre- o post-
elaborazione dei dati.
Infine, abbiamo notato che il nostro metodo di sostituzione della matrice di
sistema con le rotazioni della ricostruzione ha notevoli potenzialità sia nel campo
bidimensionale, sia in quello tridimensionale. Già nel caso 2D, infatti, la suddetta
matrice ha un numero di elementi elevato (ordine N
4
, dove N è la dimensione
dell’immagine in pixel), che devono essere ricalcolati ogniqualvolta si vogliano
introdurre effetti quali l’attenuazione e la PSF del collimatore, oppure quando si
voglia variare il numero di proiezioni angolari (dimensione del sinogramma): con il
nostro metodo, oltre ad eliminare la matrice, si agevola l’introduzione di queste
variazioni e se ne riduce l’onere computazionale (uso di maschere ordine N
2
, uguali
per tutte le proiezioni, anziché matrice di sistema ordine N
4
).
L’estensione al caso 3D, possibile evoluzione del nostro lavoro, dovrebbe
avvantaggiarsi ancora di più dell’eliminazione della matrice di sistema, anche in
ragione del fatto che in tal caso la matrice aumenta le sue dimensioni di almeno un
ordine di grandezza.
Summary
I
SUMMARY
This thesis is relevant to bioimages, namely tomographyc images from nuclear
medicine techniques called PET (Positron Emission Tomography) and SPECT
(Single Photon Emission Computed Tomography); the latter is based on the injection
of a radiotracer in the patient and on the successive detection of gamma photons,
emitted by the tissues interested by tracer diffusion, by means of an external scan
system based on one or more gamma cameras. The final purpose is to obtain
tomographics images, transaxial body sections, with functional details of the
examined tissues; the reconstruction is made from the sinogram, that is a matrix that
contains sections projections obtained from rotation. Such acquisition process is
mathematically described by Radon transform; the inverse problem can be resolved
in an analytical way with FBP (Filtered Back Projection) algorithm or with iterative
algorithms based on the minimisation or maximisation of a figure of merit.
The analysed algorithms comes from two families:
1. methods based on likelihood maximisation are OSEM (Ordered Subset
Expectation Maximization; likelihood maximisation with ordered subset of
detectors ) and SAGE 3 (Space Alternating Generalized Expectation 3; likelihood
maximization in sequential way) method;
2. methods based on minimisation of quadratic functions: PWLS (Penalized
Weighted Least Square + Successive Over Relaxation; penalized weighted least
square with update coefficient proportional to the variance estimate on detector,
with increased relaxation times and sequentially update), OSWLS+SOR
Summary
II
(Ordinated Subset Weighted Least Squares + Successive Over Relaxation;
weighted least squares with update coefficient based on the root of the emission
value; the updates is on ordered subset and increased relaxation times) and
Conjugate Gradient (minimization with global update of all pixels working on
conjugate gradient direction).
(a) Scientific and applicative relevance
The problem of obtaining reconstructed images with sufficient details is present
in all diagnostic methods for images, but is very important in nuclear medicine
systems with intrinsic resolution limits that dependent by the physics of the involved
process, (scatter and photons attenuation for example) and by the detection system
(collimator PSF (Point Spread Function) and detection efficiency).
Another problem of this sector is due to costs; this has limited the diffusion in
clinic ambits of iterative algorithms: these have too high computional costs and
requires dedicated post processing systems.
From literature analysis we bring out the presence of the different iterative
algorithms just listed, for which a systematic comparison method is not available.
There's also the need to introduce in the algorithms the physical features of the
particular detection system in a simple and efficient way.
(b) Methodology
A systematic comparison of the distinguishing items of the different iterative
algorithms was made in order to access their effect on reconstructed image quality
and on computational efficiency. These characteristic items depend principally on:
objective function to maximize or minimize and its physical/statistical meaning;
presence of a regularisation factor; method of error computation (additive or
Summary
III
multiplicative) and its redistribution; detectors involved in every updates (all
detectors or ordered subset); and finally, the sequence of pixel update.
The behaviour of different algorithms was studied from the computational and
robustness point of view trough the comparison of different alterations of data. To
address these targets we performed simulations on simple images with reduced
dimensions: impulsive image, Z shape image, Shepp-Logan and Hoffman brain
phantoms. From these images we have computed the sinograms and we have finally
obtained the reconstructed images to compare; calculation times and convergence
proprieties were analysed both on corrupted and not corrupted data. With the last
ones we have verified the robustness of each algorithm.
Data corruption parameters concern sinogram density sampling and Poissonian
noise on detection and emission with different signal/noise ratio.
The comparison between different reconstructed images from different iterative
algorithms and FBP algorithm was made with quadratic difference between the
reconstructed and the original image without noise. Algorithms efficiency was
studied with number of convergence iterations and calculation time for every
iteration.
Computation programs were made with an innovative approach to eliminate an
explicit computation of system matrix. This was made to optimize involved data
structures and permit a simple introduction of most important physical elements and
data collection process.
System matrix contains the physical relation between each of N
2
emitting pixels
and order N
2
( o(N
2
)) sinogram detectors; so it is o(N
4
). The construction of this
matrix, which is the greatest data structure to handle, was eliminated with respect to
the trivial task of projecting a square pixel grid on oblique angles. In place we used
image rotation algorithms.
In a successive step we changed the algorithms for the analysis of real SPECT
acquisition. We have introduced physical effects of attenuation and collimator
geometric divergence. The first effect was included with the introduction of an
Summary
IV
exponential attenuation weight from the object edge with a constant attenuation
coefficient. The collimator effect was included with a triangular mask that becomes
greater starting from every detector and includes more and more pixels with
increasing depth; this accounts for the PSF (Point Spread Function) that becomes
greater when deeper layers are observed. The approach based on rotation algorithm
permits the introduction of these physical parameters in a very flexible way based on
the computation of masks with o(N
2
) dimensions. We must consider that system
matrix should be calculated every time that only one of above physical parameters is
changed. The most efficient algorithms, OSEM and OSWLS+SOR were modified
and applied to real data collected with the SPECT system PRISM 3000XP by Picker,
using a Hoffman brain phantom with 5 mCi of Tc
99m
. Convergence characteristics
were studied by means of the quality of reconstructed images and likelihood values,
comparing the algorithm behaviour with and without the introduction of physical
acquisition parameters.
(c) Results
From above analysis we find out that with iterative algorithms, in contrast with
back projection (FBP), the use of an angular projections number smaller than the one
imposed by the sampling theorem causes a limited degradation and gives
computational advantages.
Simulations without noise did not show suitable differences between maximum
likelihood and least square methods, but showed that SOR technique used in PWLS
and OSWLS methods, converge privileging low frequencies, thus giving a smoothing
effect that avoids post processing on reconstruction. The addition of Poissonian noise
causes an enhancement of "noise break-up" phenomenon, this consists in an
accentuation of high frequencies and is the most important limit of maximum
likelihood methods; for this problem is necessary the introduction of regularisation
Summary
V
terms that gives a smoothed image, with a 0 < Ε < 1 parameter that modulates low
pass effect based on the resolution required by the clinical analysis.
Sequential methods (SAGE 3 and PWLS) are not used in clinical environments,
because of their excessive computational times. The conjugate gradient method gives
indistinguishable images from background noise with low SNR, this is due to the lack
of nonnegativity condition.
After this simulation trials OSWLS algorithms seemed to be the best ones.
Nonetheless, subsequent processing of real data (considering in the algorithms the
attenuation and the geometric divergence of collimator) indicated OSEM as the
algorithm that returns images with best quality («evaluated" with maximum
likelihood). OSWLS reconstruction became worse due to the smoothing that
excluded higher frequencies.
Compensation of collimator geometric divergence, was made using collimator
technical data, this allow to realise a better low pass filter for the specific acquisition
system than every data pre or post processing.
At last we have seen that our method of system matrix substitution, with
reconstruction rotation has notable potentiality both in bidimensional and three-
dimensional fields. In 2D the matrix has a great number of elements (order N
4
, where
N is image dimension in pixel), that have to be recomputed every time that new
effects as attenuation and collimator PSF have to be introduced, or when the number
of angular projections must be changed (sinogram dimension): with our method, the
matrix is eliminated, is facilitated the introduction of these variations and the
computational cost is reduced (the use of order N
2
masks for every projection in place
of a order N
4
system matrix ).
The extension to 3D case, one possible evolution of our work, should take more
advantages from system matrix elimination, because the matrix dimension would
increase to o(N
5
) or o(N
6
) depending on how the 3
rd
dimension is handled in the
reconstruction algorithm.
Summary
VI
INTRODUZIONE
Le tecniche tomografiche sono, al giorno d’oggi, fondamentali per la diagnostica
medica: ogni nosocomio, anche di modeste dimensioni, deve avere un reparto di
diagnostica fornito di strumentazione che consenta l’indagine di sezioni tomografiche
del corpo umano dal punto di vista anatomico (si pensi, ad esempio, alla TAC,
Tomografia Assiale Computerizzata a raggi X, alla RMN, Risonanza Magnetica
Nucleare o alla più economica Ecografia) o anche funzionale (SPECT, Tomografia
Computerizzata ad Emissione di Fotone Singolo, oppure PET, Tomografia ad
Emissione di Positroni) e, del resto, un medico non può prescindere dalla conoscenza
e dall’utilizzo di tali metodologie nella cura dei suoi pazienti. La ricostruzione delle
immagini a partire dai dati acquisiti dalla strumentazione diagnostica, che vengono
raccolti in una tabella numerica nota con il nome di sinogramma, è una questione di
competenza di tecnici, sia bioingegneri che biofisici, che hanno, di conseguenza, il
compito di progettare tale tecnologia in modo da poter fornire al medico immagini
con buona risoluzione e senza artefatti per ridurre il rischio di falsi negativi. Questo è
l’ambito della presente trattazione.
La tomografia consiste nella ricostruzione della distribuzione di una grandezza
sul piano di sezione partendo dalla misura delle sue proiezioni (integrali della
funzione di distribuzione lungo rette di diversa inclinazione) acquisite ruotando
attorno alla sezione in esame; il problema diretto, cioè le proiezioni, è descritto
matematicamente dalla trasformata di Radon mentre il problema inverso, cioè la
ricostruzione tomografica (Capitolo 2), può essere affrontato tramite due approcci,
quello analitico (algoritmo della Retroproiezione Filtrata (FBP) che esegue
l’antitrasformata di Radon) e quello iterativo (definisce un funzionale da
massimizzare o minimizzare attraverso più iterazioni).
Summary
VII
Il settore sul quale abbiamo focalizzato la nostra attenzione è quello della
medicina nucleare (Capitolo 1) ed in particolare sulla SPECT in quanto essa, a
differenza di altre tecniche quali la TAC, la RMN e, in misura minore, la PET, è una
tecnica che fornisce sinogrammi con un rapporto segnale/rumore non elevato che si
ripercuote su una scarsa qualità dell’immagine se ricostruita con la FBP, che
modellizza il problema “ideale”. L’uso di metodi iterativi, al contrario, facilita
l’introduzione di un modello che tenga conto di diverse non idealità quali
l’attenuazione, l’effetto di divergenza geometrica del collimatore e lo scatter
Compton nel soggetto, fattori fisici che degradano ulteriormente i dati e
compensabili, nel caso della FBP, solo con pre-elaborazioni del sinogramma con filtri
monodimensionali e/o con post-elaborazioni dell’immagine ricostruita con filtri
bidimensionali, operatori morfologici,… La presente tesi è quindi dedicata all’analisi
comparativa per diversi metodi iterativi ed alla ricerca degli accorgimenti che
possono renderli disponibili anche su macchine non dedicate.
La strumentazione SPECT consiste di una o più gamma camere rotanti attorno al
soggetto, all’altezza delle sezioni di interesse, che rilevano i raggi gamma, di energia
compresa tra 80 e 300 keV, emessi dai radiotraccianti precedentemente iniettati nel
paziente; questi ultimi vengono prodotti in modo semplice ed economico con il
metodo del generatore (Capitolo 1) direttamente nella camera calda del reparto
ospedaliero, hanno tempi di dimezzamento dell’ordine delle ore e vengono iniettati,
in genere in bolo, in quantità corrispondenti ad attività dell’ordine dei mCi. La più
avanzata PET, invece, usa anelli fissi di detettori che rilevano le coincidenze, cioè
l’arrivo simultaneo di due fotoni gamma di 511 keV su due detettori collineari,
ottenendo cosi’ una collimazione elettronica, che è il principale vantaggio di questa
tecnica rispetto ai setti di piombo della SPECT, unitamente al fatto che i
radiotraccianti sono isotopi delle molecole base della materia vivente. Un limite alla
diffusione di questa metodica è il costo legato alla necessità di un ciclotrone in loco
per la generazione di radionuclidi emittenti positroni, che sono caratterizzati da tempi
di dimezzamento troppo brevi per pensare ad un loro stoccaggio.
Summary
VIII
Nel capitolo 3 sono analizzati i differenti algoritmi iterativi presenti in
letteratura, con la ricerca degli elementi fondamentali che possono permettere un loro
confronto sistematico.
Il generico algoritmo iterativo deve contenere almeno cinque passi
fondamentali: la parametrizzazione dell’oggetto (cioè della sezione da esaminare), il
modello del sistema (legame tra l’immagine incognita ed il valore atteso della misura
di ogni rivelatore), i modelli statistici del rivelatore e dell’immagine (tipicamente
Poissoniani) e la funzione obiettivo che l’algoritmo iterativo deve massimizzare o
minimizzare. Gli algoritmi esaminati sono cinque, suddivisibili in due categorie:
algoritmi di massima verosimiglianza (OSEM e SAGE), che massimizzano una
funzione obiettivo basata su una descrizione statistica del contenuto dei pixel, e
algoritmi ai minimi quadrati (PWLS+SOR, OSWLS+SOR e Gradiente Coniugato),
che minimizzano una funzione obiettivo quadratica legata all’errore quadratico medio
tra stima e misura. All’interno di ogni categoria, le differenze principali si basano sul
criterio di aggiornamento dei pixel dell’immagine e sull’uso simultaneo di diversi
sottoinsiemi ordinati di proiezioni. Un riassunto delle differenze è riportato nella
tabella riassuntiva del paragrafo (3.8).
Scopo dei capitoli successivi è quello di valutare il comportamento qualitativo e
quantitativo dei vari algoritmi attraverso simulazioni su immagini semplici, con
sinogrammi creati da noi, ma anche su dati a diversa statistica acquisiti da un sistema
SPECT reale su fantoccio di Hoffman (reparto di medicina nucleare dell’Ospedale
Maggiore Policlinico di Milano). Inoltre abbiamo cercato di migliorare le prestazioni
degli algoritmi, sia in termini di qualità della ricostruzione, introducendo opportuni
metodi di modellizzazione dell’attenuazione e della PSF (Point Spread Function) del
collimatore per la compensazione dei relativi artefatti, sia in termini di peso
computazionale, introducendo una tecnica innovativa rispetto all’uso della
“tradizionale” matrice di sistema.
Summary
IX
Nel capitolo 4 è descritto il problema della gestione dei dati con gli algoritmi
iterativi, che riguarda principalmente due argomenti: uno è la dimensione che deve
avere il sinogramma (numero di campioni angolari in relazione alla dimensione
dell’oggetto in studio), che viene sviluppato sia riportando la teoria del
campionamento reperita in bibliografia sia mostrando alcune simulazioni con diverse
dimensioni del sinogramma per valutare il punto al quale inizia a degradare la qualità
dell’immagine; il secondo argomento è relativo alle caratteristiche della matrice di
sistema ed ai problemi computazionali legati alla sua gestione, che si è tentato di
risolvere eliminando la matrice stessa, interpretandola come matrice di interpolazione
e, quindi, sostituendola con delle semplici rotazioni dell’immagine durante
l’iterazione. La matrice di sistema rappresenta il modello di raccolta dei dati e
pertanto lega gli N
2
pixel di una sezione tomografica agli o(N
2
) elementi del
sinogramma. Pertanto questa matrice è di o(N
4
) e con una struttura sparsa, che però
perde rapidamente questa caratteristica quando si introducono anche elementi fisici
quali attenuazione, collimatore, etc. Un accorgimento tecnico fondamentale sarà
quindi quello di eliminare la costruzione esplicita di tale matrice, per lo meno per
quanto riguarda l’aspetto della rappresentazione dei pixel dai vari angoli di
proiezione. Questo permetterà di avere una maggiore flessibilità nell’introduzione
degli effetti fisici con strutture in parametri ognuno o(N
2
).
Nel capitolo 5 sono riportate le simulazioni che abbiamo effettuato sui diversi
algoritmi iterativi per valutarne il comportamento confrontandoli tra loro e con la
FBP attraverso opportune cifre di merito, lo scarto quadratico medio normalizzato tra
l’immagine ricostruita e quella di riferimento (NRMSD) e la verosimiglianza (per
immagini reali, per le quali non esiste un riferimento). Le simulazioni sono eseguite
ricavando il sinogramma sia da immagini semplici, l’impulso ed una figura a Z, sia
da immagini più complesse come il fantoccio di Shepp-Logan corrotto da rumore
Poissoniano di diversi livelli, per simulare diversi livelli di statistica di conteggio.