renza si traduce in diverse tecniche di acquisizione e diversi traccianti
usati.
Nel seguito ci si riferirà alle immagini in esame come a immagini
ASPECT e non SPECT: ASPECT è infatti il nome della macchina utiliz-
zata per le misure di questa tesi. La A iniziale indica la particolare geo-
metria ad anello della macchina.
L'ASPECT ha essenzialmente lo scopo di fornire immagini del cervello
di interesse clinico, che permettano di individuare tumori o altre patolo-
gie. I traccianti chimici utilizzati nel caso specifico sono 133Xe e 99mTc,
per le cui caratteristiche si rimanda al prossimo capitolo: qui vale la
pena anticipare che l'uso del primo permette di ottenere immagini di 64
per 64 pixel, mentre col secondo si può ricorrere ad un campionamento
più fitto per arrivare a 128 per 128 pixel. Per il tecnezio il numero dei
conteggi è infatti alto e questo permette di diminuire la dimensione e
aumentare il numero dei collimatori usati per localizzare i fotoni. La
statistica dello xenon è invece molto più bassa e questo obbliga ad
utilizzare collimatori più grandi, visto che non si può ovviamente far
respirare ai pazienti una quantità eccessiva di gas radioattivo.
La macchina ha un sistema di acquisizione completamente digitale che
permette di tener conto a priori di errori dovuti alla calibrazione e a vari
altri fattori. Le immagini hanno comunque un aspetto piuttosto sfocato
a causa della larga risposta all'impulso, detta anche PSF, della macchi-
na5: l'immagine finale è infatti il risultato della convoluzione tra quella
vera6 e la PSF, come avviene per tutti gli apparati sperimentali. Per
avvicinarsi il più possibile alla funzione di partenza questo processo va
invertito, bisogna cioè ricorrere ad una deconvoluzione. È importante
sottolineare che la larghezza della PSF varia a seconda del tracciante
adoperato per la misura. Inoltre nel caso del tecnezio è possibile tenere
conto a priori dei fotoni scatterati, mentre per lo xenon l'unico modo
per tenerne conto è implementare una deconvoluzione. Questo spiega la
presenza preponderante in questa tesi di immagini riguardanti esami
effettuati con lo xenon o simulazioni degli stessi.
Il problema della deconvoluzione di un'immagine discretizzata è quasi
sempre un problema inverso mal condizionato o numericamente instabi-
le: ciò significa in sostanza che non si può invertire la convoluzione in
maniera diretta, perché questo porterebbe ad amplificare enormemente
l'errore presente sull'immagine sperimentale.
5Vedere i paragrafi 2.1 e 2.2 per la descrizione del metodo di misura delle PSF.
6Per immagine vera si intende quella perfettamente corrispondente alla concentrazione del tracciante, che si otterrebbe con una
macchina ideale.
1 - Introduzione
2
La deconvoluzione va allora implementata via software utilizzando
metodi particolari, detti regolarizzanti proprio per il loro effetto di
regolarizzazione dell'instabilità numerica: si tratta in sostanza di vari
filtri in frequenza che tendono a tagliare le alte frequenze, dominate dal
rumore. Il terzo capitolo affronta la teoria matematica su cui si fondano
questi metodi: essi sono basati su algoritmi differenti tra loro e possono
anche partire da premesse del tutto diverse.
Esistono ad esempio metodi deterministici ed altri probabilistici, meto-
di iterativi ed altri non iterativi. Ognuno di essi offre inoltre possibilità
diverse: i metodi iterativi deterministici permettono di imporre dei
vincoli all'immagine ricostruita ad ogni passo, mentre i metodi probabi-
listici tengono conto del tipo di rumore con cui si ha a che fare.
Si hanno comunque delle caratteristiche comuni a tutti gli algoritmi re-
golarizzanti:
la presenza di un parametro regolarizzante, che può essere un numero
reale o il numero delle iterazioni ed il cui valore determina l'incisività
del filtro;
l'esistenza di una distanza minima, diversa a seconda del metodo, tra
l'immagine deconvoluta e quella vera: il valore ottimale del parametro
che permette di raggiungere tale distanza minima è quello per cui si ha
l'equilibrio migliore tra l'errore dovuto al rumore e l'errore di
approssimazione dovuto al filtraggio;
l'impossibilità di conoscere nel caso reale il valore ottimale del para-
metro: esso può essere valutato in qualche caso grazie ad alcuni
criteri, che non ne permettono però l'identificazione certa.
Un modo efficace di raccogliere informazioni sul comportamento dei
vari metodi nei confronti di una certa classe di immagini consiste nel
ricorrere a simulazioni. Nelle simulazioni l'immagine da deconvolvere
viene costruita partendo da un'immagine nota, quindi la distanza minima
di cui sopra può essere identificata e si può avere un'idea di quali valori
utilizzare per i parametri in un caso reale.
Nel quarto capitolo vengono presentate 3 simulazioni che utilizzano
come punto di partenza tre immagini ricavate da uno stesso fantoccio
del cervello. Le immagini hanno però caratteristiche diverse; una è
liscia, l'altra presenta delle discontinuità e l'ultima alterna zone lisce ad
altre con forti discontinuità. Questa scelta di immagini permette di
valutare come si comportano i diversi metodi di fronte a caratteristiche
1 - Introduzione
3
emissive simili a quelle del cervello; le zone costituite dai vari tessuti
hanno infatti emissività solo debolmente variabile, ma esistono forti
discontinuità tra una zona e l'altra.
Una volta convolute le 3 immagini con una stessa PSF reale e sommato
al risultato del rumore gaussiano scorrelato, si ottengono nuove imma-
gini a cui applicare i vari metodi per verificare quantitativamente quali
diano i risultati migliori, ossia quali riportino più vicino7 alla funzione
originale.
Gli algoritmi applicati in queste 3 simulazioni sono quello di
Lucy-Richardson, probabilistico e iterativo, quello di Tikhonov, deter-
ministico e non iterativo, e quelli di Landweber e del gradiente coniuga-
to, deterministici e iterativi. Gli ultimi due possono essere applicati
aggiungendo anche dei vincoli: per le immagini ASPECT gli unici vinco-
li sensati sono quello di positività, che consiste nel mettere a zero le
parti negative ad ogni iterazione, e quello di supporto compatto, che
consiste nel porre uguali a zero ad ogni iterazione i pixel corrispondenti
a zone sicuramente non emissive. Il vincolo di positività viene applicato
a tutte e tre le simulazioni, con l'aggiunta nelle ultime due di quello di
supporto compatto.
I risultati di gran lunga migliori si ottengono proprio quando si applica
il vincolo di supporto compatto, mentre per gli altri metodi non si hanno
prestazioni molto diverse: quelli deterministici senza vincoli si dimostra-
no comunque i meno efficaci in presenza di forte rumore.
Queste considerazioni sembrano essere valide anche per le due imma-
gini reali deconvolute nel quarto capitolo: in questo caso non è però
possibile compiere un'analisi quantitativa dei risultati.
Anche una quarta simulazione costruita con rumore gaussiano correla-
to mostra che il vincolo di supporto compatto dà dei vantaggi enormi:
l'integrazione nell'algoritmo della funzione di autocorrelazione del ru-
more, possibile per i metodi deterministici, non produce invece miglio-
ramenti significativi.
7Per la definizione operativa della distanza tra due immagini vedere il sottoparagrafo 4.1.1.
1 - Introduzione
4
Capitolo 2
Caratteristiche dell'ASPECT
In questo capitolo verrà fornita una breve descrizione della macchina
utilizzata per ricavare i dati sperimentali elaborati nel capitolo 4.
2.1 Scopo e modalità generali di funzionamento
Il nome ASPECT deriva dalle parole inglesi annular single photon
emission computerized tomography, traducibili come tomografia ad
anello computerizzata con emissione di fotoni singoli. L'ASPECT è un
caso particolare di SPECT, una tecnica diagnostica che permette di
misurare la distribuzione di un elemento tracciante radioattivo inserito
in un corpo estraneo.
Questa tecnica viene usata principalmente per ottenere immagini in se-
zione del cervello, con l'intensità in un certo pixel1 dell'immagine
proporzionale alla concentrazione locale dell'elemento radioattivo, che
può essere iniettato o fatto inalare al paziente; una volta arrivato nel
cervello esso si lega in modi diversi da caso a caso alle molecole già
presenti ed emette fotoni. Contando il numero dei fotoni aventi una
1
In realtà si dovrebbe parlare di voxel perché la distribuzione di concentrazione è definita nello spazio a tre dimensioni. L'immagine è
ovviamente una discretizzazione della funzione reale, con risoluzione variabile a seconda della macchina e del tracciante che si usano.
5
certa direzione2 si può risalire alla concentrazione dell'agente
radioattivo: ognuno dei conteggi di cui sopra è infatti legato all'integra-
le di linea della concentrazione lungo la direzione del conteggio. Chia-
mando I l'intensità della radiazione emessa lungo la linea retta L, si ha la
legge
, (2.1)I = ∫L dx f(x)e
−∫L(x)
dyµ(y)
dove ed sono vettori in , è la concentrazione del radiofarma-x y R2 f(x)
ceutico nella sezione bidimensionale di cervello che si considera, èµ(y)
il coefficiente di attenuazione locale e è la sezione di L tra ed ilL(x) x
contatore. Se è trascurabile la (2.1) si riduce all'integrale di lineaµ(x)
di f: l'operatore che, applicato ad una funzione in , fornisce l'insiemeR2
dei suoi integrali di linea è detto trasformata di Radon bidimensionale.
Nel caso l'attenuazione non sia trascurabile si parla invece di trasfor-
mata di Radon attenuata. In ogni caso il problema della ricostruzione di
si riduce all'inversione di tali trasformate, ossia ad un problema in-f(x)
verso del tipo descritto nel prossimo capitolo: il fatto che in pratica ci si
debba limitare ad un numero finito di direzioni impedisce inoltre di
usare la formula analitica di inversione della trasformata di Radon e
rende il problema mal posto o quanto meno mal condizionato3.
I metodi utilizzati per l'inversione variano da macchina a macchina e
sono comunque basati sugli algoritmi
descritti nel prossimo capitolo; il risultato
finale è un'immagine del tipo dell'esempio
rappresentato qui a fianco: l'intensità dei
vari toni di grigio4 dovrebbe essere come
già detto proporzionale alla concentrazione
in quel punto del tracciante. In realtà la
macchina ha una ben precisa risposta
all'impulso, detta anche PSF5: ciò significa
che un singolo punto viene "visto" dalla
macchina come se avesse una certa
larghezza. La PSF può essere misurata
utilizzando un capillare riempito di una
soluzione acquosa dello stesso tracciante
2Questo corrisponde chiaramente a misurare l'intensità della radiazione in quella direzione: più è alta la statistica, migliore è la misura.
3Vedere il paragrafo 3.1 per le definizioni di problemi mal posti e mal condizionati.
4Ovviamente la scala dei colori può essere variata a piacere: nel capitolo 5 verranno utilizzate immagini a colori.
5Dall'inglese point spread function, cioè funzione di dilatazione del punto.
2 - Caratteristiche dell'ASPECT
6
Fig. 2.1
usato per i pazienti o di una sostanza aven-
te caratteristiche analoghe nel caso il trac-
ciante sia gassoso. Un esempio di PSF
misurata al centro del campo visivo della
macchina è mostrato in figura 2.2: va detto
che a priori la PSF potrebbe variare da
punto a punto.
È chiaro che una qualsiasi immagine
finale risulta sfocata ed alterata a causa di
questa risposta all'impulso: come per ogni
altro apparato sperimentale l'uscita si ha
infatti dal prodotto di convoluzione6
dell'entrata con la risposta all'impulso.
Lo scopo di questa tesi è invertire il prodotto di convoluzione tramite
l'uso degli algoritmi descritti nel prossimo capitolo, lavorando diret-
tamente sulle immagini. Questa operazione, detta deconvoluzione, do-
vrebbe permettere di migliorare la risoluzione intrinseca delle immagini
ASPECT, risultando in qualcosa di simile alla messa a fuoco di un tele-
obiettivo. La risoluzione intrinseca dipende esclusivamente dalle
caratteristiche della macchina ovvero dalla larghezza della PSF: nel
seguito ci si riferirà invece a risoluzione spaziale per indicare la
lunghezza reale del lato del singolo pixel in un'immagine.
L'ASPECT offre comunque dei vantaggi rispetto a tecniche come la
risonanza magnetica o la TAC, che forniscono immagini ad alta
definizione e più nitide: i vari traccianti utilizzati hanno infatti parti-
colare interesse diagnostico perché si legano con tessuti diversi e
permettono quindi di analizzare numerose patologie.
Le immagini ASPECT si riferiscono alla concentrazione di una sostan-
za e danno quindi un'informazione funzionale; quelle fornite da TAC o
da risonanza magnetica danno invece un'informazione morfologica.
2.2 Specifiche della macchina utilizzata
La camera ASPECT da cui si sono ottenute le immagini nelle figure 2.1
e 2.2 e che ha fornito tutti i dati sperimentali del capitolo 4 è stata co-
struita in modo da permettere una ricostruzione più accurata rispetto al-
le normali camere SPECT. Il suo detettore, stazionario, consiste di uno
scintillatore toroidale a cristallo singolo di NaI(Tl)7 di diametro interno
6Vedere il sottoparagrafo 3.1.2 per la definizione di prodotto di convoluzione.
2 - Caratteristiche dell'ASPECT
7
Fig. 2.2
31 cm, spessore 8 mm e profondità 13 cm. Il cristallo è accoppiato ad
una griglia di 21 per 3 fotomoltiplicatori8, ciascuno di superficie pari a
51 mm2.
Per poter identificare la direzione di provenienza dei fotoni è necessa-
rio disporre di collimatori9, dal numero dei quali dipende la definizione
dell'immagine finale: nel caso in esame il sistema di collimatori è
costituito da sei gruppi di fori paralleli sistemati ad anello all'interno del
detettore toroidale, in modo da vedere la testa del paziente da sei angoli
differenti simultaneamente. Il sistema di collimatori può inoltre ruotare
concentricamente al cristallo tramite una cinghia a motore, con una pre-
cisione di circa un centesimo di grado. I dati possono così essere cam-
pionati da molte direzioni e volendo si possono raccogliere tramite una
rotazione continua con una velocità pari a circa 10 secondi per rivolu-
zione: è possibile in questo modo ottenere varie immagini. Il campo vi-
sivo della macchina è un cilindro di 22 cm di diametro e 9 cm di altezza
e questo si traduce nella possibilità di avere da 8 a 64 immagini in sezio-
ne della testa del paziente con definizione variabile a seconda del nume-
ro dei collimatori.
Il processo di ricostruzione dell'immagine a partire dai conteggi è to-
talmente effettuato dal software allegato alla macchina che utilizza un
algoritmo FBP10 con filtro selezionabile tra i vari tipi presenti: le imma-
7
Ioduro di sodio attivato al tallio.
8
I fotomoltiplicatori sono divisi in 3 gruppi in direzione assiale ed ogni gruppo ne contiene 21.
9
In realtà questo non è necessario nel caso i fotoni siano creati a coppie, come avviene nell'annichilazione di un positrone; disponendo di
una tecnologia adeguata (PET, positron emission tomography) si possono effettuare misure di coincidenza e da queste dedurre la
direzione di provenienza dei due fotoni.
10 Dall'inglese filtered back-projection, cioè proiezione inversa filtrata: il metodo della FBP è uno dei più usati per l'inversione della
2 - Caratteristiche dell'ASPECT
8
Fig 2.3:
sezione assiale della mac-
china, con la testa del pa-
ziente vista dall'alto.
I fotomoltiplicatori, qui
rappresentati come un uni-
co blocco, sono in realtà
separati in ventuno paral-
lelepipedi.
cristallo
detettore
collimatori
gini presentate in questa tesi sono state tutte ottenute utilizzando un
filtro di Butterworth di ordine 10 con frequenza di taglio pari a 0.1 cicli
per pixel. Nel procedimento vengono anche apportate delle correzioni
che tengono conto della calibrazione della macchina e delle eventuali
disuniformità del cristallo: tramite speciali misure che vanno effettuate
prima di acquisire dati, il sistema è infatti in grado di costruire delle
matrici che, inserite nell'algoritmo, permettono di valutare i suddetti ef-
fetti. Un numero notevole di parametri riguardanti il guadagno dei fo-
tomoltiplicatori ed il campionamento possono essere settati digitalmente
e questo permette di avere un controllo maggiore sull'acquisizione.
I radiofarmaceutici impiegati sono il tecnezio metastabile, 99mTc, e lo
xenon, 133Xe: il primo viene iniettato al paziente per via endovenosa e
permette di ottenere 64 sezioni di 128 per 128 pixel, con una risoluzio-
ne spaziale di 1 cm ogni 6 pixel; il secondo è invece fatto inalare attra-
verso una maschera e dà conteggi molto inferiori che costringono a
diminuire il numero dei collimatori per avere una statistica sufficiente-
mente alta. Le immagini che si ricavano con lo xenon sono 8 sezioni di
64 per 64 pixel con una risoluzione spaziale di 1 cm ogni 3 pixel.
Per la misura delle PSF viene utilizzato un capillare di vetro di diame-
tro interno pari a 1,28 mm; questa lunghezza è inferiore al lato del pixel
alla massima risoluzione spaziale e ciò permette di considerare il dato
fornito dalla macchina come una risposta all'impulso.
Lo xenon, essendo gassoso, è inutile per misurare la PSF; va usato
allora il tallio che è liquido ed ha caratteristiche fotoemissive analoghe a
quelle dello xenon.
In generale la PSF del tallio, e quindi anche quella dello xenon, è più
larga di quella del tecnezio. Proprio per la loro inferiore risoluzione
intrinseca le immagini ricavate con lo xenon dovrebbero avere un
maggiore bisogno di essere deconvolute: tra l'altro esse hanno una
grossa importanza dal punto di vista diagnostico in quanto permettono
di risalire al flusso sanguigno in ogni punto del cervello11, cosa che non
si può fare se si utilizza il tecnezio.
Un'altra ragione che giustifica l'uso della deconvoluzione nel caso
dello xenon è l'impossibilità di tenere conto a priori dei fotoni scatterati
per effetto Compton all'interno del cervello, che costituiscono una fonte
di errore nei conteggi. Nel caso del tecnezio una correzione precedente
all'elaborazione dell'immagine è possibile: lo spettro di emissività del
trasformata di Radon; per una trattazione dettagliata vedere ad esempio [16].
11 L'algoritmo che permette di compiere quest'operazione è comunque basato su un modello molto complicato [5] e non è ancora chiaro
quale sia l'effetto della deconvoluzione nell'ambito di questo modello. Inoltre le immagini registrano zone di emissività in
corrispondenza delle cavità nasali dove scorre il gas e questo crea ovviamente dei problemi.
2 - Caratteristiche dell'ASPECT
9
99mTc è infatti divisibile in una finestra di scatter ed una finestra di
fotopicco. La finestra di scatter è una zona dello spettro che compren-
de solo fotoni scatterati per effetto Compton e che quindi vanno esclusi
dalla statistica; la finestra di fotopicco contiene i fotoni utili alla
statistica, ma anche un numero ignoto di fotoni scatterati. La macchina
è in grado di contare il numero totale di fotoni emessi in ogni finestra in
una particolare direzione. L'ipotesi che si fa è che i fotoni scatterati
compresi nella finestra di fotopicco siano in numero uguale o proporzio-
nale a quelli della finestra di scatter: per avere una valutazione dei
fotoni effettivamente utili alla statistica basta allora sottrarre al
conteggio totale della finestra di fotopicco quello della finestra di
scatter moltiplicato eventualmente per un coefficiente [14].
Lo spettro di emissività dello xenon è tale da non permettere l'indivi-
duazione di una finestra di scatter e quindi l'unico modo per apportare
una correzione è utilizzare la deconvoluzione: essa tende infatti ad eli-
minare tutti quegli effetti che, come l'errore di scatter, sono presenti
anche nella PSF.
Nel caso del tecnezio la deconvoluzione può essere comunque utilizza-
ta per cercare di migliorare ulteriormente la risoluzione intrinseca.
Va infine sottolineato che la macchina, in virtù della sua geometria,
campiona più fittamente al centro del suo campo visivo e ciò permette
di compensare in qualche modo l'effetto di attenuazione, più forte pro-
prio per i fotoni provenienti dal centro. Anche l'algoritmo di inversione
implementato dal software consente comunque di apportare una cor-
rezione per l'attenuazione: tutte le immagini reali presentate nel capitolo
4 hanno subito questa correzione.
2.3 Modi di emissione di tecnezio e xenon
Vale la pena di descrivere brevemente in che modo avviene l'emissione
di fotoni per i traccianti utilizzati. Nel caso dello xenon lo schema è
molto semplice: lo 133Xe subisce un decadimento β seguito dall'emissio-
ne di un fotone causata dal riarrangiamento dei livelli del nucleo. Quan-
do viene inalato lo xenon viene trasmesso quindi dai polmoni al flusso
sanguigno cerebrale ed i fotoni emessi permettono di risalire alla
concentrazione di xenon nel sangue. L'informazione ricavata riguarda
dunque il flusso ematico del cervello.
2 - Caratteristiche dell'ASPECT
10
Per il tecnezio le cose sono più complicate; si parte da molibdeno che
in particolari condizioni decade in 99mTc. Quest'ultimo è uno stato me-
tastabile che quindi inizia a subire decadimento γ trasformandosi in 99Tc.
Il tecnezio viene iniettato nel sangue in uno stato legato con una mole-
cola detta HM-PAO12, che una volta entrata nel cervello supera la
barriera tra sangue e tessuti e si lega ai lipidi: dopo l'iniezione si
possono dunque contare i fotoni emessi, facendo l'ipotesi che durante
l'esame il calo di radioattività dovuto al decadimento sia trascurabile.
Il fatto che i due metaboliti si comportino in modo così differente una
volta entrati nel cervello implica ovviamente che anche le patologie stu-
diabili con i due esami siano molto diverse tra loro.
12
Il liquido che viene iniettato è quindi HM-PAO marcato 99mTc.
2 - Caratteristiche dell'ASPECT
11
Capitolo 3
Ricostruzione di immagini
tramite deconvoluzione
La deconvoluzione di un'immagine sperimentale è riconducibile alla
classe dei problemi inversi lineari. Questo capitolo presenta un pream-
bolo teorico che parte appunto da questi problemi per arrivare alla
formulazione del caso in esame.
3.1 Problemi inversi lineari
Ogni problema inverso lineare è riconducibile all'equazione
(3.1)Af = g
dove è un operatore lineare tra due spazi euclidei, èA : X → Y g ∈Y
noto e è l'incognita da determinare. f ∈X
Visto che nelle applicazioni pratiche A è frequentemente anche conti-
nuo, nel resto della trattazione ci si riferirà sempre a operatori lineari e
continui .
12
Quando la soluzione dipende in maniera continua dai dati, ossia quan-
do piccole variazioni di g producono piccole variazioni di f, il problema
si dice ben posto.
Un problema inverso lineare ben posto nel senso di Hadamard ha le
seguenti proprietà:
1. la soluzione è unica;f ∈ X
2. la soluzione ;f ∈ X ∃ ∀ g ∈ Y
3. l'operatore inverso è continuo.A−1: Y→X
L'esistenza di è conseguenza della prima proprietà; la secondaA−1
garantisce invece che sia definito ovunque in Y. Inoltre si dimostra1A−1
che se A è continuo anche è continuo ovvero in tal caso la 1 e la 2A−1
implicano la 3. Visto che per problemi con dati discreti, ossia formulati
in spazi a dimensione finita, la 1 non è mai verificata [3], questi sono
sempre mal posti secondo la precedente definizione.
Affinché la soluzione sia stabile rispetto alle fluttuazioni dei dati, è
necessario che il problema sia anche ben condizionato, ossia che, se èδg
una variazione piccola di g e la relativa variazione di f, si abbiaδf
(3.2)δf X f X
−1 ≤ cond( A) δg Y g Y
−1
dove , detto numero di condizionamento, è dato dacond(A)
. (3.3)cond(A) = A−1 A
Se non è grande si dice che il problema è ben condizionato;cond(A)
quando è mal condizionato, ossia quando è molto grande, lacond(A)
soluzione varia fortemente per piccole fluttuazioni dei dati e la propa-
gazione di errori relativi da dati a soluzione non è più stabile.
R(A)
1La dimostrazione segue da un corollario del teorema dell'open mapping di Banach [24].
3 - Ricostruzione di immagini tramite deconvoluzione
13
, (3.4)g = Af + h
con h contributo del rumore. Quest'ultimo è chiaramente ignoto e quin-
di la (3.4) non si può risolvere. Si definisce allora soluzione ai minimi
quadrati della (3.1) un elemento che soddisfi all'equazioneu0 ∈ X
. (3.5)Au0 − g Y = inf Af − g Y con f ∈ X
Quando il nucleo di A non è banale, la soluzione della (3.5), se esiste,
non è unica; l'insieme di tutte le soluzioni ai minimi quadrati forma un
sottospazio chiuso di X dato da
. (3.6)S( g ) = {u ∈ X t.c. u = u0 + φ, Aφ = 0}
Nel caso non sussista l'unicità si definisce la soluzione generalizzata f+
della (3.1) tramite l'uguaglianza
. (3.7)f+ X = inf{ u X con u ∈ S( g )}
La soluzione generalizzata è dunque l'elemento di norma minima tra
tutte le soluzioni ai minimi quadrati della (3.1), che costituiscono l'in-
sieme descritto dalla (3.6). Si dimostra2 inoltre che ogni , quin-u ∈ S( g )
di anche , è soluzione dell'equazione di Eulerof+
(3.8)A∗Au = A∗g
dove è l'operatore hermitiano coniugato di A.A∗ : Y → X
La soluzione generalizzata, quando esiste, è unica; nella letteratura
matematica più recente un problema è detto ben posto quando esistef+
per g qualunque e dipende con continuità dai dati. Con questa defini-
zione tutti i problemi con dati discreti sono ben posti ed è necessario
verificare soltanto se sono ben condizionati. La definizione di numero
di condizionamento usando la soluzione generalizzata è
(3.9)cond(A) = A+ A
dove l'operatore , chiamato inverso generalizzato di A, èA+ : X → Y
definito dall'equazione
2Vedere Appendice A.1.
3 - Ricostruzione di immagini tramite deconvoluzione
14