oggetto dello studio in sottodomini, detti "elementi finiti", e 
nella scelta di punti, chiamati "nodi", sul confine tra elementi 
contigui o nell'interno degli elementi stessi. A  seconda poi del 
tipo di analisi che si sta effettuando - strutturale, 
elettromagnetica, termica, ecc. - si assumeranno come variabili 
incognite del problema i valori assunti nei nodi dagli spostamenti o 
dagli sforzi, o da opportuni potenziali (magnetici, elettrici o di 
altro tipo ancora); in un generico punto di un elemento, queste 
grandezze sono espresse in termini di variabili nodali mediante 
funzioni d'interpolazione, le cosiddette "funzioni di forma".  
Per fissare meglio le idee, consideriamo un semplice problema 
monodimensionale (5). Bisogna calcolare il potenziale V in un 
generico punto X compreso tra due piatti paralleli a distanza d e di 
dimensioni infinite: sono note le condizioni al contorno del 
problema, cioè il potenziale sulle armature (fig. 1.1). L'equazione 
cui bisogna fare riferimento è quella di Poissons che, nel caso 
considerato, si scrive come: 
-εd2V/dx2 = ρ. 
La soluzione di questa equazione differenziale può essere 
determinata analiticamente in modo molto semplice. Nell'ipotesi di 
ρ=ε, si ottiene V= -0.5x2 +ax + b, dove a e b si determinano 
imponendo le condizioni al contorno, cioè i valori noti del 
potenziale sulle  due armature. 
Volendo risolvere il suddetto problema con il FEM, si supponga di 
riuscire ad individuare un opportuno funzionale (funzione della 
funzione incognita V) che presenti il suo minimo proprio in 
corrispondenza della soluzione cercata. In tal caso basterà 
minimizzare questo funzionale per risolvere il problema di  
partenza: è questo il passaggio chiave del cosiddetto metodo 
variazionale o di Ritz-Rayleigh. Scritto in termini generali, esso 
consiste nel determinare la funzione incognita y(x) che corrisponde 
ad un valore stazionario del funzionale introdotto 
I(y)= ∫0d f(y,δy/δx)dx,   1.1 
avendo cura di tenere sempre in considerazione le condizioni al 
contorno. Il funzionale I(y) non è altro che il potenziale totale 
del sistema in studio. 
Nel metodo di Rayleigh-Ritz l'incognita y viene approssimata con uno 
sviluppo in un numero finito di termini del tipo 
y= Σin yiNi(x), 
relazione nella quale con yi si è indicato il valore di y in 
corrispondenza del nodo i-esimo e con Ni(x) ci si  è riferiti alla 
i-esima funzione di forma. 
Ritornando al nostro specifico caso monodimensionale, abbiamo che il 
funzionale di cui sopra è dato da: 
I(V)= 0.5∫(εdV/dx)2dx - ∫ρV dx. 
Esso, infatti, esprime proprio l'energia del nostro sistema 
elettrostatico, minima in corrispondenza della soluzione. 
Scomponiamo il campo di variazione di x in tre parti (i nostri 
elementi finiti) ed indichiamo con Vi, con i= 1...4, il valore 
assunto da V in corrispondenza dell'i-esimo nodo xi: tra di essi, V1 
e V4, cioè i valori di V sulle armature, risultano fissati dalle 
condizioni al contorno (fig. 1.2). In ognuno degli elementi finiti 
scelti ipotizziamo una variazione lineare di V, il che equivale ad 
assumere funzioni di forma di tipo lineare (il discorso non 
cambierebbe concettualmente se pensassimo a un tipo di variazione 
più complessa, ad es. quadratica: in tal caso avremmo delle funzioni 
di forma di tipo quadratico.). Le incognite di un problema così 
formulato sono i valori nodali V2 e V3 e possono essere determinate 
andando a calcolare il minimo di I(V), con V definito in termini di 
funzioni di forma lineari. 
In definitiva, partendo dalle relazioni 
Vi= a + bxi 
Vi+1= a + bxi+1 
si arriva ad esprimere V nell'i-esimo elemento come: 
V= ViNi(x) + Vi+1Ni+1(x),  
dove le Ni(x) sono le funzioni di forma. In particolare si ha: 
Ni(x)= ci + dix e  
Ni+1(x)= ci+1 + di+1x , con 
ci= xi+1/(xi+1-xi) 
di= -1/(xi+1-xi) 
ci+1= -xi/(xi+1-xi) 
di+1= 1/(xi+1-xi). 
Come si vede, i coefficienti che definiscono le Ni(x) sono 
univocamente determinati una volta fissata la discretizzazione. 
E' da notare poi che, per x=xi, dovendo essere V=Vi, si avrà: 
Ni(xi)=1 e Ni+1(xi)=0. 
Inoltre, Ni(x) si annulla all'esterno dell'i-esimo elemento. 
La soluzione determinata in questo caso semplice con il FEM, infine, 
non si discosta notevolmente dalla soluzione esatta analitica (fig. 
1.3). L'errore, cioè  la differenza tra le due curve di fig. 1.3, 
può essere ridotto infittendo la partizione del campo delle x (in 
special modo laddove la soluzione varia più rapidamente), e ciò a 
scapito ovviamente dei tempi di calcolo. 
 
 
§1.3-CASO BI E TRI-DIMENSIONALE. 
Il discorso non cambia per nulla da un punto di vista concettuale se 
si considerano problemi a due o anche a tre dimensioni, anche se, 
come si vedrà meglio in seguito, aumenta l'onere computazionale - 
soprattutto  in problemi 3D. Una differenza sostanziale sta nella 
possibilità di scelta tra tipi diversi di elementi finiti: triangoli 
o quadrati, ad es., in sistemi 2D; esaedri o tetraedri, ad es., in 
sistemi 3D. 
Nel caso bidimensionale, riferendoci ad esempio ad un generico 
elemento triangolare E (di vertici i,j e k) di primo ordine - che 
utilizza cioè una funzione interpolante lineare -, partendo dalle 
relazioni 
Vi= a + bxi + cyi 
Vj= a + bxj + cyj 
Vk= a + bxk + cyk 
si arriva all'espressione di V in E nella forma 
V= Ni(x,y)Vi + Nj(x,y)Vj + Nk(x,y)Vk , dove 
Ni(x,y)= (di + eix + fiy)/2A 
Nj(x,y)= (dj + ejx + fjy)/2A 
Nk(x,y)= (dk + ekx + fky)/2A 
sono le funzioni di forma lineari, con: 
A= area dell'elemento; 
di= xjyk - yjxk; dj= yixk - xiyk; dk= xiyj - yixj; 
ei= yj - yk; ej= yk - yi; ek= yi - yj; 
fi= xk - xj: fj= xi - xk; fk= xj - xi. 
Ancora una volta si vede come i coefficienti che compaiono nelle 
espressioni delle funzioni di forma dipendono esclusivamente dalle 
coordinate dei nodi e, quindi, sono univocamente determinati in 
seguito alla suddivisione del dominio. 
Anche nel caso bidimensionale, inoltre, si verifica che Nh(x,y) vale 
1 nel generico nodo h e 0 negli altri 2  nodi di E ed è diversa da 
zero solo nell'h-esimo elemento. In ogni punto di coordinate (x,y) 
varrà: 
Ni(x,y) + Nj(x,y) + Nk(x,y) =1. 
Ovviamente Ni, Nj e Nk variano con l'elemento. 
Analogamente, i risultati del caso tridimensionale per un generico 
elemento tetraedrico E, nell'ipotesi di variazione lineare di V in 
E, sono: 
V= Σl Nl(x,y,z)Vl ;  
Nl(x,y,z)= (al + blx + cly + dlz), con l=i,j,k,h (nodi di E).  
I coefficienti che compaiono nell'espressione di Nl dipendono, come 
al solito, dalle coordinate dei nodi tramite relazioni articolate ma 
comunque facilmente ricavabili per mezzo di semplici passaggi 
algebrici. Anche in questo caso, infine, la generica funzione 
Nl(x,y,z) - diversa per ogni elemento e nulla all'esterno dell'l-
esimo elemento - vale 1 nel nodo l e 0 negli altri 3 nodi di E. 
 
 
§1.4-CONSIDERAZIONI GENERALI. 
I passaggi fondamentali nell'applicazione del metodo degli elementi 
finiti sono 4: 
i) Divisione dello spazio della soluzione in "elementi finiti" dello 
stesso tipo ma non necessariamente delle stesse dimensioni - in 
particolare la suddivisione sarà più fitta nelle zone in cui si 
pensa che la soluzione varierà più rapidamente. 
ii) Definizione per ogni elemento di una funzione prova o di forma 
(trial o shape function) che consenta di approssimare in modo 
continuo la grandezza incognita y in funzione dei valori assunti da 
y stessa in corrispondenza dei nodi (i valori nodali yi rappresentano 
proprio le incognite del nostro problema). 
iii) Identificazione di un appropriato criterio attraverso il quale 
ottimizzare i parametri liberi. Nell'esempio monodimensionale 
svolto, si è fatto riferimento a una funzione I(V), rappresentante 
l'energia del sistema elettrostatico, minima in corrispondenza della 
soluzione: un approccio di questo tipo va sotto il nome di metodo 
variazionale. Un altro possibile criterio, come si vedrà in seguito, 
è il metodo generalizzato di Galerkin (generalized Galerkin method). 
iiii) Soluzione di un set di equazioni algebriche lineari (cui si 
riduce il problema di ottimizzazione) del tipo: Sx= y. In esso x è 
il vettore delle incognite, rappresentate dai valori nodali della 
grandezza incognita, S è la matrice dei coefficienti, determinata 
dalle funzioni di forma usate, e y è il vettore dei termini noti, 
costituiti da una combinazione dei valori imposti dalle condizioni 
al contorno e dalle funzioni  di forma. Una importante osservazione 
da fare è che  sia S che y possono essere costruite tramite somma 
dei contributi, rispettivamente, delle matrici e dei  vettori 
calcolati per i singoli elementi (Se e ye). Indicando con A il 
cosiddetto "assembly operator", cioè l'operatore che consente di 
ottenere la giusta collocazione di Se e di ye in S e in y, si ha 
pertanto: 
S= Aenel (Se); 
y= Aenel (ye). 
Con nel si è indicato il numero totale di elementi. In letteratura, 
questa procedura è talvolta chiamata "direct stiffness method". 
La discretizzazione dello spazio delle soluzioni può avvenire usando 
diversi tipi di elementi; triangolari, quadrati,...; tetraedrici, 
esaedrici, ...; del primo ordine, di ordine superiore. 
Gli elementi finiti utilizzati nell'elettromagnetismo erano 
inizialmente gli stessi impiegati nell'analisi delle strutture, ma 
la diversità dei problemi di base  ha portato in seguito ad una 
rapida evoluzione di tipologie differenti di elementi. Ci sono poi  
differenze fondamentali tra gli elementi utilizzati in problemi 
scalari e quelli usati in problemi vettoriali, così come tra 
elementi spazialmente finiti ed infiniti (3). 
I problemi descritti in termini di potenziali scalari vengono in 
genere risolti utilizzando una famiglia di funzioni basata sui 
polinomi interpolanti di Lagrange. Di conseguenza una funzione V 
viene rappresentata come 
V(P)= ΣiV(Pi)Ni(P). 
L'impiego degli elementi triangolari e tetraedrici, pur permettendo 
una rapida modellizzazione di geometrie anche complesse, non 
consente una rappresentazione adeguata di superfici curve. La 
soluzione a questo problema (5) è basata sul fatto che ogni misura 
lineare di distanza u è una funzione lineare delle coordinate 
cartesiane x,y,z. Essa può essere espressa tramite funzioni 
interpolanti definite sugli elementi finiti: 
u(P)= Σiu(Pi)Ni(xP,yP,zP), 
dove xP, yP e zP sono le coordinate del punto P. Se le Ni non sono 
lineari, la relazione precedente individua una più complessa 
trasformazione di coordinate. Gli elementi curvilinei possono quindi 
essere derivati da quelli rettilinei trasformando opportunamente le 
funzioni associate all'elemento (fig. 1.4). Gli  elementi distorti 
così ottenuti si dicono "isoparametrici". 
Una peculiarità dei problemi di tipo elettromagnetico rispetto ad 
altri è che essi hanno spesso un dominio spazialmente infinito. Sono 
stati sviluppati molti metodi per utilizzare quelli che si 
potrebbero definire "elementi finiti infiniti", cioè elementi  
caratterizzati da energia e potenza finita ma geometricamente 
infiniti (6). Tutti questi metodi sono comunque caratterizzati da un 
minimo comun multiplo rappresentato dalla suddivisione, tramite 
un'opportuna superfice, dello spazio infinito in una regione interna 
finita ed una esterna infinita. La parte interna può essere studiata 
tramite un metodo agli elementi finiti standard. Il problema si 
riduce così alla costruzione  di un elemento finito che rappresenti 
la parte esterna. A tal fine esistono varie tecniche (3). Quella 
sicuramente più utilizzata è la "rappresentazione ibrida" (7) e 
consiste nel diversificare le rappresentazioni del campo: equazioni 
differenziali all'interno ed equazioni integrali all'esterno. 
Nel caso in cui i risultati ottenuti da un'analisi con gli elementi 
finiti non siano sufficientemente  accurati, nascono due 
alternative. La prima consiste  nel raffinare la discretizzazione 
usando un numero maggiore di elementi più piccoli nelle zone 
critiche. L'altra consiste invece nel ripetere l'analisi con la 
stessa discretizzazione ma utilizzando elementi di ordine superiore.  
In particolare, per quanto riguarda la prima alternativa, è ormai da 
tempo in corso a livello internazionale una vivace attività di 
ricerca su algoritmi di stima degli errori di discretizzazione che 
consentano, attraverso una valutazione a posteriori della qualità 
della soluzione, di migliorare la mesh sino a raggiungere, con una 
procedura iterativa automatica di reticolazione adattativa, il 
livello di precisione richiesto dall'utente (8,9)(§3.3). 
Con entrambe le alternative, comunque, si può avere un aumento 
consistente dei tempi di calcolo. In fig. 1.5 viene mostrato il 
rapido incremento del numero dei coefficienti non noti, nel caso di 
elemento  triangolare, nel passare da una funzione interpolante 
lineare (tre incognite per elemento) ad una del quarto ordine 
(quindici incognite per elemento). Grossolanamente, si può dire che 
il tempo di calcolo cresce proporzionalmente al cubo (o almeno al 
quadrato) del numero di incognite per elemento (10). 
 
 
§1.5-IL METODO GENERALIZZATO DI GALERKIN. 
Per la soluzione nel caso monodimensionale della equazione di 
Poisson, abbiamo in precedenza fatto riferimento a un funzionale 
I(V) - espressione dell'energia del sistema elettrostatico - il cui 
minimo si aveva in corrispondenza della soluzione. Uno dei più 
grossi vantaggi del metodo di Ritz è che esso consente di avere a 
che fare con grandezze scalari (energie, potenziali) piuttosto che 
con grandezze vettoriali (forze e spostamenti, ad esempio, nel caso 
della analisi strutturale). Contemporaneamente, il grande svantaggio 
di un tale approccio variazionale sta  proprio nella necessità di 
determinare un funzionale ad hoc per ogni diverso tipo di problema: 
ciò non sempre è agevole. Non esiste infatti una procedura generale 
che consenta, in un ben determinato numero di passaggi, di arrivare 
all'espressione di I(y). Il modo di operare generalmente seguito per 
ottenere I(y) infatti consiste nel tentativo di conglobare, "in 
qualche modo", le equazioni differenziali e le condizioni al 
contorno del problema in un'unica appropriata equazione integrale e, 
di seguito, nell'effettuare su di essa delle manipolazioni 
matematiche (ad es., integrazioni per parti). Alla luce di ciò si 
comprende come in taluni casi risulti di grande aiuto ricorrere a un 
diverso approccio al problema: quello di Galerkin. 
Scriviamo l'equazione differenziale o integrale da risolvere nella 
forma generale: 
A V(x,y)= ρ(x,y). 
Il metodo di Galerkin consente di ottenere la migliore delle 
possibili soluzioni V* appartenenti allo spazio  di approssimazione 
che, nel caso si utilizzino delle funzioni interpolanti del primo 
ordine, è costituito  dal sottospazio dei polinomi lineari. 
Volendo generalizzare, ipotizziamo una approssimazione di V in uno 
spazio di ordine n, con funzioni base a1,...,an, e ρ∗ (approssimazione 
di ρ) in uno di ordine m, con funzioni base b1,...,bm: 
V*= Σin aiVi; 
ρ*= Σim biρi. 
E' immediato constatare come le funzioni base svolgano un ruolo 
analogo a quello svolto dai vettori base di un certo spazio per 
l'individuazione in esso di un  generico vettore. Come i vettori 
base, inoltre, anche le funzioni base di uno spazio non sono 
determinate univocamente. A secondo del tipo di base scelto, ad 
esempio, si possono avere interpolazioni locali o globali: nel primo 
caso la funzione base è differente  da zero in uno (o pochi) 
subintervalli del dominio D della funzione rappresentata; nel 
secondo caso, essa copre tutto l'intervallo D. 
Il metodo generalizzato di Galerkin afferma che, per ogni base 
g1,..., gn, dello spazio di V* (non necessariamente coincidente con 
la base a1,..., an), la migliore approssimazione all'equazione da 
risolvere verifica la relazione 
Σin Vi(gk | Aai)= Σim ρi(gk | bi) K=1,...,n, 1.2 
dove ( | ) sta ad indicare il cosiddetto prodotto interno (inner 
product), definito da: 
(f(x,y) | g(x,y))= ∫fg dR (uno spazio dotato di prodotto interno è 
detto spazio pre-Hilbert). 
Arriviamo così a scrivere un sistema di n equazioni - una per ogni 
gk - nelle n incognite Vk: 
PV= q, dove 
P(i,j)= ∫giAaj dR i=1,...,n; j=1,...,n; 
V e q sono due vettori colonna di dimensione n, il  primo di 
elementi Vi, e il secondo definito da 
q= ArTr, essendo: 
Ar= ∫dR; 
ArT(i,j)= ∫gibj dR i=1,...,n; j=1,...,m; 
r(i)= ρi.  
Ovviamente, nel caso di analisi tramite il FEM, lo spazio è 
suddiviso in tanti elementi. Di conseguenza, gli integrali di cui 
sopra andranno ripetuti per ognuno di questi elementi ed infine 
sommati. 
Nell'Europa Occidentale e nel Nord America, il metodo generalizzato 
di Galerkin è anche conosciuto come il metodo dei residui pesati 
(weighted residual method) o metodo dei momenti (method of moments). 
Ciò può essere compreso se si considera che nella dimostrazione 
della relazione 1.2 si parte dal residuo R, definito come: 
R(V*)= A V*-ρ*, 
e che, scritto in termini di funzioni base, diventa: 
R= Σin ViAai - Σim ρibi . 
Tale residuo R può essere espresso attraverso una n-pla di funzioni 
base g1,...,gn:  
R= Σin Rigi. 
La migliore soluzione appartenente allo spazio di approssimazione è 
quella che consente di minimizzare  le n componenti Ri di R. 
Analogamente al caso vettoriale, la i-esima componente del residuo R 
può essere ottenuta dal prodotto interno tra R e ci: 
Ri= (R | ci). 
Bisogna quindi settare a 0 tutte le componenti Ri. Poichè 
quest'ultime sono funzioni dello spazio, si procede alla loro 
integrazione ottenendo così la relazione 1.2. 
La scelta delle funzioni base gi influenza sicuramente la soluzione. 
Per questa ragione il metodo generalizzato di Galerkin viene spesso 
indicato con vari nomi a secondo del set di funzioni g scelto. Si 
parla di "Bubnov-Galerkin method" nel caso in cui le  tre basi a, b 
e g sono le stesse; di "least-square method" se le gi si pongono 
uguali alla δR/δVi - e quindi ad Aai. Il metodo di Galerkin diviene 
poi il cosiddetto "collocation method" quando imponiamo R uguale a 0 
in n punti predefiniti, ottenendo così un sistema di n equazioni. In 
quest'ultimo caso, l'acuratezza della soluzione dipenderà dai punti 
prescelti, e può essere banalmente dimostrato che tale metodo non è 
altro che un caso particolare del metodo generalizzato di Galerkin 
qualora si usino delle gi coincidenti con la funzione Dirac-Delta 
δ(x-xi), essendo xi lo i-esimo "collocation point". 
Nel caso in cui il problema di partenza sia costituito da due o più 
equazioni, il metodo di Galerkin può essere ancora utilizzato avendo 
l'accortezza di applicarlo alla somma dei residui delle singole 
equazioni. 
Infine si può osservare che l'applicazione del metodo  di Galerkin 
al caso particolare considerato in precedenza (equazione di Poisson) 
conduce perfettamente agli stessi risultati ottenuti con il metodo 
variazionale. 
 
 
§1.6-SOLUZIONE DEL SISTEMA DI EQUAZIONI ALGEBRICHE LINEARI. 
Come visto, il FEM consente di ridurre un problema di equazioni 
differenziali e/o integrali in un sistema di equazioni algebriche 
lineari: 
Sx= y.     1.3 
In questo paragrafo analizziamo alcune delle più comuni tecniche per 
la soluzione di sistemi di equazioni algebriche lineari. 
L'importanza di determinare metodologie appropriate per la soluzione 
di 1.3 non deriva certo dalla difficoltà insita nel problema stesso, 
quanto da particolari esigenze di funzionalità dei programmi 
realizzati, sia in termini di ridotti tempi di calcolo che di bassa 
memoria impiegata. Basti pensare che per la risoluzione di 
complicati problemi tridimensionali si ottengono un numero di 
variabili compreso tra 25000 e 50000. D'altronde, poichè 
l'accuratezza di un'analisi può essere in genere aumentata rifinendo 
meglio la discretizzazione, l'analista tende ad usare sistemi  agli 
elementi finiti sempre di maggiori dimensioni. Se la matrice dei 
coefficienti S (chiamata anche "stiffness matrix") contiene un 
numero elevato di zeri, si riesce con vari stratagemmi a limitare in 
ogni caso i tempi di calcolo; viceversa, se S è una matrice quasi 
piena - come generalmente accade in sistemi derivati da problemi di 
equazioni integrali (11) - anche 1000 equazioni cominciano ad essere 
troppe. In definitiva, tutto ciò implica che il "costo" di una 
analisi e, in sostanza, la sua flessibilità dipendono in misura 
considerevole dagli algoritmi disponibili per la soluzione del 
sistema di equazioni risultante. Per questa ragione, molti 
ricercatori studiano con particolare attenzione tecniche di 
ottimizzazione di questi algoritmi. 
Per la risoluzione di 1.3 possono essere impiegati differenti tipi 
di metodi: per eliminazione, iterativi, ed altri ancora. 
La tecnica di decomposizione triangolare di Gauss, proposta da 
quest'ultimo più di un secolo fà, non differisce molto dal semplice 
metodo di sostituzione.  La matrice dei termini noti S, ipottizzata 
definita positiva, può essere posta nella forma 
S= LLT,  
essendo L una matrice triangolare inferiore e LT la sua trasposta.  
Il problema 1.3 può essere pertanto scritto nella forma 
Lz= y,     1.4 
avendo posto LTx= z. Il sistema 1.4 può essere a questo punto 
facilmente risolto. La prima riga di L, infatti, contiene un solo 
elemento diverso da zero in corrispondenza della prima colonna: di 
conseguenza la prima componente del vettore z può essere calcolata 
tramite una semplice divisione. Spostandosi poi alla seconda riga di 
L, si trovano solo i due primi elementi diversi da zero: si può 
quindi calcolare anche la seconda componente di z. E così 
analogamente per le altre righe di L. In modo identico - ad 
eccezione del fatto che ci si muove dall'ultima riga verso la prima 
- si procede per la soluzione del sistema LTx= z, in  cui z questa 
volta è il vettore dei termini noti e in cui il vettore delle 
incognite x coincide con quello  del problema di partenza. 
Per la determinazione di L si sfrutta il fatto che deve essere: 
Sik= Σjmin(i,k) LijLkj. 
Da tale relazione si ricava che per gli elementi di L appartenenti 
alla diagonale principale si può scrivere: 
Lii= (Sii - Σji-1 Lij2)1/2. 
Poichè la prima riga di L contiene un solo elemento diverso da zero, 
si ha che L11= (S11)1/2. In generale, nella k-esima riga appaiono un 
numero di valori non nulli proprio uguale a k, e di questi, solo uno 
è incognito. 
In alternativa ai metodi ad eliminazione, specialmente negli ultimi 
anni, si sono diffusi metodi iterativi: partendo da un certo valore 
errato della soluzione, x0, lo si corregge ad ogni iterazione sino 
ad arrivare ad un vettore che si avvicini alla soluzione effettiva 
con una prefissata precisione. All'iterazione k+1, si è venuta a 
creare una sequenza di "correzioni" del tipo δx0,...,δxk, ottenendo, 
di conseguenza, xk+1= xk + δxk. Se il valore iniziale non è molto 
lontano dalla soluzione reale, il metodo converge in modo relativa-
mente rapido, compatibilmente con la precisione scelta. 
Tra i metodi iterativi più interessanti c'è lo  "steepest descent 
iteration". In esso, la soluzione delle equazioni è equivalente alla 
minimizzazione della forma quadratica F(z) definita da: 
F(z)= zTSz - 2zTy. 
Sempre nell'ipotesi di S definita positiva, infatti, F(z) ha il 
minimo per z= x.  
Per la determinazione di questo minimo, ad ogni iterazione ci si 
muove nella direzione ortogonale al luogo dei punti dello spazio 
delle soluzioni in cui F  è costante. Al generico passo k+1, 
indicando con u il vettore parallelo al suddetto luogo di F in xk, 
si ha: 
F(xk + u)= (xk + u)TS(xk + u) - 2(xk + u)Ty. 
Se u è piccolo, uTSu può essere trascurato, cosicchè: 
F(xk + u)= F(xk) + uTSxk + xkTSu - 2uTy.  
Poichè F(xk)= F(xk + u), si ottiene: 
uT(Sxk - y) + (Sxk - y)Tu= 0. 
Di conseguenza la "steepest descent direction" è data da: 
rk= Sxk - y. 
A questo punto, per minimizzare F nella direzione di rk bisogna 
trovare un opportuno valore della grandezza scalare ak tale che: 
xk+1= xk + akrk; 
dF(xk + akrk)/dak= 0. 
Si ottiene così (11): 
ak= (rkTrk)/(rkTSrk). 
Una versione perfezionata dello "steepest descent method" è 
costituita dal "conjugate gradient (CG) method", introdotto per la 
prima volta nel 1952 da Hestenes e da Stiefel (12). Lo svantaggio 
principale  del metodo precedente, infatti, è rappresentato dal 
fatto che le successive correzioni δxk, ognuna delle quali viene 
presa nella direzione del residuo rk, non sono mutuamente 
ortogonali: l'errore eliminato ad un certo step può essere di 
conseguenza reintrodotto al successivo. Il CG method consente di 
superare questa difficoltà in quanto la soluzione corrispondente ad 
una generica iterazione viene ricavata dalla precedente tramite una 
relazione del tipo: 
xk+1= xk + akpk,   1.5 
essendo pk un vettore di direzione tale da rendere mutuamente 
ortogonali i residui successivi: 
rkTrk+1= 0. 
ak, come al solito, viene scelto in modo da minimizzare F: 
ak= (pkTrk)/(pkTSpk). 
Moltiplicando la 1.5 per S e sottraendo y sia a destra che a 
sinistra del segno di uguale, si ottiene 
rk+1= rk + akSpk. 
In (11) si dimostra che per il passo successivo si può porre 
pk+1= rk+1 + bkpk,   1.6  
con bk= -(pkTSrk+1)/(pkTSpk).  1.7  
Con questo metodo, in ogni step l'errore lungo una certa direzione 
viene eliminato e non più reintrodotto: pertanto, almeno in teoria, 
bastano solo n iterazioni per determinare l'esatta soluzione del 
problema, essendo n il numero delle incognite - e quindi la 
dimensione del vettore x. Nei casi pratici, anche con un numero di 
passaggi minore di n ci si avvicina alla soluzione con una buona 
precisione (per questo motivo il CG  method è individuato tra i 
metodi semi-iterativi). 
La velocità con la quale il CG method converge alla soluzione è 
fortemente dipendente dallo spettro dei valori della matrice S. Se 
quest'ultima ha pochi valori distinti, o se questi sono raggruppati 
in una ben determinata zona di S, il metodo conduce rapidamente alla 
soluzione. Infatti, ogni iterazione viene completata con un numero 
di operazioni pari a n(c+5) (13), essendo c il numero medio di 
valori diversi da zero in ogni riga della matrice S. 
Sfortunatamente, però, la matrice dei termini noti ottenuta da 
problemi di campo ha generalmente un ampio spettro di valori. Per 
ovviare a ciò, risulta conveniente "precondizionare" S tramite una 
matrice B simmetrica e definita positiva. Di conseguenza, al posto 
di S si considererà la matrice BSBT che, se B è stata scelta bene, 
soddisferà alle condizioni di cui sopra. 
Le relazioni del CG method si modificano solo lievemente. Le 1.6 e 
1.7 diventano rispettivamente: 
pk+1= Brk+1 + bkpk; 
bk= -(pkTSBrk+1)/(pkTSpk). 
Un procedimento di questo tipo va sotto il nome di "preconditioned 
conjugate gradients" e consiste praticamente nel sostituire il 
problema 1.3 con: 
(BSBT)(B-Tx)= By. 
Se si sceglisse B uguale all'inverso della matrice L  che compare in 
1.4, (BSBT) coinciderebbe con la matrice identità e le componenti di 
(B-Tx) potrebbero essere determinate con una sola iterazione. 
Purtroppo però, come detto in precedenza, la determinazione di L è 
particolarmente laboriosa, soprattutto in termini di memoria 
impiegata. Per questo motivo, nel costruire la "preconditioning 
matrix" si usa l'"incomplete Choleski decomposition" (ICCG). Esso 
consiste nel porre B uguale all'inverso di una matrice triangolare 
inferiore C i cui elementi, ad es., possono essere ottenuti così: 
se Sij= 0 o j>i, allora Cij= 0; 
altrimenti, Cij= Sij. 
Si potrà quindi scrivere: 
S= CCT + E, 
dove E è detta matrice-errore. Di conseguenza, si avrà: 
BSBT= I + C-1EC-T. 
Se E è piccola, il condizionamento di S tramite una matrice B così 
definita è soddisfacente. 
Una buona analisi del comportamento dell'ICCG è realizzata in (14) 
per un caso semplice (un cubo in cui fluisce una corrente uniforme) 
in funzione di vari parametri: numero delle incognite, singola o 
doppia precisione, formulazione con o senza gauge (§2.4), differenti 
strutture dell'albero e del coalbero (§2.5). 
 
 
 
 
BIBLIOGRAFIA 
(1)RAYLEIGH-"On the approximate solution of certain problems 
relating to the potential", Proc. of the  London Mathematical 
Society, vol. 7, pp. 70-75, 1876. 
(2) P.P. SILVESTER- "Finite element solution of homogeneous wave 
guide problems", Alta Frequenza, vol. 38, pp. 313-317, 1969. 
(3)P.P.SILVESTER-"Gli elementi finiti nell'ingegneria elettrica: i 
primi 50 anni", Alta Frequenza, vol. 4,  pp. 317-329, 1992. 
(4)M.ZLAMAL-"On the finite element method", Numerische Mathematik, 
vol. 12, pp. 394-409, 1968. 
(5)I.ERGATOUDIS,B.M.IRONS,D.C.ZIENKIEWICZ- "Curved iso-parametric 
quadrilateral elements for finite element analysis", Int. Journal 
Solids Structures, vol. 4, pp. 31-42, 1968. 
(6) C.R.I. EMSON- "Methods for the solution of open boundary 
electromagnetic-field problems", IEE Proc., part-A, vol. 135, pp. 
151-158, 1988. 
(7)P.P.SILVESTER,M.S.HSIEH-"Finite-element solution of 2-dimensional 
exterior-field problems", IEE Proc., vol. 118, pp. 1743-1747, 1971. 
(8)I.BABUSKA,W.C.RHEINBOLDT-"Error estimates for adaptative finite 
element computations", SIAM J. Num. Anal. vol.15, pp.736-754, 1978. 
(9) D.W. KELLY, J.P. DE S.R. GAGO, O. ZIENKIEWICZ- "A posterior 
error analysis and adaptative processes in  the finite-element 
method", Int. J. for Num. Meth. in Eng., vol. 19, pp. 1593-1619, 
1983. 
(10)J.R.BRAUER-"What every engineer should know aboute finite-
element analysis", CAD COMP, Inc. Milwaukee, Wisconsin, 1988. 
(11)P.P.SILVESTER,R.L.FERRARI-"Finite Elements for Electrical 
Engineers", Cambridge University Press, 2nd edition, 1990. 
(12) M.R. HESTENES, E. STIEFEL- "Methods of conjugate gradients for 
solving linear systems", J. Res. Nat.  Bur. Stand., pp. 409-436, 
1952. 
(13)J.O'DWYER,T.O'DONNELL-"Evaluation of solution for  2D Finite-
Element analysis with particular application to saturable reluctance 
motors", Int. Workshop on Electric and Magnetic Fields, 49, 1992. 
(14)D.BENZEGA-S.BOUISSOU-F.BOUILLAULT-F.PIRIOU: "Numerical behaviour 
of ICCG method for 3D magnetostatic problems", International 
Workshop on Electric and Magnetic Fields, 33, 1992. 
           CAPITOLO  II 
 
       Formulazioni agli elementi finiti 
    per l’elettromagnetismo quasi stazionario       
 
 
§2.1-INTRODUZIONE. 
Il metodo degli elementi finiti Ł stato applicato ad  una vasta 
classe di problemi: a tal proposito, una accurata ricerca 
bibliografica Ł stata sviluppata da J.D.Lavers, dell’Universit  di 
Toronto (1). 
Un vasto campo di applicazione del FEM Ł quello  relativo ai 
problemi di magnetismo; ai primi lavori di Chari e Silvester, 
all’inizio degli anni ’70  (2,3), fecero seguito numerose 
publicazioni di altri studiosi, tant’Ł che gi  nel 1980 tutte le 
maggiori conferenze sull’elettromagnetismo includevano una sessione 
interamente dedicata al metodo degli  elementi finiti. Inoltre, dal 
1990, il FEM Ł  diventato il principale metodo numerico per problemi 
magnetici.  
 
 
§2.2-L’ELETTROMAGNETISMO QUASI STAZIONARIO. 
L’approssimazione quasi stazionaria consiste nel trascurare la 
corrente di spostamento nelle equazioni  di Maxwell. La 
determinazione delle condizioni in corrispondenza delle quali tale 
ipotesi risulta essere accettabile pu  essere effettuata ricorrendo 
ad una tecnica di "adimensionalizzazione" di tali equazioni (28). 
In un conduttore omogeneo il rapporto tra la corrente  di conduzione 
e quella di spostamento alla frequenza ω  Ł dato da: 
|σ E| |ε δ E/δ t|
−1
 = σ/(εω)  
ed esso risulta maggiore di 1 se: 
σ > εω.  
Nei metalli ci  Ł verificato a qualsiasi frequenza, mentre pu  non 
esserlo per sostanze moderatamente conduttrici a frequenze elevate 
(4). In definitiva, detta d la massima dimensione lineare di un  
dispositivo, si pu  ad esso applicare l’ipotesi di  quasi 
stazionariet  per basse frequenze quando la variazione delle 
sorgenti nel tempo d/v di propagazione attraverso il dispositivo Ł  
trascurabile, essendo v=  (µε)
−1/2
 con µ  permeabilit  magnetica. In 
regime armonico ci  pu  essere espresso dalla condizione: 
(ω d/v)<<2π   
cioŁ le dimensioni lineari del sistema devono essere 
sufficientemente piccole rispetto alla lunghezza v/ω . 
Va rilevato che trascurare la corrente di spostamento in un mezzo 
non conduttore rende il calcolo del campo magnetico - che spesso per 
problemi magnetici a bassa frequenza Ł il solo d’interesse - 
indipendente da  quello del campo elettrico, con conseguente 
notevole risparmio di risorse computazionali. In un mezzo conduttore 
ci  tuttavia non avviene in quanto il campo magnetico e quello 
elettrico rimangono comunque legati dalla legge di Ohm  
J= σ E. 
Il classico modello quasi stazionario magnetico Ł (5,6,7): 
rot H= J   in V
C       
2.1
 
rot E= -δ B/δ t  in V
C      
2.2  
con le relazioni constitutive: 
J= σ E + J
S
  
B= B(H) 
ed opportune condizioni iniziali che assicurino 
div B= 0. 
Il campo J
S
(x,t) Ł la densit  di corrente impressa che si suppone 
assegnata in tutto lo spazio (x Ł il vettore posizione). Si suppone 
inoltre che la conducibilit  σ sia solo funzione delle coordinate 
spaziali nella regione conduttrice V
C
 e che la caratteristica 
magnetica sia descritta da un legame monodromo e monotono, per  cui 
H= H(B) e H= B
-1
. 
Nella regione esterna R
3
-V
C
 le equazioni del campo sono: 
rot H= J
S         
2.3  
div B= 0        2.4  
B= B(H). 
Il problema Ł chiuso dalle condizioni di regolarit  all’infinito e 
da quelle di raccordo sulle superfici di discontinuit  in R
3
: 
H ◊ n= 0 
δ B/δ t ∴  n= 0, 
essendo n il versore normale all’interfaccia. Con i simboli  , ◊, ∴, si 
indicano rispettivamente la variazione di una grandezza 
nell’attraversamento  della superfice  di separazione tra due mezzi, 
il prodotto vettoriale e il prodotto scalare. 
Noto B, il campo elettrico E in R
3
-V
C
 pu  essere  ottenuto 
successivamente dalla conoscenza del suo  rotore (rot E= -δ B/δ t), 
della sua divergenza (assegnata con la distribuzione delle cariche  
esterne, che si suppone nulla: div E= 0) e della componenete 
tangente sulla frontiera δ V
C
 di V
C 
(E ◊ n= σ
-1
J ◊  n). 
Non Ł superfluo notare che la condizione di solenoidaleit  dei campi 
vettore J e δ B/δ t Ł automaticamente rispettata, essendo vere le 
relazioni 2.1  e 2.2 : basta farne la divergenza sia a destra che a 
sinistra del segno di uguale. 
 
 
§2.3-IL PROBLEMA DELLE DISCONTINUITA’. 
La caratteristica fondamentale dei problemi 3D rispetto a quelli 2D 
non Ł tanto l’introduzione della terza coordinata spaziale, quanto 
la necessit  di dover trattare campi vettoriali. I problemi 
elettromagnetici 2D (statici o quasi statici) possono essere quasi  
sempre risolti con una formulazione in cui l’incognita  Ł un campo 
scalare (es. potenziale scalare elettrico, componente ortogonale del 
potenziale vettore, funzione di flusso). Ovviamente, Ł sempre 
possibile ricondurre un’incognita vettoriale all’insieme di tre 
incognite scalari: tuttavia, in questo modo, non si ha piø a che 
fare con un problema scalare, bens  con tre problemi scalari 
accoppiati. Inoltre, visto che tutte le grandezze elettromagnetiche 
(B, H, E e J) possono risultare discontinue sulle superfici di 
separazione fra mezzi materiali di differenti caratteristiche 
magnetiche o elettriche, le loro componenti in  qualsiasi sistema  
di riferimento non possono essere approssimate come una sommatoria 
di funzioni continue. Nel caso 2D tale problema Ł automaticamente 
risolto grazie al  carattere implicitamente continuo della funzione 
incognita. 
Nel caso 3D, il trattamento delle superfici di discontinuit  si pu  
superare in vari modi:  introducendo funzioni a due valori sulle 
superfici di discontinuit , adottando elementi finiti non conformi, 
oppure introducendo i potenziali vettori. 
L’introduzione di funzioni a due valori sulle superfici di 
discontinuit  Ł una via alquanto scomoda in quanto richiede 
l’imposizione di condizioni di raccordo che  non possono essere 
verificate esattamente se non in un numero discreto di punti sulle 
superfici di discontinuit . 
L’adozione di elementi finiti non conformi (edge o  facet elements) 
Ł un approccio tipicamente numerico basato sull’utilizzo di funzioni 
approssimanti che godono di particolari propriet , che vengono 
pertanto trasferite automaticamente alle grandezze approssimate. 
L’introduzione dei potenziali vettori, infine, Ł l’approccio 
classico. Esso, per , richiede l’uso anche di potenziali scalari e 
di condizioni di gauge:  pertanto il problema passa da 3 a 4 
equazioni in 4 incognite scalari. 
Facendo riferimento all’approccio classico dei potenziali vettori 
per la descrizione di campi discontinui  in termini di funzioni 
continue, il modello quasi stazionario magnetico d  luogo a due 
classiche famiglie di formulazioni (5,6,7): la prima basata sulla 
diffusione del campo magnetico, la seconda sulla diffusione del 
campo elettrico. 
 
    
§2.4-FORMULAZIONE T-Ω. 
La formulazione T-Ω  Ł caratterizzata dall’introduzione del 
potenziale vettore T e del potenziale scalare Ω .  La posizione che 
si fa Ł: 
J= rot T. 
Essendo valida la 2.1 , la differenza tra il potenziale vettore T e 
il campo magnetico H Ł data  dal gradiente  di una funzione scalare 
Ω : 
H= T - grad Ω .        2.5  
Il ricorso a potenziali vettori e scalari, e il conseguente aumento 
del numero delle incognite e delle equazioni (con il ricorso alle 
condizioni di gauge), Ł giustificato dalla possibilit  di trattare 
meglio eventuali discontinuit  presenti. Ad esempio, il possibile 
salto della componente normale di H pu   essere totalmente assorbito 
da una discontinuit  di δΩ/δ n, garantendo cos  la continuit  sia di 
Ω  che delle tre componeneti di T. 
Tenendo conto della legge di Ohm e della 2.5 , la 2.2  diventa: 
rot (σ
−1
 rot H)= -δ B(H)/δ t  in V
C
    2.6  
Questa equazione va accoppiata con le equazioni 2.3  e 2.4  relative 
alla regione esterna, equazioni che, nel caso di assenza dei termini 
sorgente, diventano: 
rot H= 0  in R
3
-V
C
           2.7  
div B(H)= 0  in R
3
-V
C
         2.8  
L’equazione 2.7  suggerisce l’introduzione di un potenziale scalare 
Ω definito da: 
H= -grad Ω   in R
3
-V
C
          2.9