ben lontana da quella di tre secoli fa, che riponeva una fiducia cieca nella
ragione e nel metodo scientifico. Infatti, secondo quell’ottica fedele alla
regolarità, Cartesio si serviva della matematica come strumento per
interagire con l’Universo, comprenderlo, svelarne le leggi e predirne
l’andamento futuro (3), Galileo Galilei avviava i suoi esperimenti mentre
Isaac Newton, studiando la meccanica celeste, formulava le tre leggi
fondamentali del moto e la legge della gravità, dalle quali deduceva il moto
planetario (4). Quest’ultimo, inoltre, in campo matematico, scopriva il
calcolo infinitesimale, strumento indispensabile per prevedere l’evoluzione
temporale degli astri, così come di oggetti terrestri, mentre con il telescopio
fu possibile, in seguito, scrutare empiricamente i cieli e confermare quanto
previsto da Newton. Gli strumenti a disposizione aumentavano e le
scoperte si arricchivano di nuovi dati, sempre più dettagliati, a conferma di
una realtà regolare, perfettamente comprensibile e spiegabile con le leggi
della matematica, della fisica e della geometria.
Naturalmente era un discorso valido soprattutto a livello macroscopico.
Ciò che avviene a livelli microscopici, infatti, non sempre è pienamente
misurabile, e tutto al più se ne può fornire un’approssimazione valida a
spiegarne il risultato finale su scala macroscopica.
Semplificare i molteplici aspetti della natura, classificarla in base alle sue
regolarità, era il lavoro dello scienziato che, interagendo con essa, ne
osservava le risposte e i cambiamenti. Per questo si serviva, da un lato,
della matematica, procedendo con rigore attraverso ipotesi, dimostrazione e
tesi, dall’altro, del suo laboratorio che gli offriva tutti gli strumenti di cui
aveva bisogno per ricevere la risposta per confermare o confutare la sua
ipotesi. Ogni fase dell’esperimento era condotta con estrema attenzione e
5
meticolosità: tutti i dati erano registrati e si osservava il variare del
fenomeno in funzione di determinati parametri. Solo se l’ipotesi veniva
verificata era possibile pensare che in futuro si sarebbe potuto prevedere,
controllare o modificare il fenomeno in questione (5).
Tutto questo fu chiamato, per ben tre secoli, “determinismo”. Infatti,
partendo dal presupposto che, dalla conoscenza dello stato di un sistema in
un dato istante se ne poteva prevedere lo stato in un qualsiasi momento
futuro, il “determinismo classico” ha dominato la corrente scientifica
apportando scoperte rivoluzionarie (6), dove ogni evento era visto come
una diretta conseguenza del precedente ed ogni meccanismo obbediente a
regole sempre valide. Tutto questo era comprensibile ed accessibile alla
mente dell’uomo, che viveva su una scena dove nulla era lasciato al caso
(5).
E’ evidente che questo concetto è in contraddizione con la realtà che si
osserva tutti i giorni, in cui certi fenomeni sembrano disordinati o
addirittura imprevedibili!
Il matematico Simon de Laplace (1749-1827), seguace del “determinismo”,
sosteneva la capacità di prevedere l’evoluzione di tutte le particelle
dell’Universo fino all’eternità, affermando che eventuali imperfezioni ed
incertezze, attribuibili ad un’analisi imprecisa, appartenevano alla teoria
delle probabilità (7). Se poi, nel contesto di un esperimento o di un sistema
non lineare accadeva qualcosa di imprevisto, e quindi inspiegabile, si
cercava in tutti i modi di ristabilire l’ordine attraverso approssimazioni
lineari o, nell’incapacità di farlo, lo si annullava, ammettendone
l’insuccesso (2a).
6
Inaspettatamente nel 1900, quando sembrava che si fosse giunti al pieno
controllo sulle leggi della natura, tutto sembrò vacillare in seguito alla
scoperta del quanto ad opera dello scienziato Max Planck (1858-1947).
Albert Einstein (1879-1955) forniva il suo contributo con la scoperta del
moto browniano, a conferma dell’esistenza di atomi e molecole, invisibili,
ma non più ideali: iniziava così l’era della relatività che poneva, inoltre,
delle restrizioni all’applicazione delle equazioni di Newton (5).
Il determinismo, pur restando un punto di partenza per ogni scienziato,
cedeva il posto alla nascente meccanica quantistica che, con la sua visione
probabilistica della realtà su scala atomica, gettò le basi di una nuova
filosofia scientifica rivoluzionaria che si collocava proprio agli antipodi del
determinismo classico (3). Uno dei postulati della nuova scienza fu il
principio di indeterminazione di Werner Heisenberg (1901-1976), che mise
in dubbio la capacità della mente umana di poter definire con accuratezza
fenomeni che avvengono su scala atomica (3): il mondo microscopico e, di
conseguenza, quello macroscopico, sembravano sfuggire alla piena
comprensione delle loro leggi (5). Si accettava, insomma, l’esistenza di
fenomeni naturali imprevedibili (7).
Già a fine ‘800 lo scienziato Henri Poincaré (1854-1912) si era imbattuto in
un'incongruenza che strideva con il concetto classico delle semplici leggi
naturali: riprese il problema dei tre corpi di Newton ma, non riuscendo a
fornire una soluzione esatta, dovette ammetterne l’impossibilità,
riconoscendo la complessità del problema (8).
In casi come questo, nei quali la matematica non era in grado di fornire una
esatta descrizione e, di conseguenza, una soluzione o, nel caso in cui la
soluzione si rivelava inspiegabile perché seguiva un andamento irregolare,
7
Poincaré proponeva il concetto di non integrabilità di un problema di
meccanica (9). Come lo scienziato Poincaré, anche il matematico Jacques
Hadamard fece le sue esperienze con fenomeni che evolvevano senza
seguire la regolarità attesa (8).
Si delineava così l’idea di un mondo deterministico, ma prevedibile solo in
parte, che interagiva con una natura a volte troppo complessa per essere
compresa a fondo, perché dominata da eventi casuali (6).
Quindi non bastava più raccogliere un numero di dati sufficienti per
ottenere l’informazione che si cercava, perché anche i sistemi più semplici
potevano rivelare un andamento inspiegabile, che non svaniva neppure
aggiungendo ulteriori dati (7): era come se una sorta di disordine nasceva,
senza spiegazione, dai sistemi più semplici agendo come un processo
creativo e generando complessità (2a). A questa nuova filosofia venne
attribuito il nome di caos deterministico, a sottolineare il fatto che anche
ciò che appariva disordinato e imprevedibile era stabilito da regole precise,
tutt’altro che casuali. Concettualmente era corretto affermare che il futuro
fosse una diretta conseguenza del passato ma emergeva come, le eventuali
indeterminazioni riscontrabili, non facessero altro che amplificarsi, fino a
rendere impossibile effettuare ogni previsione a lungo termine in maniera
accurata (7). Tutto questo è sintetizzato nel concetto della dipendenza
sensibile dalle condizioni iniziali, che spiega la coesistenza del
determinismo storico con quell’imprevedibilità che a volte si riscontra
(6).Una materia così rivoluzionaria, anche se limitava le capacità dello
scienziato, ciò non di meno permetteva di applicare il determinismo a
problemi inerenti una materia, quella del caos, fino a quel momento
ignorata, al fine di prevedere fenomeni prima considerati irregolari (7).
8
Gradualmente le vecchie teorie lasciarono il posto alle più innovative: fare
scienza non significava più prevedere con esattezza e precisione l’evolversi
di un evento; gli obiettivi, meno ambiziosi, miravano a fornire l’aspetto
qualitativo del reale, perché quello quantitativo era soggetto
inevitabilmente ad imprecisione e approssimazione. I fenomeni complessi
di tutti i giorni, ovvero quelli nei quali dominano l’imprevedibilità, la
soggettività, il finalismo, la libera scelta, si potevano, quindi, ridurre a
schemi matematici (10).
Sino ad allora, anche in campo ecologico si era ritenuto che l’evoluzione di
una popolazione si stabilizzasse intorno ad un valore di densità circa
costante o seguisse variazioni cicliche e che eventuali irregolarità fossero
causate da imprevedibili variazioni ambientali (11).
Il punto di vista cominciò a cambiare quando un biologo, Robert May,
usando una semplice equazione matematica, studiò il comportamento
evoluzionistico di una popolazione, al variare di un certo parametro non
lineare (il tasso di incremento della popolazione, cioè la sua tendenza ad
aumentare e poi esplodere). Più basso era il suo valore, più il modello
tendeva verso uno stato stazionario; al crescere del valore invece,
aumentava la non linearità e la popolazione oscillava tra due valori che si
alternavano; a valori ancora più elevati del parametro, la popolazione
evolveva allontanandosi sempre più dal raggiungimento dell’equilibrio, per
assumere un andamento imprevedibile. Ponendo i valori del parametro
sulle ascisse e la popolazione sulle ordinate, egli ottenne il “diagramma di
biforcazione” (vedi figura 1) in cui ogni punto indicava il raggiungimento
di un equilibrio: per bassi valori del parametro si ottenevano singoli punti,
sinonimo di uno stato stazionario su una curva ascendente. Poi, giunti al
9
primo punto critico, la linea si spezzava in due: si assisteva ad uno
sdoppiamento in cui la popolazione passava da un ciclo di un anno ad un
ciclo di due anni, oscillando tra i due valori. Accrescendo ancora un po’ il
parametro e giunti ad un nuovo punto critico avveniva, per ogni linea, un
nuovo sdoppiamento che produceva in totale un ciclo di quattro anni di
aumento e diminuzione della popolazione. Un simile andamento era
complesso ma, nello stesso tempo, regolare, stabile e prevedibile: il sistema
si assestava sullo stesso ciclo di quattro anni, indipendentemente dai valori
delle condizioni iniziali.
Figura 1. Diagramma di biforcazione: raddoppiamento di periodo e caos.
10
Proseguendo l’analisi le biforcazioni diventavano sempre più frequenti (2,
4, 8, 16, 32…) fino, ad un certo punto, ad arrestarsi. Si tratta del cosiddetto
“punto di accumulazione”, in cui gli sdoppiamenti diventano così
rapidissimi da non distinguersi più, ed il sistema diventa caotico: il numero
complessivo della popolazione in questione continua a fluttuare tra
un’infinità di valori diversi. Proseguendo in questo stato caotico, però,
improvvisamente riappare una regolarità che sfocia nuovamente nel caos,
ripetendo all’infinito un motivo sempre uguale a se stesso (vedi figure 2, 3,
4) (2a). Si è di fronte ad un esempio di caos deterministico, in quanto i dati
non fluttuano in modo casuale e prevederne l’andamento a lungo termine
sarebbe inutile, in quanto soggetto ad errori crescenti in modo
esponenziale. Tuttavia, dall’osservazione della regolarità celata dietro la
complessità del fenomeno, cioè di come il sistema possa evolvere da
condizioni iniziali simili, è possibile tentare una previsione dell’andamento
a breve termine (11).
11