7
Questo stesso pragmatismo guida il presente lavoro di tesi, vuoi per le sopraccitate
ragioni secolari, vuoi per personali propensioni alla spendibilità dei sudati edifici
epistemologici. Nonostante i primi cinque capitoli paiano infatti proporre una pura
speculazione qualitativa interdisciplinare, tutte le primizie che in essi germogliano
sono imbrigliate e capitalizzate in seno agli ultimi tre.
Gli scopi manifesti della tesi sono due: capire cosa sia – a conti fatti – e dove stia
«andando a parare» il Knowledge Management, e progettare un software che ne
possa supportare l’applicabilità in un’ampia rosa di situazioni. Il tutto attraverso il
filtro-metafora di un metodo di ricerca affascinante e relativamente recente: la teoria
della Complessità.
Il primo e il secondo capitolo vertono sull’esposizione di questo peculiare
paradigma, le sue origini, le aree di applicazione e la filosofia che lo sottende. A
causa della giovinezza acerba e delle poche formalizzazioni della disciplina, ho
scelto la via di una continua sintesi tra pensatori differenti, a volte rimpinguando con
innesti attinti da altri universi analitici.
Nel terzo capitolo la teoria della complessità è instradata nell’encefalo umano, alla
ricerca di un possibile connubio tra processi chiave nella nostra esperienza rispetto
alle conoscenze e alle informazioni: le germinazioni sintattiche e semantiche. Il
capitolo successivo si concentra poi sull’evoluzione della mente, l’organo in cui la
semantica ha trovato la sua manifestazione più compiuta e deflagrante.
La quinta sezione del lavoro è una sintesi multidisciplinare volta alla raffigurazione
di un modello subcognitivo dei processi di percezione, stoccaggio e valorizzazione
delle conoscenze negli anfratti neurali biologici.
Il sesto capitolo sposta il focus sulla capacità dei primati di trasmettere e far fruttare
intra-specie i patrimoni di saperi stipati nei cervelli dei singoli individui. Vettori e
protagonisti di questa intelligenza sistemica sono gli artefatti.
Ed infine i capitoli finali, impegnati a trasmutare la maggior parte dei contenuti
precedentemente affrontati in un viaggio il più possibile consapevole tra le spire del
Knowledge Management e i suoi artefatti prediletti: i software per le organizzazioni
complesse. In questo contesto è descritta la peculiare gemmazione dell’architettura di
K-Flowind, il sistema per la gestione delle conoscenze su cui sto più o meno
implicitamente lavorando da un biennio. Trattandosi in via elettiva di un percorso di
8
auto-formazione, le disquisizioni tecnologiche sono presentate in stretto connubio
con le vicende personali e le situazioni che mi hanno avvicinato ad esse.
.
. Se Socrate poteva
adempiere con successo la sua missione maieutica sfruttando abilmente l’ironia e le
lame di una sottile dialettica, gli attori oggi coinvolti nel circuito escatologico del
KM si devono affidare ad altri tipi di strumenti: le strategie human resources e i
software per intranet di ultima generazione.
La meta ultima del Knowledge Management è la trasformazione dell’organizzazione
in una rete di componenti umane fortemente interconnesse ed in grado di trasferire a
tutto il sistema le proprie conoscenze tacite. Lungi dal rappresentare solo le fibre
nervose di questo quadro, alcune tipologie di programmi informatici puntano a
fornire validi compendi per «aspirare» dai cervelli degli individui le conoscenze e
ridistribuirle just in time e personalizzate a chiunque nell’organizzazione ne
abbisogni.
Ovviamente i software non sono la formula magica incondizionata o la panacea di
ogni male; a maggior ragione nel delicato cosmo delle interfacce a stretto contatto
con gli attori umani e i loro illogici cervelli (checcè se ne dica). Per di più, il
fallimento del programma spregiudicato dell’intelligenza artificiale funzionale1
(comportamentista, top-down) ha più che smascherato i talloni d’Achille del facile
positivismo tecnologico.
Per questo motivo ho congeniato l’intera mole del presente lavoro in un’ottica «dal
basso» e ingegneristicamente debole (bottom-up) cercando, prima di architettare un
software che si comporti in maniera «intelligente», di capire le condizioni che
possono aver determinato (e determinare tutt’ora) nel caotico e insano mondo reale la
nascita e lo sviluppo del caduco bocciolo dell’intelligenza e le facoltà che
prometeicamente definiamo «superiori». Chi segue questa strada è comunemente
identificato come assertore dell’Intelligenza Artificiale strutturale e del
connessionismo, la sotto-branca eretica della psicologia cognitiva che tenta di
1
L’intelligenza Artificiale che punta a riprodurre le facoltà umane sulle macchine senza dare troppa
importanza al supporto su cui queste facoltà sono emulate. In breve, ai sostenitori dell’AI funzionale
non interessa come si genera nel corpo umano un comportamento, ma solo che una macchina sia in
grado di riprodurre fedelmente il comportamento stesso.
9
studiare i complessi comportamenti del cervello cercando di carpire prima di tutto le
micro logiche subcognitive e locali dei neuroni. Per il connessionismo non potrà mai
esistere intelligenza o flessibilità percettiva senza una struttura sottostante il più
possibile similare allo sporco e incessante brulichio di miliardi di piccoli agenti
«stupidi» (i neuroni).
A questo punto è altresì possibile afferrare la ragione che mi ha spinto alla scelta
dell’approccio della teoria della complessità. Possiamo prosaicamente vedere in
questa disciplina un «connessionismo all’ennesima potenza», i cui princìpi sono
applicati non solo al cervello, ma a tutte le manifestazioni della natura. Se il
connessionismo è prima di tutto una scienza, la complessità è – a mio avviso – prima
di tutto una filosofia, una robusta griglia di pensiero per interpretare il mondo.
Un pensiero che fa della fluidità focalizzata e dell’equilibrio dinamico quasi-caotico
il suo stendardo. Nella complessità tutto è sistema e componente allo stesso tempo,
ogni cosa è prodotto di un formicolio ininterrotto e, nel contempo, micro-agente
partecipante ad un’ecologia di più ampia portata.
In via speculare ad ogni filosofia a carattere gestaltico, nella metafora della
complessità le evoluzioni qualitative della materia (i salti di fase) sono la gratuita
conseguenza di evoluzioni e mutazioni quantitative, quindi possono essere studiate in
un’ottica tendenzialmente determinista. Le evoluzioni qualitative di cui tratto nel
presente lavoro sono: la vita, l’abilità sintattica, la generazione semantica, la mente,
l’intenzionalità e l’abilità di operare reframing su artefatti e situazioni. Si tratta di
discontinuità non lineari, fulmini a ciel sereno scaturiti da auto-organizzazioni
spontanee e radicali della materia in seguito a variazioni sostanziali dell’assetto
materiale delle sue componenti (non ultimo, il numero e il tipo di relazioni
comunicative tra di esse).
In definitiva, se cerchiamo di costruire un software in grado di coordinare la
conoscenza e di saperla riconoscere e valorizzare nelle persone, è necessario prima
avere una – seppur modesta – visione di come la natura sia arrivata dal basso a
costruire lo strumento principe per la gestione della conoscenza: il corpo umano e la
sua corteccia celebrale. Lo stesso dicasi per la comprensione di come
un’organizzazione possa adottare i paradigmi del Knowledge Management nel suo
complesso.
10
Il carattere sperimentale del presente lavoro si incunea nell’incastro inedito degli
argomenti, dei sillogismi e delle proposizioni multidisciplinari, non nella
dimostrazione scientifica e sperimentale di assiomi. Vuoi per la vastità
dell’argomento a mio avviso illecitamente sezionabile, vuoi perché il metodo di
dimostrazione bottom-up tipico della complessità coincide con pesanti simulazioni
informatiche attuabili solo da grandi centri di ricerca in possesso dell’adeguata
potenza di calcolo, vuoi perché la stessa scienza dei nuovi media – immancabile
protagonista nel processo di creazione di software dal «volto umano» – è una
disciplina in instancabile evoluzione, da attuarsi in special modo «sul campo»
attraverso prove ed errori e con poche teorie generali.
In questo senso, forse, le mie modeste esperienze professionali di programmatore e
interface designer, di knwoledge engeneer a WebAgent, e le analisi per StartCup ed
Intesys (tuttora in corso, cfr. cap 8) potrebbero aver significato (e significare) una
certa dose di utilità per lo scopo corrente.
Un’ultima nota per le conclusioni della ricerca qui proposta. In questo lavoro non è
presente un capitolo interamente dedicato ad esse, in quanto insite nell’ultima area,
in particolar modo nei capitoli 7 e 8. Anche se, a conti fatti, si tratta di conclusioni
piuttosto amorfiche e in divenire. La stampa di questa tesi non licenzia certamente il
mio flusso di riflessioni sull’argomento, tantomeno le esperienze in seno alle
tecnologiche «proto-senzienti» e al Knowledge Management; invero, tali questioni
stanno acquisendo una ridotta ma risoluta consistenza solo negli ultimi mesi.
11
Inizio XX secolo. S.Freud afferma che i flussi emotivi ed intellettivi del cervello
possono essere felicemente assimilabili ai meccanismi di compensazione di un
impianto idraulico. Tra le parti vi è, infatti, un continuo fluire in grado di determinare
l’equilibrio mentale, attraverso un moto che segue alcune leggi paragonabili a quelle
della dinamica dei liquidi.
1950. A. Turing ripropone per esteso il chiaro teorema di cui parla dal 1936: il
cervello, in fondo, ha la stessa logica di una macchina in grado di manipolare
simboli2 ed è quindi su essa riproponibile in toto.
1956. Nasce la psicologia cognitiva e con essa la psicologia cognitiva sperimentale,
che assume l’uguaglianza formale tra la gestione delle risorse di un computer e
quella dei processi cognitivi umani, stabilendo in questo modo la legittimità del
testing di modelli del funzionamento di alcune parti del cervello umano sui
calcolatori elettronici.
.
2 . E’ connaturato all’essere umano il potere di creare
metafore, simboli ed analogie in grado di rendere più intelligibile qualcosa che, di
fondo, non lo è poi troppo. La gemmazione metaforica è innestata a forza nel campo
della facoltà rappresentativa umana, e con essa la fertile capacità di riscrivere da
sempre inedite angolature un brandello di reale interno o esterno all’organismo.
Come nella caverna platonica è lapalissiana però l’insoddisfazione della mente nei
confronti di queste ombre povere rispetto alla complessità delle cose.
2
Nota anche come «Macchina di Turing», ovverosia il sistema di manipolazione binaria alla base
dell’attuale architettura del computer. Turing si è spesso riferito agli stati interni della sua macchina
con la definizione «stati mentali».
12
Le metafore si esplicano in teorie, modelli, rappresentazioni, funzioni, mappe,
sintesi, parabole, traduzioni, simulazioni, emulazioni… ognuno di questi contenitori,
più o meno estesi, copre una certa parte dell’originale che vuole ridescrivere, ma
come una coperta stretta, non lo avvolge mai del tutto. Rimane sempre una zona di
frontiera non conoscibile e, «occidentalmente» parlando, nei limiti del possibile
ignorabile3. In questa landa desolata stanno le paure e il «caos». Qui emerge in tutta
la sua drammaticità la finitezza dell’homo sapiens e la sua impossibilità strutturale di
arrivare a capire la verità, l’episteme, in quanto vincolato all’atto di conoscenza, per
definizione riduttivo e relativo.
Ciò è ormai di pubblico dominio, specialmente dalla prima metà del XX secolo,
quando anche le metafore più solide, come la Scienza o la Matematica, sono state
minuziosamente decalcificate e ne sono state messe alla gogna le nudità ontologiche
e l’abisso tra queste e il mondo fenomenico.
«Sei giovane dall’ultima volta in cui hai cambiato punto di vista»
Timothy Leary
«E’ un buon esercizio per un ricercatore scientifico disavvalorare una
personale ipotesi ogni giorno prima di colazione. Questa abitudine lo
conserva giovane»
Konrad Lorenz
.
3
4.Questo lavoro di tesi intende
occuparsi di un argomento complesso, controverso e – forse – complicato: le reti di
conoscenze e la loro gestione.
Le conoscenze sono null’altro che rappresentazioni – quindi metafore più o meno
«stratificate» – di dati ed esperienze, presenti all’interno di un agente4, sia questo un
organismo biologico o un artefatto umano.
In letteratura ha avuto molto successo il distinguo tra conoscenze tacite ed esplicite,
con chiaro riferimento alla discrepanza tra ciò che è implicito e ciò che è esplicito
alla coscienza dell’agente portatore di conoscenze. Nel corso della presente
3
Cfr. capitolo 3 i riferimenti a Platone.
4
«Knowledge is the internalization of information, data, and experience», Stuhlman Management
Consultants, http://home.earthlink.net/~ddstuhlman/defin1.htm.
13
trattazione emergerà chiaramente la vacuità di tale distinzione e l’impossibilità di
semplificare a tal livello un fenomeno cosi complesso. Invero, la conoscenza
implicita insita nella morfologia del fanone di una balena, non è né «inferiore», né
agli antipodi rispetto a quella ingenuamente esplicita che ci permette di calcolare la
radice quadrata di 25. E lo stesso vale per la certosina abilità degli enzimi cellulari
nel creare e tagliuzzare brandelli di RNA: queste molecole hanno cablate «su se
stesse» una miriade di conoscenze circa le proprietà chimiche e fisiche dell’RNA, le
aree cellulari in cui devono esistere, le condizioni per operare con successo su di
esso, e via cosi.
Esiste poi un’altra questione «a monte». Se le conoscenze sono metafore, lo stesso
ovviamente si può dire dell’approccio metodologico di cui ci si avvale per studiarle e
riflettere su di esse. E ciò non è di poco.
E’ possibile affermare – in misura più o meno tautologica – che il potere descrittivo
di una metafora sia direttamente legato alla sua «risoluzione», ma indirettamente
proporzionale all’estensione del territorio che vuole rappresentare. In spiccioli, una
mappa che voglia descrivere con una scala di 1:100 un territorio grande come una
regione, sarà molto accurata, ma poco gestibile5 dal nostro apparato percettivo. Pur
nella sua bontà, perderà cosi il suo potere descrittivo globale. E’ bene infatti
ricordare che le rappresentazioni hanno il compito principale di semplificare e
rendere intelligibile qualcosa di multiforme, poliedrico ed eclettico. E le
semplificazioni non sono mai assolute, ma relative ad un certo apparato percettivo e
cognitivo. Lo sa bene chi deve progettare un ambiente artificiale in cui far vivere una
certa specie di viventi (come accade negli zoo): per «arredare» lo spazio di ogni
animale conta molto di più focalizzare l’attenzione sugli elementi da esso percepiti
più importanti, piuttosto che ipotizzare la costruzione di un ambiente identico al
naturale (cosa di per sè impossibile). Per una rana, ad esempio, conteranno molto le
tipologie di ninfee o di microrganismi diffusi nell’acqua, e molto poco la presenza di
esseri umani vestiti vistosamente a distanza di qualche metro; mentre per un gibbone
5
Si può obbiettare che le grandi mappe possono essere gestite da atlanti o programmi per computer.
Pur essendo empiricamente vero, ciò va però incontro ad una contraddizione nel nostro ragionamento:
il computer o la carta gestisce si tutta la mappa, ma il nostro cervello ne considera volta per volta solo
le singole pagine o schermate somministrate dall’artefatto; non avremo mai una visione d’insieme
troppo precisa.
14
acquisiranno più importanza gli stimoli visivi e la compagnia di altri individui della
stessa specie piuttosto che la presenza di fito-plancton nelle pozze d’acqua.
Ebbene, il quesito alla base di questo lavoro di tesi è evidente. Esiste un vasto ed
imbarazzante6 territorio da analizzare (l’universo delle conoscenze) e varie parche
metafore per la descrizione del medesimo. Alcune di queste metafore (come le
diverse psicologie: freudiana, cognitiva, sociale, …) sono ampie ma piuttosto
insensibili ai particolari; mentre altre, come la chimica, sono molto accurate, ma
profondamente ancorate ad alcuni aspetti del problema (come l’analisi delle
molecole che, a livello delle sinapsi, permettono lo «stoccaggio» dei ricordi).
Per uscire dall’empasse esistono molte valide soluzioni, tra cui la più semplice è
probabilmente la scelta preventiva e «politically correct» di dedicarsi solo ad un
piccolo aspetto del problema, lasciando onestamente a qualcun altro altre aree.
Com’è risaputo, ciò ha il vantaggio del «metodo»: isolando poche variabili ci si può
avvalere di strumenti storicamente stratificati e legittimati come il metodo scientifico.
Ma lo scotto da pagare sono i danni collaterali del «bisturi epistemologico»: isolare
vari aspetti di un problema complesso implica il rischio di tranciare qualche variabile
critica (che può dare tanti danni quanto tagliare l’aorta).
Postulato che tale rischio esiste sempre e comunque in ogni tipologia di analisi, in
questo documento ho ritenuto ragionevole tentare una fresca e poco conosciuta strada
epistemologica che fa dell’approccio sistemico, multi-livello, e poco invasivo la sua
ragion d’essere: la teoria della complessità7.
Il primo capitolo si concentrerà, in via propedeutica, sull’analisi e sui possibili
vantaggi derivanti da tale proposta. Lo scopo non è certamente dimostrare la
superiorità assoluta di questo strumento sulle discipline tradizionali, ma
semplicemente dare atto di un paradigma di analisi importante ancora poco
conosciuto nel nostro paese ma, a mio personale parere, fertile, assolutamente
secolarizzato ed in «linea con i tempi» dal punto di vista epistemologico.
Per correttezza metodologica ritengo conveniente ricordare la poca neutralità del
sottoscritto al tema: come si capirà ben presto, la teoria della complessità ha radici
6
Si pensi alla complessità del solo cervello: «Il cervello umano è il sistema naturale più complesso
esistente nell’universo conosciuto», E. Goldberg, l’anima del Cervello (vedi bibliografia).
7
Non ho scelto questo approccio a priori. Ho scoperto la teoria della complessità solo a lavoro
inoltrato, ma la sua capacità di semplificare e dare un assetto coerente al tutto mi ha implicitamente
costretto ad abbandonare le altre strade.
15
gestaltiche e si fonda sulle dinamiche emergenti scaturite dalla presenza di una rete
di sistemi; insomma, trova molti suoi postulati nella comunicazione tra le entità. E’
evidente, dunque, che uno studente delle discipline legate alla comunicazione sia
giocoforza notevolmente attratto in questi territori poco «sminuzzati», piuttosto che
uno studioso di discipline matematiche, fisiche o naturali.
. 5
, . Parlare di teoria della complessità è di per sé
veramente… complesso. Si tratta, infatti, di un pensiero che ha ben poco da
condividere con sistemi di postulati e definizioni lucenti. Al fine di questo lavoro è
tuttavia sufficiente una trattazione sintetica che renda atto dell’opportunità del suo
utilizzo.
Possiamo individuare una certa sensibilità per la complessità già negli intenti
programmatici della cibernetica negli anni ’40. Al tempo, personaggi provenienti da
universi assai eterogenei8 come l’antropologo G. Bateson, e uomini di scienze
«dure» del calibro di J. Von Neumann, W. Weaver e N. Wiener9 optarono per una
ricerca multidisciplinare in grado di fare più luce sulle infinite sfaccettature della
comunicazione dei sistemi10, unificandone la definizione.
In breve, la cibernetica intendeva studiare e riprodurre i «meccanismi con cui
uomini, animali e macchine comunicano con l’ambiente esterno e lo controllano»11.
Il cardine teorico era costituito dal principio di retroazione (feedback) in base al
quale l’output del sistema del momento «t-1» rientra in esso insieme agli altri input
ambientali nel momento «t», permettendo al sistema il confronto con il proprio
output precedente e la correzione dell’azione per il futuro.
La cibernetica fu decisiva nell’avvicinamento tra la cultura strettamente umanistica e
quella scientifico-tecnologica, mondi prima vicendevolmente idrofobi; il linguaggio
8
«Le discipline coinvolte nella cibernetica furono: ingegneria, fisica, biologia, filosofia, psicologia,
sociologia, antropologia», Mauro Annunziato 2004.
9
Matematico, creatore del termine cibernetica, intesa come: «scienza della comunicazione e del
controllo». Nel 1943 firma la pubblicazione Behavior, purpose and teleology in cui appare la
definizione di comunicazione citata qui, e in cui viene identificato l’elemento comune alle diverse
tipologie di oggetti studiati dalla cibernetica: la presenza di relazioni. Il mondo, per i cibernetici, è un
insieme di relazioni, scambio e circolazione d’informazioni; ovvero “mediazione”.
10
Una definizione di «sistema» compatibile con la teoria della complessità potrebbe essere: «un
complesso di componenti elementari collegate in qualche modo tra loro così da formare un tutto
organico per il quale si possono costruire delle simulazioni».
11
Definizione di LucaFini, esperto di cibernetica e automatismi (fonte: www.vialattea.net).
16
e l’angolo rappresentazionale di ogni disciplina veniva miscelato con quello delle
altre, generando descrizioni a più dimensioni, capaci quindi di estendere
verticalmente la «coltre» teorica sul problema della comunicazione.
Questo orientamento multidisciplinare rivoluzionario (J. Brockman12 ne dà
un’immagine a tinte forti attraverso la formula «terza cultura») e l’attenzione assidua
per le dinamiche di scambio informativo tra i sistemi13, confluirà, una trentina d’anni
più tardi, in un cosmo epistemologico molto vasto a cui nel 1978, ad opera di un
articolo pubblicato sullo Scientific American, verrà dato il nome di «teoria della
complessità».
.
.Anche la teoria della complessità –
quale erede della cibernetica – si occupa di sistemi, che sono però categorizzati,
prima di tutto, sulla base della loro complessità. A tal proposito, è bene non cadere in
un facile bisticcio terminologico: l’aggettivo «complesso» non si riferisce ad una
proprietà intrinseca di un sistema, quanto alla complessità del modello descrittivo
che l’osservatore utilizza come metafora del sistema stesso; in altri termini la
complessità è direttamente proporzionale alla lunghezza minima della descrizione14
di quel sistema eseguita dall’osservatore umano. E’ quindi una caratteristica
squisitamente storica, vincolata per definizione alle vicende dei paradigmi scientifici
studiate da T. S. Kuhn.
Possiamo definire «sistemi» tutte le reti di componenti del reale, in qualsiasi ordine
di grandezza. E’ un sistema l’atomo di Bohr, la molecola di acqua, il filo di rame, il
mitocondrio, la cellula embrionale, il tessuto adiposo, la pelle, l’organismo umano,
una popolazione di fagoceri, la biosfera, il pianeta terra, il sistema solare, la via
lattea, l’intero universo, e cosi via.
Veniamo ora al punto cruciale: esiste una definizione condivisa di teoria della
complessità?
In realtà ogni autore ha per ora fornito definizioni (e, purtroppo, terminologie) molto
personali. Una delle più interessanti è quella proposta da T. Tinti secondo cui la
12
J. Brockman, La terza Cultura, Garzanti, Milano 1995.
13
Condiviso e sviluppato parallelamente e successivamente dalla «teoria dell’informazione» con
teorici di spicco quali Shannon, Marcus e Simon.
14
M. Gell-Mann, Il quark e il giaguaro, Bollati Boringhieri, Torino 1997.
17
teoria della complessità si esplica nello «…studio interdisciplinare dei sistemi
complessi adattivi e dei fenomeni emergenti ad essi associati…»15. Possiamo iniziare
l’analisi di tale definizione concentrandoci su alcune proprietà di tutti i sistemi:
• Generalmente, il grado di complessità di un sistema dipende dal numero e
dalla complessità individuale dei suoi sottosistemi (componenti). Le
componenti possono essere «hardware» (molecole, processori fisici, cellule o
individui) o «software» (elaboratori virtuali).
• Le componenti esplicano la loro natura scambiandosi informazioni (energia,
materia o informazioni digitali) attraverso connessioni e possibili strutture
ricorsive e di retroazione16.
• Non c’è una gerarchia piramidale tra le componenti. In caso contrario la
descrizione del sistema stesso non sarebbe complessa ma banale, in quanto
riconducibile a quella del sottosistema leader.
Prendendo «alla lettera» queste proprietà si possono ricavare assunti – a prima vista –
paradossali. Ad esempio, è evidente che, se volessimo descrivere in dettaglio ogni
aspetto di un qualsiasi micro-organismo vivente, dovremmo utilizzare infinitamente
più proposizioni rispetto alla descrizione di un oggetto non vivo, indipendentemente
dalla sua grandezza (descrivere la vita non sembra, in effetti, un’opera tanto banale).
Da questo si deduce però che un’intera galassia senza vita sia, a conti fatti,
infinitamente meno complessa di un semplice batterio!
Si può capire meglio tale affermazione pensando di dover scrivere due programmi al
computer che simulino questi agenti. Potremo implementare con successo17 la
simulazione di una galassia semplicemente scrivendo quelle poche righe di codice
necessarie alla descrizione di alcune leggi fisiche (come gravità, termodinamica,
relatività,..) e impostando poche costanti (velocità della luce, relazione tra massa e
gravità,…). Per un batterio invece il discorso non sarebbe cosi banale. In questo caso
non basterebbe insegnare al computer le leggi fisiche, ma si dovrebbe entrare in
15
Definizione di Tullio Tinti, presente su un suo articolo pubblicato sul numero di Dicembre 1998
della rivista Novecento (pp 7-12).
16
Nota personale: Una struttura ricorsiva è semplicemente un ciclo, un loop di informazioni tra delle
stesse componenti (come i cicli «While» o «For» utilizzati nei più diffusi linguaggi di
programmazione); il circuito di retroazione è stato già citato nel paragrafo precedente sulla cibernetica
(il feedback), in effetti questa caratteristica dei sistemi complessi è discendente diretta degli studi
cibernetici.
17
Ammesso di avere un computer estremamente potente!
18
profondità sviscerando le regole che sottendono la replicazione enzimatica del DNA,
l’autoconservazione, la riproduzione, la caccia, gli equilibri omeostatici…. un bel
problema, insomma.
«Chiedere se una macchina è in grado di pensare è una domanda mal
fondata, infatti allo stesso titolo si potrebbe chiedere ‘un neurone è in
grado di pensare’ e la risposta è chiaramente no»
Giuseppe Longo
.- 6 #
#
.Continuando
a «deglutire» la definizione di Tinti, si scopre che la teoria della complessità non
lavora indifferentemente su ogni tipo di sistema, ma solo su quelli capaci di
adattività. Questa proprietà restringe il campo ai soli sistemi mediamente e molto
complessi e si esplica nella straordinaria capacità di tali reti di componenti di adattare
attivamente il proprio comportamento all’ambiente; ed è grazie al profondo interesse
che la ricerca sull’autoadattamento ha disvelato su chi vi si sia approciato, che essa
sta silenziosamente macerando molti paradigmi che si ergono pesanti negli «anfratti
euristici» degli studiosi di molte discipline.
L’adattività si innerva, per assurdo, in seno all’ottusità delle singole componenti del
sistema complesso: queste agiscono secondo logiche semplici e limitate, quasi
comportamentiste ed incoscienti dello stato globale del sistema. Cionondimeno,
grazie alla fitta rete di comunicazioni che questi sottosistemi sottintendono l’un
l’altro, riescono a generare a livello macro dinamiche completamente estranee ed
imprevedibili rispetto alle loro logiche semplici. Non solo. I sistemi complessi sono
altresì caratterizzati da aspetti emergenti: comportamenti nuovi ed inaspettati che non
si limitano ad una adattività passiva al contesto, ma sono forieri di creatività
adattativa.
La spiegazione cibernetica di tali sviluppi al livello profondo delle componenti sta
nel tipo di scambi comunicativi che queste hanno tra loro; spesso non si tratta infatti
di semplici passaggi di informazioni, ma di veri e propri «transforming feedback
loops»: dinamiche riverberanti in grado di alterare gli output delle singole
componenti attraverso un complicato gioco di feedbacks a cascata. Tale interessante
19
proprietà delle componenti di un sistema complesso prende generalmente il nome di
autoorganizzazione.
In letteratura non mancano esempi di queste dinamiche; il più comune è la
costruzione del termitaio: centinaia di individui incoscienti sono in grado, attraverso
comportamenti personali molto semplici, di creare strutture impressionanti e robuste,
adattabili a molteplici tipologie di terreno; strutture certamente non progettate in toto
a priori. Altri esempi di fenomeni fortemente emergenti legati a sistemi complessi
sono: la vita (dalle cellule agli organismi), l’ontogenesi (la formazione dell’individuo
adulto partendo da una cellula), l’apprendimento, il cervello e il pensiero (tema di
molta parte di questo lavoro), l’organizzazione sociale, la cultura, l’economia e
l’equilibrio ambientale.
Sintetizzando, l’autoorganizzazione è il meccanismo cibernetico che permette alle
componenti di generare adattività nel sistema a cui appartengono.
."7 ,
,
.L’autoorganizzazione di un sistema
complesso ne permette la sopravvivenza e l’adeguamento all’ambiente in cui si
trova.
Si può facilmente afferrare l’idea di autoorganizzazione ponendo il sistema sotto una
luce qualitativa. A tal proposito, possiamo chiamare «variabile» un aspetto del
cosmo interno di un sistema o, più concretamente, un fattore in grado di influenzare
un fascio di relazioni tra due o più componenti. In molte aree delle sue opere, G.
Longo (professore, scrittore e teorico della teoria dell’informazione) offre
interessanti spunti su cosa siano i rapporti di autoorganizzazione delle variabili e
come si esplichino. In particolare focalizza l’attenzione sull’importanza relativa di
alcune variabili su altre: nella maggior parte dei sistemi complessi solo un ristretto
gruppo di relazioni viene ad essere, per ragioni ecologiche, vitale per la struttura.
Ogni variabile non ha una possibilità di oscillazione infinita, ma può esplicarsi solo
entro un certo range di valori, al di fuori del quale viene compromessa e, se vitale,
può generare un collasso a cascata del sistema.
Gli eventi di autoorganizzazione si possono ricondurre al cambiamento automatico
da parte del sistema di alcuni valori delle proprie variabili; i cicli comunicativi che la
sottendono tenderanno però a lavorare prima di tutto sulle variabili periferiche,
20
lasciando il più possibile inalterate quelle vitali, onde evitare collassi dell’omeostasi
globale. A ben vedere, infatti, l’autoorganizzazione altro non è che un «tentativo di
creare equilibrio» tra il sistema e l’ambiente mutato, attraverso la manipolazione
delle componenti interne.
Il fattore temporale e la quantità di adattamento richiesto giocano un ruolo critico:
grossi cambiamenti repentini nell’ambiente provocano un forte stress al sistema. In
questo caso non basterà la semplice modifica di variabili periferiche, ma sarà
necessario fare brusca leva sulle variabili profonde che potrebbero non reggere il
colpo, generando un effetto domino che getterà nel disordine il sistema, mettendone
a repentaglio la stessa esistenza.
La teoria delle catastrofi18 si occupa di questi problemi fondamentali: un sistema
complesso è infatti per definizione flessibile e adattabile, ma in certe condizioni già
critiche, anche un cambiamento minimo nella direzione sbagliata può creare la
«catastrofe»; un po’ come la famosa goccia che fa traboccare il vaso.
Deve essere in ogni caso ricordato che, se il cambiamento non è traumatico, un
sistema complesso è in grado, col tempo, di riassorbire completamente lo stress e di
trovare un nuovo punto di equilibrio forte variando la sua geometria di forze interne.
Il problema vero sussiste quando i cambiamenti sono troppi e troppo vicini nel tempo
cosi da impedire il riassetto in iter.
Flessibilità adattiva e tempo di riconfigurazione omeostatica sono intimamente legati
alla complessità del sistema. Tendenzialmente – pur nel rispetto di alcuni parametri
discussi successivamente – la complessità è direttamente proporzionale alla capacità
di riassorbire lo stress da cambiamento e di adattarsi con successo all’ambiente
mediante comportamenti emergenti. In questo senso la complessità è assimilabile ad
una misura della capienza del «serbatoio» di elasticità a disposizione del sistema. A
parità di altre condizioni, un sistema molto complesso rispetto ad uno più banale ha
dalla sua un numero elevato di variabili distribuite su cui scaricare lo stress e
ricercare l’equilibrio
18
Teoria elaborata negli anni ’70 dal matematico francese Renè Thom. E’ un modello strettamente
qualitativo.