1
CAPITOLO PRIMO
Prospettive sull’apprendimento e apprendimento per prospettive
In questo capitolo della tesi è affrontato il tema dell’evoluzione del rapporto tra
tecnologie della comunicazione e dell’informazione (ICT) e didattica, prestando
particolare attenzione all’apprendimento basato su personal computer e tenendo
sullo sfondo i tre principali paradigmi teorici che hanno attraversato il XX secolo fino
ai giorni nostri: comportamentismo, cognitivismo, costruttivismo. La dimensione
storica rimane comunque una traccia, in quanto approcci appartenenti a diversi
paradigmi, si evolvono, convivono e si permeano, come evolvono, convivono e si
permeano, nelle loro linee evolutive, i diversi media. Tale quadro è tracciato, da una
parte al fine di recuperare la dimensione storico-culturale che muove le riflessioni
pedagogico-didattiche sui learning object (LO), la learning activity (LA) e il learning
design (LD) e il learning network (LN), dall’altra, quale punto di partenza per
esplorare le radici teoriche di un approccio alle tecnologie informatiche che,
concentrandosi inizialmente sulla struttura dei contenuti, sposta progressivamente la
sua attenzione sui processi, assegnando sempre maggior valore all’ambiente di
apprendimento e alle comunità di apprendimento.
Il primo paragrafo si concentra sullo sviluppo dei primi dispositivi di autovalutazione e
delle prime macchine per l’auto-istruzione (teaching machines), nell’ambito
dell’istruzione programmata e dei materiali didattici programmati, fino all’introduzione
della Computer Assisted Instruction (CAI). Il secondo paragrafo illustra i molteplici
rapporti che si sviluppano tra didattica, tecnologia dell’istruzione e studi sulle
rappresentazioni mentali (schema, script, frame) e i processi mentali (elaborazione
dell’informazione, manipolazione di simboli, costruzione di conoscenza). Su questo
sfondo sono introdotti l’Intelligent Computer Assisted Instruction (ICAI), i sistemi
esperti e l’intelligenza artificiale. Il terzo paragrafo approfondisce l’approccio meta-
cognitivo alla conoscenza e all’apprendimento facendo riferimento agli studi svolti in
ambito cognitivo e in psicologia dello sviluppo, per trattare successivamente alcuni
modelli di metacognizione in ambito informatico e in intelligenza artificiale. Ciò è
particolarmente importante al fine di introdurre i concetti di meta-dati e meta-modelli,
trattati nella seconda sezione della tesi in relazione al funzionamento e uso didattico
dei Learning Object e in una prospettiva di Learning Design. Il quarto paragrafo, a
2
partire dalla visione costruttivista della meta-cognizione, fa riferimento al concetto di
mente come rizoma, alla Computer Mediated Communication (CMC) e alla
cybercultura e illustra i principali modelli didattici sviluppati in ambito costruttivista.
Ciò costituisce una fondamentale premessa al terzo capitolo della tesi che prende in
esame la prospettiva del Learning Design e del Learning Network.
1.1 Le macchine che insegnano e l’istruzione programmata
Alla metà degli anni ’20 Sidney L. Pressey realizza quella che può essere
considerata la prima applicazione di tecnologia dell’istruzione
1
. Tale dispositivo si
muove in linea con il pensiero espresso nella decade precedente da Edward L.
Thorndike, secondo cui se, con un miracolo di ingegnosità meccanica, un libro
potesse essere impostato in modo tale che solo a chi ha fatto ciò che è indicato alla
pagina uno, sia resa visibile la pagina due, e così via, gran parte di ciò che oggi
richiede istruzione personale potrebbe essere realizzato dalla stampa (Thorndike
1912). Si tratta di un dispositivo per l’autovalutazione che successivamente si
sviluppa come macchina per l’auto-istruzione. Versioni successive di tali dispositivi,
relativamente sofisticati, si evolvono in alcune macchine per l’insegnamento utilizzate
dall’aeronautica statunitense durante la seconda guerra mondiale (Burton et al. 1996;
2004)
2
.
La macchina di Pressey presenta domande a risposta multipla che vengono mostrate
una alla volta, ruotando un tamburo cilindrico sul quale le domande sono state
precedentemente stampate per poi essere poste sotto una finestra di vetro. Gli
studenti indicano la loro risposta premendo una delle quattro chiavi che
corrispondono alle diverse alternative. Nella modalità esercitativa, tutte le chiavi
eccetto quella corretta sono bloccate. Tale dispositivo permette la registrazione di
tutte le risposte e Pressey stesso, docente all’Università statale dell’Ohio (Stati
1
Una prima distinzione tra educazione e istruzione, che richiederebbe una trattazione approfondita
per cui questa non appare la sede, indica per la seconda il riferimento prevalente all’acquisizione di
conoscenze,informazioni, nozioni e per la prima, inoltre, l’acquisizione di atteggiamenti e capacità che
attengono alle dimensioni della personalità (Tenuta 2003).
2
John K. Burton, David M. Moore e Susan G. Magliaro insegnano al Virginia Polytechnic Institute.
3
Uniti)
3
, lo utilizza per rivedere le sue lezioni e approfondire concetti poco chiari,
sorvolando sugli altri (Heines 2004)
4
. Queste prime macchine per l’insegnamento
possono essere definite di auto-istruzione aggiuntiva: esse non si integrano al
materiale d’istruzione, ma come nel caso delle domande dei test, sono presentate
successivamente all’istruzione convenzionale, generalmente basata sul libro di testo
(Ellison 2001)
5
.
Negli anni ’30 Pressey contribuisce al testing meccanico con altre due invenzioni. La
seconda e più elaborata, consiste in schede di cartone costituite da trenta righe,
ognuna composta da cinque cerchi. Gli studenti indicano le loro risposte forando il
cerchio corrispondente. Ogni scheda viene poi inserita in una macchina dotata di
centocinquanta fori nella stessa configurazione di alcuni spilli caricati a molla nelle
posizioni di risposta corrette. Il dispositivo è sensibile agli spilli che sporgono
attraverso i fori bucati correttamente, stampa i numeri delle risposte corrette in un
foglio di risposta e tiene traccia del numero di risposte corrette per ogni item. Il
tabulato dei risultati può essere letto direttamente sul retro della macchina, che così
fornisce un’analisi istantanea, che viene utilizzata come guida per la discussione in
classe (Heines 2004).
James Little alla metà degli anni ’30, è uno dei primi a condurre uno studio
investigativo sugli effetti di questi primi dispositivi di verifica, che lo porta a
concludere che i punteggi ottenuti attraverso test meccanici e i dispositivi per le
esercitazioni sono utili nelle classi in quanto veloci e capaci di fornire immediato
rinforzo (Little 1934). Altri studi sull’efficacia dei dispositivi di Pressey sono condotti
negli anni ’40 riportando risultati positivi. Ulteriori esperimenti sono condotti negli anni
successivi alla seconda guerra mondiale e confermano la validità di tali macchine per
il conseguimento di un apprendimento più efficiente tramite la correzione immediata
degli errori (Smith e Smith 1966). Negli anni ‘50 Pressey arriva a formulare un
metodo unico per la verifica, l’assegnazione di un punteggio, l’informazione agli
studenti sugli errori e il raggiungimento della soluzione in un solo passo: il
telescoping. Nella decade successiva l’autore stesso comunque, sottolinea come tali
3
Uno dei principali riferimenti nella trattazione degli argomenti del primo capitolo della tesi è il testo
collettaneo curato da David H. Jonassen, Handbook of research for educational communications and
technology.
4
Jesse M. Heines è professore associato alla University of Massachussets Lowell. Oltre alla laurea e
al master in Scienze, ha conseguito il dottorato in Didattica.
5
John Ellison è professore associato alla University at Buffalo (università statale di New York).
4
dispositivi non siano autosufficienti, ma utili aggiunte ad altre tecniche di
insegnamento (Burton et al. 1996; 2004).
Studi su simili dispositivi di auto-istruzione sono condotti nell’ambito della ricerca
sulla formazione militare, ma una popolarità e un’attenzione diffusa nei confronti di
questo tipo di macchine non si ha prima del loro uso da parte di Bhurrus F. Skinner
(Smith e Smith 1966). Inoltre, l’accettazione di insegnamento e verifiche
meccanizzate nell’istruzione pubblica si verifica solo negli anni successivi alla
seconda guerra mondiale (Heines 2004).
Skinner sviluppa delle macchine per verificare i principi del condizionamento
operante derivati dalla ricerca sugli animali. Il suo approccio riscuote attenzione e
durante gli anni ’60 le macchine per l’insegnamento e il movimento dell’istruzione
programmata
6
diventano oggetto primario di ricerca. Durante questo periodo e per
tutta la decade successiva infatti, la ricerca sulle macchine per l’insegnamento è il
tipo di ricerca dominante nell’ambito della ricerca sui media (Torkelson 1977).
Sotto alcuni aspetti le macchine di Skinner sono simili a quelle di Pressey: entrambe
utilizzano la conoscenza immediata dei risultati immediatamente dopo la risposta; gli
studenti sono invitati a partecipare attivamente; i dispositivi possono essere utilizzati
per l’auto-istruzione in modo che chi apprende possa muoversi al proprio ritmo. Una
differenza rilevante è però, quella che prevede, nel caso di Pressey, la selezione di
una risposta corretta tra quelle presentate, mentre, nel caso di Skinner, è lo studente
a comporre le risposte (Burton et al. 1996; 2004). I dispositivi di Skinner introdotti nel
1954 infatti, richiedono all’utente di costruire la risposta riempendo degli spazi
bianchi, piuttosto che selezionando una delle quattro opzioni previste dai dispositivi
di Pressey. Riempire spazi bianchi richiede un tipo di apprendimento basato sul
recupero dalla memoria, piuttosto che il mero riconoscimento in una scelta multipla.
Dopo aver riempito gli spazi, all’utente è chiesto di paragonare la sua risposta con
quella corretta (Ellison 2001). Sviluppi successivi di tali dispositivi permettono infatti,
allo studente stesso di decidere della correttezza della sua risposta (Heines 2004).
6
L’istruzione programmata si ispira ad alcuni principi di base, quello della progressiva scomponibilità
dei contenuti di apprendimento in particelle via via più analitiche; della partecipazione attiva, per cui le
risposte devono essere formulate esplicitamente dai discenti; della conoscenza immediata dei risultati;
dell’individualizzazione intesa come rispetto del ritmo di apprendimento personale (Calvani 2004). Il
modello è quello della task analysis, l’analisi dei requisiti di base per l’esecuzione di un compito, con la
conseguente scomposizione di funzioni e processi, dai più complessi ai più semplici. In modo che per
ogni compito si possa ipotizzare una gerarchia di apprendimenti, che ha alla sommità il compito-
obiettivo finale (Calvani 2000).
5
Inoltre, contrariamente all’auto-istruzione aggiuntiva di Pressey, progettata quale
supplemento a un regolare corso di studio, i programmi di insegnamento di Skinner
sono progettati per i corsi di studio tradizionali e funzionano come istruttori per utenti
che non conoscono la materia.
I programmi di apprendimento progettati da Skinner intendono evitare intimidazioni,
prevedere un lavoro che si possa svolgere un passo alla volta dal semplice al
difficile, consentire un ritmo adattabile e fornire delle risposte di rinforzo (Heines
2004). Per programmazione infatti, l’autore intende la costruzione di sequenze
attentamente programmate di contingenze che conducano a prestazioni finali, che
sono l’oggetto dell’educazione (Skinner 1953).
Negli anni ’50, gli educatori guardano con favore all’istruzione programmata
(programmed instruction) quale metodo alternativo di insegnamento per far fronte
all’insufficienza di insegnanti. Tale approccio si diffonde ulteriormente nella decade
successiva (Ellison 2001). Negli anni ’60 la ricerca sull’argomento è immensa
(Campeau 1974). Essa fa riferimento sia alle macchine per l’insegnamento, sia ai
libri programmati. Questi ultimi possiedono caratteristiche anologhe a quelle delle
macchine: presentazione logica dei contenuti, necessità di reazioni esteriori,
presentazione di conoscenza immediata sulla correttezza delle risposte (Porter 1958;
Smith e Smith 1966). Essi diventano immediatamente popolari in quanto facili da
produrre, portatili e non complessi o onerosi.
I primi studi sulla validità della programmazione lineare, basata su una struttura di
apprendimento sequenziale, sono difficili da generalizzare e spesso portano a
risultati contraddittori. La maggior parte di essi sono di tipo comparativo e
propongono un confronto con i metodi di istruzione tradizionali o convenzionali. Tali
ricerche mostrano spesso problemi di impostazione, di misurazione o di procedura
(Holland 1965).
A fronte della programmazione lineare di Skinner, Norman Crowder, suo
contemporaneo, lavorando indipendentemente per le forze armate sull’istruzione
programmata (Ellison 2001), cerca di riprodurre in un programma di auto-istruzione,
la funzione di un tutore privato, allo scopo di risolvere problemi complessi. Egli
definisce la sua tecnica programmazione intrinseca
7
(Heines 2004) ed essa è
conosciuta anche come branching (ramificazione) (Burton et al. 1996; 2004).
7
Il termine intrinseco si riferisce al fatto che tutte le opzioni sono intrinseche al programma e perciò
non dipendono da dispositivi di programmazione esterni (Ellison 2001).
6
Il dispositivo utilizzato da Crowder è semplicemente un libro di testo in cui il materiale
è presentato un paragrafo o una sezione alla volta. Alla fine di ogni parte discreta,
viene presentata una domanda a risposta multipla e a ogni possibile risposta è
associato un numero di pagina. Lo studente è indirizzato quindi, alla pagina che
corrisponde alla sua scelta. Se la scelta è corretta, viene presentato nuovo materiale,
se non lo è, viene presentato materiale per la revisione o il rinforzo (Heines 2004).
Mentre Skinner lavora in una prospettiva psicologica, Crowder lavora da un punto di
vista comunicativo. Il programma è rivolto all’individuo e prevede diverse forme di
feedback per determinare se la comunicazione ha funzionato: nel caso di risposta
corretta vengono fornite le motivazioni, prima del passaggio a nuovo materiale; nel
caso di risposte scorrette l’utente viene informato dell’errore commesso e viene
ricondotto alla parte precedente per un altro tentativo (Ellison 2001). A partire dal
libro di testo, Crowder sviluppa film ad accesso casuale ed elabora diverse strategie
didattiche per la messa in sequenza dei materiali (Heines 2004).
Tra i vantaggi della programmazione intrinseca (rispetto alla programmazione
lineare) troviamo il guadagno di tempo nell’evitare ripetizioni inutili per gli studenti più
preparati, tra gli svantaggi, la necessità di grossi libri per racchiudere tutti i materiali
necessari (Heines 2004). Importante è sottolineare la diversa concezione della
funzione della risposta in Skinner e Crowder
8
. Se per Skinner, come
precedentemente accennato, l’apprendimento risulta dal fornire la risposta corretta,
Crowter crede piuttosto che esso risulti dal riallineamento della struttura di
conoscenza dell’utente e che la risposta sia semplicemente un mezzo per controllare
il programma o la macchina. E’ necessario quindi, che le porzioni di informazione
siano assimilate e integrate a ciò che l’utente già sa. La risposta serve in questo
senso, a verificare il livello di integrazione
9
(Ellison 2001).
L’istruzione programmata, analizzando e suddividendo il contenuto in specifici
obiettivi comportamentali, pianificando i passi necessari al raggiungimento degli
obiettivi e validando il programma con l’adempimento degli obiettivi, ottiene successo
come sistema di auto-istruzione (Heinich 1970). L’approccio sistematico alla
8
Anche se altri autori sottolineano che la programmazione intrinseca di Crowter non si basava
necessariamente su una teoria dell’apprendimento (Klaus 1965 citato in Burton et al. 1996; 2004).
9
Tale posizione sembra già indicare uno spostamento verso il paradigma cognitivista.
7
progettazione didattica (instructional design)
10
deriva principalmente dalle teorie
comportamentiste e ne utilizza principi, terminologia e concetti (Burton et al. 1996;
2004). La progettazione didattica di tipo comportamentista si basa sull’assunto che il
comportamento è prevedibile e le decisioni di chi progetta la didattica sono
essenzialmente guidate dalla natura del contenuto che lo studente dovrebbe
padroneggiare.
L’istruzione programmata raggiunge il suo apice alla metà degli anni ’60, per poi
iniziare il declino. Le motivazioni sono molteplici: il tipo di apprendimento promosso è
di tipo mnemonico e poco significativo; il mercato è invaso da prodotti di bassa
qualità noiosi e monotoni; i costi di produzione sono alti, mentre i prezzi di vendita
sono necessariamente contenuti.
Sebbene insegnanti e educatori critichino l’impostazione metodologica altamente
strutturata e centralizzata, i testi e i materiali programmati, come le guide di auto-
istruzione, sono comunque utilizzati successivamente, soprattutto nel settore militare
e industriale, nella formazione professionale e in progetti di formazione a distanza.
L’istruzione programmata ramificata si può ritrovare oggi, ad esempio, nella modalità
tutoriale utilizzata in alcuni corsi di formazione su personal computer.
L’istruzione assistita dal computer (Computer Assisted Instruction), che prevale nelle
decadi successive, nonostante si giovi delle evoluzioni tecnologiche che portano alla
diffusione del computer personale, perfezionato nelle modalità audiovisive e in grado
di tenere traccia delle prestazioni dell’utente, soltanto quando i corsi di formazione
prevedono attività quali la simulazione o il problem solving, sembra superare i vincoli
concettuali dell’istruzione programmata. Altrimenti, le sequenze di istruzione e le
tecniche utilizzate appaiono analoghe a quelle tipiche di quest’ultima e sembrano
presupporre un analogo modello didattico (Ellison 2001).
10
R.M. Gagné e L.C. Silvern sono tra i primi ad utilizzare termini quali sviluppo dei sistemi e sistemi di
istruzione per descrivere una struttura sistematica e interconnessa in relazione ai principi di
progettazione didattica in uso (Burton et al. 1996; 2004).
8
1.2 La scienza cognitiva e l’istruzione assistita intelligentemente dal computer
L’approccio cognitivo si sviluppa negli anni ’50 a partire dai limiti riscontrati in un
approccio comportamentista che bandisce dalla propria attenzione tutta quell’attività
umana che si colloca tra stimolo e risposta: gli stati mentali inosservabili,
l’immaginazione, la comprensione, la percezione e allo stesso tempo le tecniche di
introspezione, la fenomenologia, l’inferire dall’osservazione piuttosto che dalla
misurazione oggettiva (Winn e Snyder 1996; 2004). L’attenzione degli studiosi si
concentra progressivamente su due principali oggetti di ricerca, che influenzeranno
in molti modi gli sviluppi della tecnologia dell’educazione: le rappresentazioni mentali
e i processi mentali.
In questo periodo crea i propri presupposti la scienza cognitiva, che nasce dalla
confluenza della psicologia cognitiva con la computer science (scienza
dell’informazione), a cui si aggiungono progressivamente gli apporti della linguistica,
della filosofia, delle neuroscienze e dell’antropologia (Tabossi 1988).
Il rapporto tra psicologia cognitiva e tecnologia nasce innanzitutto, dalla necessità da
parte della prima di verificare i propri modelli teorici di attività cognitiva costruiti per
inferenza. Essendo il livello biologico, il livello di analisi più vicino ai meccanismi del
cervello, considerati all’origine dell’attività cognitiva
11
, ed essendo questo
virtualmente inaccessibile, si rende necessario ai ricercatori il ricorso alla costruzione
di modelli funzionali astratti (Marr 1982). La progettazione di simulazioni al computer,
se il modello utilizzato è una corretta rappresentazione dell’attività cognitiva, può così
rispondere alla necessità di predire quali comportamenti probabilmente si
verificheranno, e di confrontare il comportamento predetto dal modello, con il
comportamento osservato (Winn e Snyder 1996; 2004).
Questo non è comunque l’unico ruolo che il computer assume nella scienza
cognitiva. Alcuni studiosi, considerando che i programmi informatici progettati per
verificare teorie cognitive predicono accuratamente comportamenti osservabili che
risultano da attività cognitive, concludono che l’attività cognitiva in sé possa essere
assimilabile al funzionamento del computer. A partire da questa convinzione
11
La cibernetica, che nasce negli anni ’50, considera l’intelligenza umana proprietà materiale del
cervello e studia la base materiale dei processi cognitivi in vista della possibilità di riprodurla
artificialmente. Il programma della cibernetica prende a modello la struttura fisica del cervello, al fine di
costruire sistemi in grado di auto-organizzarsi e di auto-regolarsi (automi). Tali sistemi elaborano
informazioni digitali (codice binario), utilizzano il feedback e seguono sequenze finite e programmate
di istruzioni (algoritmi) (Frabboni e Minerva 2003).
9
vengono formulate numerose teorie che incorporano i principi dell’elaborazione
dell’informazione e i meccanismi della computer science (Boden 1988; Johnson-
Laird 1988). Nella letteratura di settore si moltiplicano i riferimenti a input e output, a
strutture di dati, all’elaborazione dell’informazione, all’elaborazione logica dei simboli
(Larkin e Simon 1987; Salomon 1979; Winn 1982).
La scienza cognitiva fornisce inoltre, la teoria e l’impeto necessari a creare
programmi informatici che possano pensare come esseri umani (Winn e Snyder
1996; 2004). Negli anni ’80 fiorisce la ricerca in intelligenza artificiale
12
. E’ importante
sottolineare che gli studi sull’intelligenza artificiale si differenzino dalle precedenti
ricerche in cibernetica
13
. Mentre l’obiettivo della cibernetica è di individuare il modello
di interconnessione tra cervello e pensiero, per poi riprodurlo in una macchina
(analogia strutturale), oggetto di attenzione dell’intelligenza artificiale sono gli stati
mentali, al di là di ciò che si verifica al livello del corpo e del sistema nervoso centrale
e quindi, al livello della struttura organica e del funzionamento fisico del cervello
(analogia funzionale). Nell’intelligenza artificiale l’indipendenza della mente dal
cervello è considerata analoga a quella tra software e hardware: oggetto di studio
sono i processi di elaborazione delle informazioni implicati nella risoluzione di
problemi (Frabboni e Minerva 2003).
L’intelligenza artificiale raggiunge il massimo successo con la produzione di sistemi
intelligenti per il tutoraggio (intelligent computer aided instruction) (Anderson e Reiser
1985; Anderson et al. 1985; Wenger 1987) e di sistemi esperti (Forsyth 1984). I primi
si caratterizzano per la capacità di capire e reagire ai progressi che lo studente
compie lavorando con un programma tutoriale computerizzato; i secondi sono
consulenti intelligenti, spesso rivolti a professionisti, i cui compiti lavorativi richiedono
capacità di prendere decisioni complesse a partire da una grande quantità di dati
(Calvani
14
2000, 2001, 2004; Winn e Snyder 1996; 2004).
I sistemi esperti, più precisamente, fanno parte della famiglia dei sistemi basati su
conoscenza (knowledge-based systems). Un sistema esperto è composto da una
base di conoscenza, un motore inferenziale, un’interfaccia e una base di fatti (la
12
Le ricerche in intelligenza artificiale sono orientate alla costruzione di programmi che diano istruzioni
al computer su come manipolare linguaggi formalizzati (logici) in modo tale da simulare le funzioni
fondamentali dell’intelligenza umana ed esibirne i comportamenti (Frabboni e Minerva 2003).
13
Si veda la nota 11.
14
Antonio Calvani è professore ordinario di Tecnologie dell'Istruzione e dell'apprendimento
all'Università di Firenze. E’ presidente del corso di laurea in Formatore multimediale e coordinatore del
master universitario in Progettista e gestore di formazione in rete nella stessa università. E’ inoltre,
autore di molteplici saggi e articoli sull'applicazione delle tecnologie nella formazione.
10
memoria). Per risolvere un problema, i sistemi esperti possono utilizzare diversi tipi di
ragionamento (o logica): le logica basata su regole, su casi
15
, su sillogismi aristotelici
e descrizioni booleane
16
(il ragionamento non monotono
17
, le logiche di default
18
, le
logiche descrittive, dinamiche, temporali). Nella tabella che segue sono sintetizzati
vantaggi e svantaggi dei sistemi esperti (Tab. 1).
Tab. 1 Schema elaborato da Castelfranchi e Stock (2000).
Rimane ad oggi, la distinzione tra sostenitori di un’intelligenza artificiale forte, convinti
che alla base del pensiero umano stia la capacità di manipolare simboli e di
elaborare informazione e che quindi in futuro sarà possibile programmare una
macchina pensante, cosciente e dotata di sentimenti e i sostenitori di un’intelligenza
artificiale debole che pensano che una macchina che manipola simboli non potrà mai
possedere tutte le funzioni di una mente intelligente, essendo solo uno strumento
utile per studiare e realizzare alcune funzioni simili a quelle tipiche dell’intelligenza
umana, ma senza riprodurre il modo in cui queste sono realizzate dall’uomo
(Castelfranchi e Stock 2000).
15
Alle logiche basate su casi si farà riferimento anche nel paragrafo successivo.
16
La logica booleana è basata su due insiemi logici estremi: il tutto e il nulla, indicati con uno e zero.
17
Nel ragionamento non monotono un’asserzione vera in un determinato momento può non essere
vera successivamente.
18
P. Tabossi spiega che il frame (struttura), a cui si fa riferimento più avanti, utilizza una logica di
default (Tabossi 1988).
INTELLIGENZA DEI SISTEMI ESPERTI STUPIDITA’ DEI SISTEMI ESPERTI
Risolvono problemi grazie alla capacità di
scomposizione in sotto-problemi più semplici.
Sono rigidi: possono imparare aggiornando la
base di conoscenza, ma sono del tutto incapaci
di affrontare alcunché di diverso dal loro settore
specialistico.
Possono fornire una traccia della loro linea di
ragionamento.
Non hanno creatività: non sanno immaginare
nuove strategie e normalmente non possono
fare altro che aggiornare con dati nuovi i propri
schemi fissi di ragionamento.
Se sono fornite informazioni incomplete o
contraddittorie se ne rendono conto e chiedono
chiarimenti.
La comunicazione con l’uomo è scarsa e non
flessibile.
La loro conoscenza non è stabilita una volta per
tutte, ma è possibile fornire loro conoscenza
aggiuntiva.
Non hanno idea del mondo esterno e sono
completamente privi di senso comune.
Alcuni sistemi possono imparare: quando si
trovano di fronte a nuovi problemi possono
verificare se le situazioni già affrontate hanno
qualche somiglianza con la nuova e tenerne
conto.
11
Come precedentemente accennato, lo studio delle rappresentazioni mentali e dei
processi mentali esercita una notevole influenza sugli sviluppi della ricerca in
tecnologia dell’educazione.
Le caratteristiche fondamentali dello schema, come concetto centrale alle teorie
cognitive della rappresentazione, possono essere qui sintetizzate in alcuni punti: uno
schema è innanzitutto, una struttura che esiste in memoria e che, aggregato ad altri
schemi, contiene la somma della conoscenza del mondo (Paivio 1974); esiste a un
alto livello di generalità o astrazione, rispetto alla nostra esperienza del mondo;
consiste di concetti che sono collegati tra loro in proposizioni; è dinamico, è aperto al
cambiamento dovuto all’esperienza generale o all’istruzione; fornisce un contesto per
l’interpretazione della nuova conoscenza.
La teoria dello schema è utilizzata in tecnologia dell’educazione principalmente in tre
modi. Il primo segue la convinzione in base alla quale, per costruire e attivare schemi
mentali in modo efficace, sia necessario materiale didattico che possieda in qualche
modo lo stesso formato dell’ipotetica struttura dello schema posseduto dallo
studente. Ciò caratterizza i primi tentativi di produrre una teoria dell’educazione
all’audiovisivo e gli studi sul ruolo dell’illustrazione pittorica e grafica nell’istruzione
(Dale 1946; Carpenter 1953; Dweyer 1972, 1978,1987).
Il secondo modo in cui la tecnologia dell’educazione utilizza la teoria dello schema è
lo sviluppo e l’applicazione di tecniche utili agli studenti al fine di imporre una
struttura a ciò che viene appreso, in modo da facilitare la memorizzazione. Ci si
riferisce globalmente a queste tecniche con: mappatura dell’informazione (Winn e
Snyder 1996; 2004). Alla fine degli anni ‘60 M.R. Quillian e A.M. Collins introducono il
concetto di reti semantiche nell’intenzione di sviluppare un modello
dell’organizzazione dei significati delle parole nella memoria (Quillian 1968; Quillian e
Collins 1969; 1970)
19
.
Tra i sistemi di raffigurazione delle conoscenze in ambito didattico troviamo le mappe
concettuali, che vengono proposte inizialmente negli anni ’80 e costituiscono una
tecnica di rappresentazione grafica delle relazioni semantiche che una parola o
19
Nel sistema proposto, le unità semantiche (i nodi) sono organizzate gerarchicamente e le
informazioni vengono immagazzinate nella rete nel nodo più alto possibile (in base al principio che le
proprietà che sono vere per il nodo più alto sono vere anche per i nodi subordinati). Questo tipo di
problematiche sono prese in considerazione in relazione ai linguaggi di programmazione nel secondo
capitolo della tesi.
12
concetto evoca e sono considerate utili come supporto alla memoria personale o per
rendere esplicite preconoscenze (Calvani 2000).
La terza linea di ricerca consiste dei tentativi di utilizzare gli schemi per
rappresentare informazione in un computer e quindi rendere la macchina capace di
interagire con l’informazione in modo analogo a quanto avviene per i processi di
assimilazione e accomodamento umani. In questo contesto si sviluppa la ricerca sul
ruolo degli schemi (schema), dei copioni (script), delle strutture (frame) e dei piani
(plan) (Minsky 1975; Schank e Abelson 1977; Rumelhart 1980) nell’intelligenza
artificiale e nei sistemi intelligenti di istruzione (Winn e Snyder 1996, 2004; Calvani
2000) .
Nei lavori degli anni ’70 di Marvin Minsky e di Robert Schank gli schemi forniscono
vincoli al significato dell’informazione che il computer e l’utente possono condividere,
rendendo in tal modo la loro interazione più facilmente gestibile. Tali vincoli nascono
dal considerare soltanto ciò che tipicamente si verifica in una determinata situazione.
Ad esempio, nel susseguirsi di azioni e di scambi verbali che si hanno in un
ristorante. Analogamente i frame sono strutture di dati per la rappresentazione di
situazioni stereotipiche (Minsky 1975). Se si immagina tale struttura come una rete
gerarchica, i nodi più alti sono quelli che contengono informazioni sempre vere per
una determinata situazione, mentre i nodi terminali, facilmente modificabili,
contengono informazioni non sempre vere per quella determinata situazione
(Tabossi 1988). Lo scopo dei frame in questo contesto è quello di creare una
rappresentazione formale che consenta a un sistema artificiale di fare inferenze
ragionevoli su situazioni note in assenza di informazioni specifiche. Verso la fine
degli anni ’70 Robert C. Shank e Robert P. Abelson introducono i concetti di script e
plan. Lo script organizza conoscenze relative a eventi (persone e oggetti implicati e
sequenze di eventi previsti). Mancando uno specifico script a cui fare riferimento ai
fini della comprensione, è necessario ricostruire gli scopi del protagonista dell’azione
e i modi in cui egli cercherà di conseguirli (plan) (Shank e Abelson 1977).
Gli schemi o copioni non possono comunque, sostenere ogni eventualità: noi
possediamo degli assunti sul mondo che sono impliciti nei nostri schemi e perciò
spesso sfuggono alla nostra consapevolezza. Questi, per essere utilizzati in
intelligenza artificiale
20
, devono essere resi espliciti e ciò inevitabilmente comporta
20
Il tema delle rappresentazioni esplicite in IA sarà affrontato anche nei paragrafi successivi.
13
delle difficoltà. Gli esseri umani infatti, hanno una conoscenza profonda del mondo
che va oltre un qualsiasi insieme di circostanze che possa essere definito da un
copione. Il problema per chi progetta intelligenza artificiale è allora, quanta di questa
conoscenza generale è necessario che un programma possieda: se ne possiede
poca, non possono essere prodotte inferenze corrette quando si hanno anche
piccole deviazioni dalla norma; se ne possiede troppa, in modo da prevedere tutte le
possibilità, la complessità del programma cresce enormemente. Inoltre, la risoluzione
di problemi che prevede l’esplorazione di tutte le possibilità, non solo non è
conveniente a livello computazionale (all’aumentare dei fattori aumenta in modo
esponenziale il numero delle combinazioni possibili), ma non rispecchia la modalità
umana di risolvere i problemi. Gli esseri umani infatti, non calcolano tutto, non
conoscono tutto, ma usano ragionamento ed euristiche
21
, tecniche che aiutano la
razionalità in circostanze imperfette (Castelfranchi e Stock 2000).
Perciò, a partire negli anni ’70, anche nel contesto della ricerca in intelligenza
artificiale, si elaborano delle euristiche che prevedono, nell’esplorazione di strutture
di rappresentazione della conoscenza ad albero, la definizione di principi in base ai
quali il sistema può utilizzare una combinazione del metodo di ricerca in profondità e
in ampiezza, scegliendo la sequenza temporale da utilizzare o seguendo una
sequenza preventivamente definita (Raphael 1976; Boden 1977; Nilsson 1980; Rich
e Knight 1991).
Il successo dei sistemi esperti, a cui si è precedentemente accennato, è proprio
dovuto alla difficoltà di definire procedure euristiche generali, sia perché non è facile
scomporre un problema in una gerarchia di passi successivi, sia perché le strategie
migliori per la soluzione di un problema (e le stesse soluzioni) sono fornite da
conoscenze specifiche relative al dominio in cui si situa una dato problema (Tabossi
1988).
Simile al concetto di schema è quello di modello mentale. Quest’ultimo fornisce una
definizione più ampia di schema, in quanto specifica le azioni causali che si
verificano tra gli oggetti che ne fanno parte (Mayer 1992). L’enfasi qui è posta, non
tanto su come appaiono oggetti e eventi, ma come le loro relazioni sono codificate e
immagazzinate in memoria. In questo senso, le convenzioni grafiche delle mappe di
21
Si tratta di un termine di derivazione greca che significa trovare, da cui deriva anche l’esclamazione
di Archimede di Siracusa: eureka! (Y. Castelfranchi e O. Stock 2000).
14
informazione, a cui si è accennato precedentemente, utilizzano la metafora dello
spazio per veicolare strutture semantiche (Winn e Salomon 1991).
Al fine di facilitare la creazione di buoni modelli mentali da parte dei discenti, uno
degli interessi primari degli studiosi di tecnologia dell’educazione è fare in modo che i
materiali e gli eventi d’istruzione interagiscano con ciò che gli studenti già
comprendono.
Una tecnologia che permette di mostrare l’interazione dinamica di componenti
possiede il potenziale adatto ad aiutare gli studenti a sviluppare modelli di
rappresentazione del mondo accurati e accessibili. I computer multimediali, che
permettono in modo relativamente semplice, di costruire materiali didattici interattivi e
sono in grado, attraverso l’animazione, di rappresentare passaggi di stato e azioni
causali, diventano oggetto di ricerca degli studiosi in tecnologia dell’educazione, che
vedono in essi validi strumenti in grado di favorire l’apprendimento (Hueyching e
Reeves 1992; Kozma et al. 1993; Seel e Dorr 1994).
In una prospettiva cognitivista, l’apprendimento si verifica quando azioni cognitive
modificano rappresentazioni mentali. I processi mentali, come precedentemente
accennato, sono un ulteriore importante oggetto di ricerca della scienza cognitiva e
hanno uno stretto rapporto con l’elaborazione dell’informazione, la manipolazione di
simboli e la costruzione di conoscenza. I processi costituiscono la parte dinamica di
un sistema cognitivo, le rappresentazioni, gli oggetti astratti a cui si applicano tali
processi (Tabossi 1988).
Secondo i modelli di elaborazione dell’informazione, che appaiono per la prima volta
negli anni ’50, le persone, analogamente ai computer, traggono le loro informazioni
dall’ambiente, le raccolgono in memorie tampone (buffer) e le elaborano prima di
immagazzinarle nella memoria a lungo termine. Tali modelli descrivono la natura e la
funzione di ipotetiche unità all’interno di sistemi percettivi e cognitivi e le modalità con
cui esse interagiscono. Nella letteratura di tecnologia dell’istruzione il modello
dell’elaborazione umana dell’informazione è piuttosto persistente (Gagné 1974;
Gagné 1985). L’impiego di strategie che possano indurre il chunking, l’articolazione
degli elementi di un’unità in unità più piccole ai fini della memorizzazione, fa parte del
repertorio standard di strumenti utilizzati dai progettisti didattici ed emerge proprio
dalla constatazione dell’inefficienza umana nella memorizzazione dell’informazione,
quando paragonata a quella di un computer.